UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho...

70
UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE-RECTORADO ACADÉMICO ESCUELA DE ADMINISTRACIÓN ASIGNATURA INFORMÁTICA SEDE EL TIGRE HISTORIA DE INTERNET DOCENTE: HAMLET MATA MATA ESTUDIANTE: BRAHIAN MORENO EL TIGRE / ANZOÀTEGUI

Transcript of UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho...

Page 1: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

UNIVERSIDAD GRAN MARISCAL DE AYACUCHO

VICE-RECTORADO ACADÉMICO

ESCUELA DE ADMINISTRACIÓN

ASIGNATURA INFORMÁTICA

SEDE EL TIGRE

HISTORIA DE INTERNET

DOCENTE: HAMLET MATA MATA

ESTUDIANTE: BRAHIAN MORENO

EL TIGRE / ANZOÀTEGUI

Page 2: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

LA VERDADERA HISTORIA DE INTERNET

(Este material fue tomado de diferentes direcciones electrónica, el mismo será utilizado para fines educativo)

INTRODUCCIÒN

Internet es la gran red internacional de ordenadores, vale decir,

una red de redes, que permite conectar al mundo. Por lo tanto,

como las redes del mundo, permite compartir recursos, o lo que es

lo mismo, mediante el computador, se puede establecer una

comunicación inmediata con cualquiera persona ubicada en

cualquier lugar del mundo, a los fines de obtener información de

ella o sobre un tema que nos interesa, además de visitar las

diferentes Biblioteca del mundo, o conseguir un programa o un

juego determinado para nuestro computador. En consecuencia con

Internet se pueden establecer vínculos comunicativos con millones

de personas de todo el mundo, bien sea para fines, personales,

comerciales, académicos, investigación o personales.

De una idea de una primitiva red se fue formando un armazón más

complejo del cual nació lo que hoy se conoce como Internet. A

principio de los años sesenta, la forma de comunicación de las computadoras era manual, a través de tarjetas perforadas o cintas

magnéticas, es decir, eran muy rudimentarias. Esto implicaba que

una persona tomara la pila de tarjetas perforadas de la computadora A para leerlas en la computadora B y así

sucesivamente.

En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes.

Kleinrock convenció a Lawrence Roberts de la factibilidad teórica

de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo

informático en red. Otro paso fundamental fue hacer dialogar a los

computadores entre sí. Los EE.UU. estaban buscando una forma secreta de mantener las comunicaciones vitales del país en el

posible caso de una guerra nuclear. Esta circunstancia marcó

hondamente su evolución, ya que todavia los rasgos

Page 3: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

fundamentales del proyecto se hallan presentes en lo que hoy

conocemos como Internet.

La primera red interconectada nace el 21 de noviembre de

1969, cuando se crea el primer enlace entre las

universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios

anteriores de varios científicos y organizaciones desde 1959

(ver Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue

siendo muy popular. Sin embargo, este no fue el único motivo

Page 4: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

¿Qué es Internet?

Internet es una gran red internacional de ordenadores.(Es, mejor

dicho, una red de redes, como veremos más adelante). Permite,

como todas las redes, compartir recursos. Es decir: mediante el

ordenador, establecer una comunicación inmediata con cualquier

parte del mundo para obtener información sobre un tema que nos

interesa, ver los fondos de la Biblioteca del Congreso de los

Estados Unidos, o conseguir un programa o un juego determinado

para nuestro ordenador. En definitiva: establecer vínculos

comunicativos con millones de personas de todo el mundo, bien

sea para fines académicos o de investigación, o personales.

De una idea de una primitiva red se fue fraguando un entramado

más complejo del cual nació lo que hoy conocemos como Internet.

¿Cómo surgió la red?

De una idea de una primitiva red se fue fraguando un entramado

más complejo del cual nació lo que hoy conocemos como Internet.

A mediados de los sesenta, la forma de comunicación de las computadoras era manual, a través de tarjetas perforadas o cintas

magnéticas. Esto implicaba que una persona tomara la pila de

tarjetas perforadas de la computadora A para leerlas en la computadora B y así sucesivamente.

En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT

el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica

de las comunicaciones vía paquetes en lugar de circuitos, lo cual

resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a

los ordenadores entre sí. Para explorar este terreno, en 1965,

Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de

baja velocidad, creando así la primera (aunque reducida) red de

computadoras de área amplia jamás construida.

En los EE.UU. se estaba buscando una forma de mantener las

Page 5: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

comunicaciones vitales del país en el posible caso de una guerra

nuclear. Este hecho marcó profundamente su evolución, ya que

aún ahora los rasgos fundamentales del proyecto se hallan presentes en lo que hoy conocemos como Internet.

1969. La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre

las universidades de UCLA y Stanford por medio de la línea

telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959

(ver Arpanet). El mito de que ARPANET, la primera red, se

construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si

bien es cierto que ARPANET fue diseñada para sobrevivir a fallos

en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la

siguiente cita:

A raíz de un estudio de RAND, se extendió el falso rumor de que

ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca

fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura

de comunicaciones de voz. Sin embargo, trabajos posteriores

enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief

History of the Internet)

1972. Se realizó la Primera demostración pública de ARPANET,

una nueva red de comunicaciones financiada por la DARPA que

funcionaba de forma distribuida sobre la red telefónica conmutada.

El éxito de ésta nueva arquitectura sirvió para que, en 1973, la

DARPA iniciara un programa de investigación sobre posibles

técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos

protocolos de comunicaciones que permitiesen este intercambio de

información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de

"Internet", que se aplicó al sistema de redes interconectadas

mediante los protocolos TCP e IP.

Page 6: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

1983. El 1 de enero, ARPANET cambió el protocolo NCP por

TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a

Internet. Por otra parte, se centró la función de asignación de

identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona

servicios a los DNS.

1986. La NSF comenzó el desarrollo de NSFNET que se convirtió

en la principal Red en árbol de Internet, complementada después

con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas

como comerciales, junto con las americanas formaban el esqueleto

básico ("backbone") de Internet.

1989. Con la integración de los protocolos OSI en la arquitectura

de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de

facilitar el uso de distintos protocolos de comunicaciones. En el

CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el

mismo equipo construyó el primer cliente Web, llamado

WorldWideWeb (WWW), y el primer servidor web.

2006. El 3 de enero, Internet alcanzó los mil cien millones de

usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a más de 3.000 millones.

Para la década de los 70, ya las empresas norteamericanas

poseían en sus departamentos, por lo menos una computadora, y

todos, los de cada departamento se encontraban interconectados

físicamente por un cableado. Esto recibió el nombre de red LAN (Red de Área Local, redes internas que sólo funcionan dentro del

mismo edificio pero que no tienen conexión con ningún otro

sistema de red fuera del mismo). Pero, estas redes tenían el problema de que eran muy lentas respecto a la velocidad conque

se comunicaban y además, todas las computadoras debían

funcionar para que la red funcionara, si alguna se averiaba, inmediatamente la red dejaba de funcionar.

Page 7: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

En conclusión, la tecnología y el uso de redes LAN para esta época

era poco confiable y difícil de manejar.

El Departamento de Defensa de Estados Unidos de América de interesó por esta tecnología de redes y el desarrollo de

computadoras avanzadas, debido a que el ejército estadounidense

dependía de la tecnología de cómputo, así que los avances en esta materia eran de vital importancia. Las redes que se venían usando

demostraban gran vulnerabilidad, así que para 1970, la Agencia de

Proyectos de Investigación de Avanzada DARPA, miembros del Departamento de Defensa de Estados Unidos se tomó la tarea de

desarrollar un nuevo tipo de red que funcionara a pesar de

múltiples obstáculos, así nació ARPAnet.

La Red nació en 1969 como proyecto ARPAnet del Departamento

de Defensa de los EE.UU. Se trataba de una red experimental

militar capaz de soportar destrozos parciales y garantizar la compatibilidad entre equipos distintos. El objetivo básico era que

cada ordenador conectado pudiera hablar con cualquier otro que

también estuviera en la Red: peer-to-peer (entre iguales).

Apareció así una forma de sistemas abiertos: máquinas de

distintos fabricantes podían dialogar entre sí. El software de

comunicaciones desarrollado para ARPAnet fue imponiéndose, debido a presiones del mercado, sobre todo por su compatibilidad.

En los años 80, aparecen las redes locales y las estaciones de

trabajo con UNIX BSD y TCP/IP. Las instituciones científicas y los fabricantes querían conectar sus redes a ARPAnet. Por este motivo

se implantaron en red local sus mismos protocolos.

El acceso a la Red se difundió por las Universidades y actualmente hay toda una serie de redes interconectadas que forman la

Internet (la Red de redes). Y como el uso genera demanda,

continuamente se están añadiendo nuevos y más rápidos enlaces y servicios para satisfacer las crecientes necesidades.

La oferta genera demanda y viceversa. El crecimiento, desde

1983, ha sido exponencial. Este tipo de crecimiento tiene una propiedad interesante: en cada momento, aproximadamente la

mitad de los conectados a Internet, obtuvieron su acceso en el año

último.

CRONOLOGÍA / HITOS:

Page 8: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

1969: Se ponen en funcionamiento los primeros nodos de

ARPAnet, en universidades americanas seleccionadas.

1972: Primera demostración pública de ARPAnet. Se inventa el correo electrónico.

1973: Entran Noruega en Inglaterra en el proyecto.

1974: Se publica el protocolo de Control de Transferencia (TCP)

1983: TCP/IP se convierte en el protocolo estándar de ARPAnet

1984: La responsabilidad de ARPAnet pasa a la Fundación Nacional

para la Ciencia (NSF). Se define el Sistema de Nombres de Dominio (DNS)

1986: NSF establece su propia red de alta velocidad NSFnet. Se

definen los protocolos de Transferencia de Noticias (NNTP).

1990: Internet se separa de ARPAnet

1991: La Universidad de Minnesota presenta un "recopilador" de

información en la Red, Gopher (el topo)

1992: El CERN de Ginebra, facilita el código para enlazar

información hipertextual sobre la Red (http) y se establece la

malla o tela de araña mundial (World Wide Web, WWW). El candidato demócrata a la Presidencia de USA incluye las

"autopistas de información" y el fomento de las TICs en su

programa electoral.

1993: Nace la "navegación" al estar disponible el primer

navegador web comercial, Mosaic.

1995: A finales de este año hay conectados seis millones de servidores y cincuenta mil redes; los "internautas" se estiman en

cuarenta millones. Se incorporan nuevos servicios de valor

añadido, comercio electrónico, teletrabajo, teleformación... El número de servidores comerciales sobrepasa, desde entonces, al

de servidores del sector educativo

1999: A mediados de año se contabilizan más de 160 millones de usuarios.

Origen: ARPANET.

Page 9: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

* Una red informática puede ser establecida entre dos

ordenadores. No es necesario, para ser considerada "red", mas

que dos o más ordenadores comunicados, de modo que puedan

compartir recursos. Es lo que se llama una LAN: Local Area

Network, o Red de Área Local. Por ejemplo, todos los ordenadores

de una empresa.

* El Ministerio de Defensa de Estados Unidos estableció una red

interestatal en los años 60, de modo que toda la defensa del país

dependiera de la misma red y compartiera los recursos de ésta.

Así nació ARPANet (Advanced Projects Agency Net, llamada

también DARPANet, por Defensa), con tres requisitos

fundamentales:

- la red debía estar protegida en caso de que un desastre natural o

una guerra, especialmente un ataque nuclear, afectase al país, de

modo no debilitase a la totalidad de la red, aunque una parte

estuviera dañada.

- la red, al igual que no debía ser afectada por la eliminación de

una parte, debía permitir la incorporación de nuevos elementos

con facilidad.

- debía usar un lenguaje (códigos informáticos), un protocolo, que

pudiera ser entendido por cualquier ordenador,

independientemente del sistema empleado.

* ARPANet emplea ya el sistema de envío de Internet: por

"paquetes", es decir: cada archivo es dividido en partes, y se le da

a cada una el equivalente a una dirección y un sello. Cuando llegan

a su destino (puede llegar por diferentes "medios de transporte")

se unen y forman el archivo original. El protocolo que ya se usa (y

que es el utilizado por Internet desde entonces) es el TCP/IP

(Transmission Control Protocol / Internet Protocol). Es el protocolo

necesario para que se dé la comunicación entre todos los

ordenadores conectados a la red, sea cual sea su sistema

operativo o sus características.

Page 10: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

* A ARPANet se le unen, todavía en Estados Unidos, otras

instituciones, como Universidades, centros gubernamentales,

organizaciones privadas, etc. A principios de los 80 se unen otros

países.

* En 1983 nace Internet, con un gran número de usuarios y un

crecimiento vertiginoso. Al unirse otros países y otras

organizaciones, el DNS (que luego veremos) debe modificarse. A

los nombres anteriormente existentes, se le añaden los

identificadores del país en cuestión.

* El crecimiento de Internet ronda el 20 % mensual. Hay

diferencias entre la red original de ARPANet (que es ahora una de

las "backbone", parte de la red con más velocidad de transmisión

de datos) y el resto. En la red principal, la velocidad actual de

transmisión de datos permite enviar la Enciclopedia Británica en

unos segundos.

Red de redes.

* Internet no es una sola red. Como antes hemos dicho, se han

unido diversas redes internacionales a un núcleo central, la original

Arpanet. Internet es una red de redes. Cada universidad, empresa

o particular se une a una red local (por ejemplo, la Universidad

Complutense de Madrid, UCM), y ésta red local conecta con

Internet.

* Como en una red de carreteras, hay autopistas y autovías

("backbone") en las que circulan muchos vehículos a gran

velocidad, y carreteras comarcales, en las que circulan menos

vehículos, y a menor velocidad. Las "superautopistas" de la

comunicación (el equivalente a una autovía) unen grandes centros

o puntos de enlace, y de ahí salen las redes mas lentas que unen

el resto de las empresas (carreteras comarcales).

Internet ha revolucionado la informática y las comunicaciones

como ninguna otra cosa. La invención del telégrafo, el teléfono, la

radio y el ordenador sentó las bases para esta integración de

Page 11: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

funcionalidades sin precedentes. Internet es a la vez una

herramienta de emisión mundial, un mecanismo para diseminar

información y un medio para la colaboración y la interacción entre personas y sus ordenadores, sin tener en cuenta su ubicación

geográfica. Internet representa uno de los ejemplos más exitosos

de los beneficios de una inversión y un compromiso continuos en el campo de la investigación y el desarrollo de la infraestructura de

la información. Desde las primeras investigaciones en conmutación

de paquetes, el Gobierno, la Industria y la Academia se han asociado como artífices de la evolución e implementación de esta

apasionante nueva tecnología. Hoy en día, términos como

"[email protected]" y "http://www.acm.org" se escuchan a cualquier persona de la calle. 1

Esta es una historia breve, necesariamente somera e incompleta. Actualmente existe mucho material sobre Internet, material que

cubre su historia, tecnología y uso. Un viaje a prácticamente

cualquier librería le permitirá encontrar estanterías llenas de material escrito sobre Internet. 2

En este artículo,3 varios de los que estuvimos involucrados en el desarrollo y evolución de Internet compartimos nuestros puntos de

vista sobre sus orígenes y su historia. Esta historia se desarrolla a

partir de cuatro aspectos diferentes. Está la evolución tecnológica que empezó con las primeras investigaciones sobre conmutación

de paquetes y ARPANET (y tecnologías relacionadas), donde las

investigaciones actuales continúan ampliando el horizonte de la infraestructura junto con varias dimensiones, como la escala, el

rendimiento y las funcionalidades de nivel superior. Está el aspecto

de operaciones y gestión de una infraestructura operativa global y

compleja. Está el aspecto social, que dio como resultado una

amplia comunidad de internautas trabajando juntos para crear y

desarrollar la tecnología. Y está el aspecto de la comercialización, que desembocó en una transición extremadamente eficaz de los

resultados de las investigaciones a una estructura de información

ampliamente implementada y disponible.

Internet, como la conocemos hoy en día, es una infraestructura de

información muy difundida, el prototipo inicial de lo que se llama a menudo la Infraestructura de Información Nacional (o Global, o

Galáctica). Su historia es compleja e implica muchos aspectos:

Page 12: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

tecnológicos, organizativos y comunitarios. Y su influencia no solo

alcanza los campos técnicos de las comunicaciones informáticas,

sino también a toda la sociedad, ya que nos movemos hacia un uso mayor de las herramientas en línea para el comercio

electrónico, la obtención de información y las operaciones

comunitarias.

Orígenes de Internet

La primera descripción registrada de las interacciones sociales que

se podían habilitar a través de la red fue una serie de memorandos

escritos por J.C.R. Licklider, del MIT, en agosto de 1962, en los que describe su concepto de “Red galáctica”. Imaginó un conjunto

de ordenadores interconectados globalmente, a través de los que

todo el mundo podría acceder rápidamente a datos y programas desde cualquier sitio. En espíritu, el concepto era muy similar a la

Internet de hoy en día. Licklider era el director del programa de

investigación informática de DARPA,4 que comenzó en octubre de 1962. Mientras estaba en DARPA convenció a sus sucesores en

dicha agencia (Ivan Sutherland, Bob Taylor y Lawrence G. Roberts,

investigador del MIT), de la importancia de su concepto de red.

Leonard Kleinrock, del MIT, publicó el primer documento sobre la

teoría de conmutación de paquetes en julio de 1961 y el primer libro sobre el tema en 1964 Kleinrock convenció a Roberts de la

factibilidad teorética de comunicarse usando paquetes en vez de

circuitos, lo que fue un gran paso en el viaje hacia las redes informáticas. El otro paso clave fue conseguir que los ordenadores

hablasen entre sí. Para explorar esta idea, en 1965, trabajando

con Thomas Merrill, Roberts conectó el ordenador TX-2, en

Massachusetts, con el Q-32, en California, mediante una línea

telefónica conmutada de baja velocidad, creando la primera

(aunque pequeña) red de área amplia del mundo. El resultado de este experimento fue la constatación de que los ordenadores con

tiempo compartido podían trabajar bien juntos, ejecutando

programas y recuperando datos según fuese necesario en el equipo remoto, pero que el sistema telefónico de conmutación de

circuitos era totalmente inadecuado para esa tarea. Se confirmó la

convicción de Kleinrock de la necesidad de la conmutación de paquetes.

Page 13: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

A finales de 1966, Roberts entró en DARPA para desarrollar el

concepto de redes informáticas y rápidamente creó su plan para

"ARPANET", que publicó en 1967. En la conferencia en la que presentó el artículo había otra ponencia sobre el concepto de redes

de paquetes, que venía del Reino Unido, de la mano de Donald

Davies y Roger Scantlebury, del NPL. Scantlebury le comentó a Roberts el trabajo del NPL y el de Paul Baran y otras personas de

RAND. El grupo RAND había escrito un artículo sobre redes de

conmutación de paquetes para cifrar comunicaciones de voz en el ejército en 1964. La labor del MIT (1961-1967), de RAND (1962-

1965) y del NPL (1964-1967) se había llevado a cabo en paralelo

sin que los investigadores conociesen el trabajo de los demás. Se adoptó el término “paquete” del trabajo del NPL, y la velocidad de

línea propuesta en el diseño de ARPANET pasó de 2,4 kbps a 50

kbps. 5

En agosto de 1968, después de que Roberts y la comunidad

financiada por DARPA redefinieran la estructura general y las especificaciones de ARPANET, DARPA publicó una solicitud de

presupuesto para desarrollar uno de los componentes clave, los

conmutadores de paquetes llamados procesadores de mensajes de interfaz (IMP). La solicitud de presupuesto la ganó en diciembre de

1968 un grupo liderado por Frank Heart, de Bolt, Beranek y

Newman (BBN). Mientras el equipo de BNN trabajaba en los IMP con Bob Kahn desempeñando un importante papel en el diseño

arquitectónico general de ARPANET, Roberts, junto con Howard

Frank y su equipo de Network Analysis Corporation, diseñaron la topología y la economía de la red. El sistema de medición de la red

lo preparó el equipo de Kleinrock en UCLA. 6

Debido al temprano desarrollo de Kleinrock de la teoría de

conmutación de paquetes y a su trabajo en el análisis, el diseño y

la medición, su Network Measurement Center de UCLA fue seleccionado como el primer nodo de ARPANET. Se recogió el fruto

de estos esfuerzos en septiembre de 1969, cuando BBN instaló el

primer IMP en UCLA y se conectó el primer host. El proyecto de Doug Engelbart, “Augmentation of Human Intellect” (aumento del

intelecto humano, que incluía NLS, un antecedente del sistema de

hipertexto), en el Standford Research Institute (SRI), fue el segundo nodo. El SRI estaba detrás del Network Information

Center, liderado por Elizabeth (Jake) Feinler, que incluía funciones

Page 14: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

como mantenimiento de tablas de nombres de host para asignar

direcciones, así como de un directorio de RFC.

Un mes más tarde, cuando el SRI se conectó a ARPANET, se envió

el primer mensaje de host a host desde el laboratorio de Kleinrock

hasta el SRI. Se añadieron dos nodos más, en la Universidad de California en Santa Bárbara y en la Universidad de Utah. Estos dos

últimos nodos incorporaron proyectos de visualización de

aplicaciones, con Glen Culler y Burton Fried, de la Universidad de California en Santa Bárbara, investigando métodos para mostrar

funciones matemáticas usando pantallas de almacenamiento para

resolver el problema de la actualización en la red, y Robert Taylor e Ivan Sutherland, de Utah, investigando métodos de

representación 3D en la red. De esta manera, a finales de 1969,

había cuatro hosts conectados en la ARPANET inicial, e Internet iniciaba su trayectoria. Incluso en esta primera etapa, conviene

destacar que la investigación sobre redes incorporaba trabajo

sobre la red subyacente y trabajo sobre cómo usar la red. Esta tradición continúa hoy en día.

En los siguientes años, se añadieron rápidamente ordenadores a ARPANET, y se siguió trabajando para conseguir un protocolo de

host a host funcionalmente completo y otro software de red. En

diciembre de 1970, el Network Working Group (NWG), bajo el liderazgo de S. Crocker, terminó el protocolo de host a host inicial

de ARPANET, llamado Network Control Protocol (NCP). Cuando los

sitios de ARPANET terminaron de implementar NCP, en el periodo de 1971 a 1972, los usuarios de la red pudieron, por fin, comenzar

a desarrollar aplicaciones.

En octubre de 1972, Kahn organizó una gran demostración de

ARPANET, que tuvo mucho éxito, en la International Computer

Communication Conference (ICCC). Fue la primera demostración pública de esta nueva tecnología de redes. En 1972 también se

introdujo la aplicación “hot” inicial, el correo electrónico. En marzo,

Ray Tomlinson, de BBN, escribió el software básico de envío y lectura de mensajes de correo electrónico, motivado por la

necesidad de los desarrolladores de ARPANET de un mecanismo

sencillo de coordinación. En julio, Roberts amplió su utilidad escribiendo la primera utilidad de correo electrónico para hacer

listas de mensajes, leerlos selectivamente, archivarlos, reenviarlos

Page 15: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

y responder a los mismos. A partir de ese momento, el correo

electrónico se convirtió en la aplicación de red más importante

durante más de una década. Esto presagió el tipo de actividad que vemos hoy en día en la World Wide Web, es decir, un crecimiento

enorme de todo tipo de tráfico “de persona a persona”.

Los primeros conceptos de Internet

La ARPANET original se convirtió en Internet. Internet se basó en la idea de que habría múltiples redes independientes con un diseño

bastante arbitrario, empezando por ARPANET como red pionera de

conmutación de paquetes, pero que pronto incluiría redes de paquetes satélite, redes terrestres de radiopaquetes y otras redes.

Internet tal y como la conocemos hoy en día plasma una idea

técnica subyacente fundamental, que es la de red de arquitectura abierta. En este enfoque, la selección de una tecnología de redes

no la dictaba una arquitectura particular de redes, sino que la

podía elegir libremente un proveedor y hacerla trabajar con las demás redes a través de una “metaarquitectura de interredes”.

Hasta ese momento solo había un método general para federar

redes. Era el método tradicional de conmutación de circuitos, en el que las redes se interconectaban a nivel de circuito, pasando bits

individuales de forma síncrona a través de una parte de un circuito

completo entre un par de ubicaciones finales. Recordemos que Kleinrock había demostrado en 1961 que la conmutación de

paquetes era un método de conmutación más eficiente. Además de

la conmutación de paquetes, las interconexiones entre redes con fines especiales eran otra posibilidad. Aunque había otras maneras

limitadas de interconectar redes diferentes, era necesario usar una

como componente de la otra, y la primera no actuaba como par de

la segunda ofreciendo servicios de extremo a extremo.

En una red de arquitectura abierta, las redes individuales se pueden diseñar y desarrollar por separado, cada una con su propia

interfaz única, que puede ofrecerse a usuarios y otros

proveedores, incluyendo otros proveedores de Internet. Se puede diseñar cada red según el entorno específico y los requisitos de los

usuarios de esa red. En general, no existen restricciones sobre el

tipo de redes que se pueden incluir o sobre su alcance geográfico, aunque ciertas consideraciones pragmáticas dictaminan lo que

tiene sentido ofrecer.

Page 16: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

La idea de las redes de arquitectura abierta la introdujo por

primera vez Kahn, poco después de llegar a DARPA, en 1972. Su

labor era originalmente parte del programa de radiopaquetes, pero posteriormente se convirtió en un programa independiente por

derecho propio. En aquel momento, el programa se llamó

“Internetting”. La clave para que el sistema de radiopaquetes funcionase era un protocolo de extremo a extremo fiable que

pudiera mantener una comunicación efectiva frente a bloqueos y

otras interferencias de radio, o soportar cortes intermitentes como los causados cuando se entra en un túnel o el terreno bloquea la

señal. Kahn, al principio, se planteó desarrollar un protocolo solo

para la red de radiopaquetes, ya que así evitaría tratar con una multitud de diferentes sistemas operativos, y seguir usando NCP.

Sin embargo, NCP no tenía la capacidad de dirigirse a redes (ni a máquinas) que estuvieran más allá de un IMP de destino de

ARPANET, de modo que también hacía falta algún cambio en NCP.

(Se asumía que ARPANET no se podía cambiar en este sentido). NCP dependía de ARPANET para ofrecer fiabilidad de extremo a

extremo. Si se perdía algún paquete, el protocolo (y

probablemente las aplicaciones a las que este daba soporte) se pararía de repente. En este modelo, NCP no tenía control de

errores de host de extremo a extremo, ya que ARPANET sería la

única red, y tan fiable que no haría falta un control de errores por parte de los hosts. Así pues, Kahn decidió desarrollar una nueva

versión del protocolo que podría cubrir las necesidades de un

entorno de redes de arquitectura abierta. Este protocolo se llamaría más adelante Protocolo de Control de

Transmisión/Protocolo de Internet (TCP/IP). Mientras que NCP

tendía a actuar como un controlador de dispositivo, el nuevo

protocolo se parecería más a un protocolo de comunicaciones.

Cuatro reglas básicas fueron fundamentales en la primera concepción de Kahn:

Cada red diferente debería mantenerse por sí misma, y no debía ser necesario cambio interno alguno para que esas

redes se conectasen a Internet.

La comunicación se haría en base al mejor esfuerzo. Si un paquete no llegaba a su destino final, se retransmitía poco

después desde el origen.

Page 17: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Se usarían cajas negras para conectar las redes; más

adelante, estas cajas negras se llamarían puertas de enlace y

enrutadores. Las puertas de enlace no guardarían información acerca de los flujos individuales de paquetes que

pasaban por las mismas, manteniendo su sencillez y evitando

la complicación de la adaptación y la recuperación a partir de varios modos de error.

No habría control global a nivel operativo.

Otros problemas clave que había que resolver eran:

Algoritmos para evitar que los paquetes perdidos impidiesen permanentemente las comunicaciones y permitir que dichos

paquetes se retransmitiesen correctamente desde el origen.

Ofrecer “segmentación” de host a host para que se pudiesen enviar múltiples paquetes desde el origen hasta el destino,

según el criterio de los hosts, si las redes intermedias lo

permitían. Funciones de puerta de enlace para poder reenviar paquetes

de manera adecuada. Esto incluía interpretar encabezados IP

para enrutar, manejar interfaces, dividir paquetes en partes más pequeñas si era necesario, etc.

La necesidad de sumas de verificación de extremo a extremo,

reensamblaje de paquetes a partir de fragmentos y detección de duplicados.

La necesidad de un abordaje global

Técnicas para el control del flujo de host a host. Interfaces con los diferentes sistemas operativos

Había además otras preocupaciones, como la eficacia en la

implementación y el rendimiento de las redes, pero estas, en

principio, eran consideraciones secundarias.

Kahn comenzó a trabajar en un conjunto orientado a las comunicaciones de principios para sistemas operativos en BBN y

documentó algunas de sus ideas iniciales en un memorándum

interno de BBN titulado "Principios de comunicación para sistemas operativos". En este momento, se dio cuenta de que sería

necesario conocer los detalles de implementación de cada sistema

operativo para tener la oportunidad de integrar cualquier protocolo nuevo de una forma eficaz. Así pues, en la primavera de 1973,

tras comenzar el trabajo de lo que sería Internet, pidió a Vint Cerf

Page 18: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

(que entonces estaba en Stanford) que colaborase con él en el

diseño detallado del protocolo. Cerf había estado involucrado de

lleno en el diseño y desarrollo original de NCP, y ya tenía conocimiento sobre las interfaces de los sistemas operativos

existentes. Así que, armados con el enfoque arquitectónico de

Kahn para la parte de comunicaciones y con la experiencia de Cerf en NCP, se unieron para crear lo que se convertiría en TCP/IP.

Su colaboración fue muy productiva, y la primera versión escrita7 del enfoque resultante se distribuyó en una reunión especial del

International Network Working Group (INWG), que se había creado

en una conferencia de la Universidad de Sussex en septiembre de 1973. Se había invitado a Cerf a presidir ese grupo, y aprovechó la

ocasión para celebrar una reunión con los miembros del INWG que

eran numerosos en la Conferencia de Sussex.

Emergieron algunos enfoques básicos de esta colaboración entre

Kahn y Cerf:

La comunicación entre dos procesos consistiría lógicamente

en una secuencia larguísima de bytes (los llamaron octetos). Se usaría la posición de un octeto en la secuencia para

identificarlo.

El control de flujo se haría usando ventanas deslizantes y confirmaciones (acks). El destino podría decidir cuándo

confirmar, y cada ack devuelta se acumularía para todos los

paquetes recibidos hasta ese momento. No se concretó la manera exacta en la que el origen y el

destino acordarían los parámetros de división de particiones

que se usaría. Al principio se usaban los valores

predeterminados.

Aunque en ese momento se estaba desarrollando Ethernet en

Xerox PARC, la proliferación de LAN no se imaginaba entonces, y mucho menos la de los ordenadores personales y

las estaciones de trabajo. El modelo original era de redes

nacionales como ARPANET, y se esperaba que existiese un pequeño número de las mismas. Así pues, se usó una

dirección IP de 32 bits, en la que los primeros 8 bits

indicaban la red y los 24 bits restantes designaban el host de esa red. Fue evidente que habría que reconsiderar esta

suposición, la de que sería suficiente con 256 redes en el

Page 19: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

futuro inmediato, cuando empezaron a aparecer las LAN a

finales de los años 70.

El artículo original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que ofrecía todos los servicios de

transporte y reenvío de Internet. La intención de Kahn era que el protocolo TCP soportase una serie de servicios de transporte,

desde la entrega secuenciada totalmente fiable de datos (modelo

de circuito virtual) hasta un servicio de datagrama, en el que la aplicación hacía un uso directo del servicio de red subyacente, lo

que podía implicar la pérdida, la corrupción y la reordenación de

paquetes. Sin embargo, el primer intento de implementar TCP produjo una versión que solo permitía circuitos virtuales. Este

modelo funcionó bien para aplicaciones de inicio de sesión remoto

y transferencia de archivos, pero algunos de los primeros trabajos en aplicaciones de red avanzadas, en particular la voz por

paquetes de los años 70, dejaron claro que en algunos casos la

pérdida de paquetes no podía ser corregida por TCP, y la aplicación debería encargarse de ella. Esto llevó a reorganizar el TCP original

en dos protocolos, el IP simple, que solo dirigía y reenviaba

paquetes individuales, y el TCP por separado, que se ocupaba de funciones del servicio como el control de flujos y la recuperación

de paquetes perdidos. Para las aplicaciones que no querían los

servicios de TCP, se añadió una alternativa llamada Protocolo de datagramas de usuario (UDP) para ofrecer acceso directo a los

servicios básicos de IP.

Una de las principales motivaciones iniciales de ARPANET e

Internet era compartir recursos, por ejemplo, permitir a los

usuarios de las redes de radiopaquetes acceder a sistemas de

tiempo compartido conectados a ARPANET. Conectar ambos era

mucho más económico que duplicar estos ordenadores tan caros.

Sin embargo, aunque la transferencia de archivos y el inicio de sesión remoto (Telnet) eran aplicaciones muy importantes, el

correo electrónico ha sido, probablemente, la innovación de

aquella época con mayor impacto. El correo electrónico ofreció un nuevo modelo de comunicación entre las personas, y cambió la

naturaleza de la colaboración, primero en la creación de la propia

Internet (como se comenta a continuación) y después para gran parte de la sociedad.

Page 20: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Se propusieron otras aplicaciones en los primeros tiempos de

Internet, incluyendo la comunicación de voz basada en paquetes

(el precursor de la telefonía por Internet), varios modelos para compartir archivos y discos y los primeros programas “gusano”

que mostraron el concepto de agentes (y, por supuesto, virus). Un

concepto clave de Internet es que no se había diseñado solo para una aplicación, sino como una infraestructura general en la que se

podían concebir nuevas aplicaciones, como se ilustró más adelante

con la aparición de la World Wide Web. Es la naturaleza generalista del servicio que ofrecen TCP e IP la que lo hace posible.

Demostrando las ideas

DARPA firmó tres contratos con Stanford (Cerf), BBN (Ray

Tomlinson) y UCL (Peter Kirstein) para implementar TCP/IP (en el artículo de Cerf y Kahn se llamaba simplemente TCP, pero

contenía ambos componentes). El equipo de Stanford, liderado por

Cerf, produjo la especificación detallada y, en un año aproximadamente, se realizaron tres implementaciones

independientes de TCP que podían interoperar.

Este fue el principio de una experimentación y desarrollo a largo

plazo para perfeccionar y madurar los conceptos y la tecnología de

Internet. Empezando con las tres primeras redes (ARPANET, red de radiopaquetes y red satélite de paquetes) y sus primeras

comunidades de investigación, el entorno experimental incorpora

ya prácticamente cualquier forma de red y una comunidad de investigación y desarrollo con una base muy amplia. [REK78] Con

cada expansión se han presentado nuevos desafíos.

Las primeras implementaciones de TCP se hicieron con grandes

sistemas de tiempo compartido como Tenex y TOPS 20. Cuando

aparecieron los ordenadores de sobremesa por primera vez, algunos pensaron que TCP era demasiado grande y complejo para

ejecutarse en un ordenador personal. David Clark y su grupo de

investigación del MIT se propusieron demostrar que se podía hacer una implementación compacta y sencilla de TCP. Produjeron una

implementación, primero para el Xerox Alto (la primera estación

de trabajo personal desarrollada por Xerox PARC) y después para el IBM PC. La implementación era completamente interoperable

con otros TCP, pero se adaptó al conjunto de aplicaciones y los

Page 21: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

objetivos de rendimiento de los ordenadores personales, y

demostró que las estaciones de trabajo, además de grandes

sistemas de tiempo compartido, podían ser parte de Internet. En 1976, Kleinrock publicó el primer libro sobre ARPANET. Destacaba

la complejidad de los protocolos y las dificultades que a menudo

introducían. Este libro fue influyente a la hora de difundir el conocimiento sobre las redes de conmutación de paquetes entre

una comunidad muy amplia.

El amplio desarrollo de LAN, PC y estaciones de trabajo en los años

80 permitió florecer a la incipiente Internet. La tecnología de

Ethernet, desarrollada por Bob Metacalfe en Xerox PARC en 1973, es ahora probablemente la tecnología de redes dominante en

Internet, y los PC y las estaciones de trabajo son los ordenadores

dominantes. Este cambio entre tener unas cuantas redes con un número modesto de hosts de tiempo compartido (el modelo

original de ARPANET) y tener muchas redes ha originado una serie

de conceptos nuevos y cambios en la tecnología subyacente. Primero, tuvo como resultado la definición de tres clases de redes

(A, B y C) para acomodar todas las redes. La clase A representaba

las grandes redes a escala nacional (un pequeño número de redes con gran número de hosts); la clase B representaba las redes a

escala regional, y la clase C representaba las redes de área local

(un gran número de redes con relativamente pocos hosts).

Hubo un gran cambio como resultado del aumento de la escala de

Internet y sus problemas de gestión asociados. Para que la gente encontrase fácil el uso de la red, se asignaron nombres a los hosts,

de modo que no era necesario recordar las direcciones numéricas.

Originalmente, había un número bastante limitado de hosts, de

modo que era factible mantener una sola tabla con todos los hosts

y sus nombres y direcciones asociados. El cambio de tener un gran

número de redes gestionadas de manera independiente (por ejemplo, LAN) significaba que tener una sola tabla de hosts ya no

era factible, y Paul Mockapetris, de USC/ISI, inventó el sistema de

nombres de dominio (DNS). El DNS permitía un mecanismo escalable distribuido para resolver nombres de hosts jerárquicos

(por ejemplo, www.acm.org) en una dirección de Internet.

El aumento de tamaño de Internet también desafiaba las

capacidades de los enrutadores. Originalmente, existía un solo

Page 22: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

algoritmo distribuido para enrutar que se implementaba de

manera uniforme en todos los enrutadores de Internet. Cuando

aumentó tanto el número de redes en Internet, su diseño inicial no se pudo ampliar lo suficiente, de modo que se reemplazó por un

modelo de enrutamiento jerárquico, con un Protocolo de puerta de

enlace interna (IGP) que se usaba dentro de cada región de Internet, y un Protocolo de puerta de enlace externa (EGP) que se

usaba para unir las regiones. Este diseño permitió que las

diferentes regiones usasen un IGP diferente, de modo que se podían cumplir diferentes requisitos de coste, velocidad de

reconfiguración, robustez y escala. No solo el algoritmo de

enrutamiento, sino también el tamaño de las tablas de direccionamiento suponía un reto para la capacidad de los

enrutadores. Nuevos enfoques para la agregación de direcciones,

en particular el enrutamiento entre dominios sin clases (CIDR), se han introducido recientemente para controlar el tamaño de las

tablas de los enrutadores.

Conforme evolucionó Internet, uno de los principales desafíos fue

cómo propagar los cambios al software, en particular al software

de host. DARPA apoyó a UC Berkeley para investigar modificaciones del sistema operativo Unix, incluyendo la

incorporación de TCP/IP, desarrollado en BBN. A pesar de que

Berkeley reescribió después el código de BBN para que encajase de una forma más eficiente en el sistema y kernel de Unix, la

incorporación de TCP/IP en el sistema Unix BSD demostró ser un

elemento fundamental para la difusión de los protocolos entre la comunidad investigadora. Gran parte de la comunidad

investigadora informática empezó a usar Unix BSD en su entorno

informático diario. Echando la vista atrás, vemos que la estrategia

de incorporar protocolos de Internet en un sistema operativo

compatible para la comunidad investigadora fue uno de los

elementos clave para el éxito de Internet.

Uno de los retos más interesantes fue la transición del protocolo

de host de ARPANET de NCP a TCP/IP el 1 de enero de 1983. Fue una transición “histórica”, que exigió que todos los hosts se

convirtiesen simultáneamente para no tener que comunicarse a

través de mecanismos especiales. Esta transición se planificó cuidadosamente en la comunidad durante años antes de llevarse a

cabo realmente, y fue sorprendentemente bien (pero dio como

Page 23: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

resultado que se distribuyeran chapas con las palabras “Yo

sobreviví a la transición a TCP/IP”).

TCP/IP se había adoptado como estándar en Defensa tres años

antes, en 1980. Esto permitió a Defensa empezar a compartir en la

base de tecnología de Internet de DARPA, y llevó directamente a la división de las comunidades militar y no militar. En 1983,

ARPANET la usaba un número significativo de organizaciones

operativas y de I+D de Defensa. La transición de ARPANET de NCP a TCP/IP le permitió dividirse en MILNET, que cumplía requisitos

operativos, y ARPANET, que cubría las necesidades de

investigación.

Así pues, para 1985 Internet ya estaba bien establecida como

tecnología que daba cobertura a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser usada por

otras comunidades para comunicaciones informáticas diarias. El

correo electrónico se usaba ampliamente entre varias comunidades, a menudo con diferentes sistemas, pero la

interconexión entre diferentes sistemas de correo demostraba lo

útil que era una amplia comunicación electrónica entre la gente.

Transición a una infraestructura muy difundida

A la vez que la tecnología de Internet se estaba validando

experimentalmente y usando ampliamente entre un subconjunto

de investigadores informáticos, se estaban buscando otras redes y tecnologías de red. La utilidad de las redes de ordenadores (en

especial en lo que se refiere al correo electrónico) demostrada por

DARPA y las personas al servicio del Ministerio de Defensa en ARPANET, no pasó desapercibida para otras comunidades y

disciplinas, de modo que a mediados de los años 70 habían

empezado a aparecer redes de ordenadores donde lo permitía la financiación disponible. El Ministerio de Energía (DoE) de EE.UU.

creó MFENet para sus investigadores en energía de fusión

magnética, y los físicos de altas energías del DoE respondieron creando HEPNet. Los físicos espaciales de la NASA fueron los

siguientes, con SPAN, y Rick Adrion, David Farber y Larry

Landweber crearon CSNET para la comunidad informática (académica e industrial) con una beca inicial de la National Science

Foundation (NSF) de EE.UU. La amplia difusión por parte de AT&T

Page 24: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

del sistema operativo UNIX creó USENET, basado en los protocolos

de comunicaciones UUCP integrados en UNIX, y en 1981 Ira Fuchs

y Greydon Freeman crearon BITNET, que conectaba mainframes de la universidad en un paradigma de “correo electrónico como

imágenes de tarjetas”.

Con la excepción de BITNET y USENET, estas primeras redes

(incluyendo ARPANET) se crearon con un objetivo, es decir,

estaban dirigidas, y muy restringidas, a comunidades cerradas de eruditos; por lo tanto, había poca presión para que las redes

individuales fuesen compatibles y, de hecho, la mayoría no lo eran.

Además, empezaron a emprenderse tecnologías alternativas en el sector comercial, incluyendo XNS de Xerox, DECNet y SNA de

IBM.8 El programa británico JANET (1984) y el estadounidense

NSFNET (1985) anunciaron explícitamente que tenían la intención de dar servicio a toda la comunidad de la educación superior, sin

importar la disciplina. De hecho, una condición para que una

universidad estadounidense recibiera financiación de la NSF para contar con una conexión a Internet era: "... la conexión debe estar

disponible para TODOS los usuarios cualificados del campus”.

En 1985, Dennis Jennings llegó desde Irlanda para pasar un año

en la NSF, liderando el programa NSFNET. Trabajó con la

comunidad para ayudar a la NSF a tomar una decisión muy importante: que TCP/IP fuese obligatorio para el programa

NSFNET. Cuando Steve Wolff asumió la responsabilidad del

programa NSFNET en 1986, reconoció la necesidad de una infraestructura de red de área amplia para dar cobertura a toda la

comunidad académica e investigadora, además de la necesidad de

desarrollar una estrategia para establecer esa infraestructura de

manera que, en último término, fuese independiente de la

financiación federal directa. Se adoptaron políticas y estrategias

(ver a continuación) para conseguir ese fin.

La NSF también eligió respaldar la infraestructura organizativa de

Internet que existía en DARPA, organizada jerárquicamente a las órdenes de la (entonces) Internet Activities Board (IAB). La

declaración pública de esta elección fue realizada conjuntamente

por las Internet Engineering and Architecture Task Forces de la IAB y el Network Technical Advisory Group of RFC 985

(Requirements for Internet Gateways ) de la NSF, que aseguraron

Page 25: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

formalmente la interoperabilidad entre la Internet de DARPA y la

de la NSF.

Además de seleccionar TCP/IP para el programa NSFNET, las

agencias federales tomaron e implementaron otras decisiones

políticas que formaron la Internet de hoy en día.

Las agencias federales compartieron el coste de una

infraestructura común, como los circuitos transoceánicos. También se encargaron conjuntamente de los “puntos

gestionados de interconexión” para el tráfico entre agencias;

los Federal Internet Exchanges (FIX-E y FIX-W) creados con este fin sirvieron como modelos para los puntos de acceso a

la red y las instalaciones “*IX”, que son características

fundamentales de la arquitectura actual de Internet. Para coordinar esta distribución, se formó el Federal

Networking Council 9. El FNC también cooperaba con otras

organizaciones internacionales, como RARE en Europa, a través del Coordinating Committee on Intercontinental

Research Networking (CCIRN), para coordinar la cobertura en

Internet de la comunidad investigadora de todo el mundo. Esta forma de compartir y cooperar entre agencias en temas

relacionados con Internet tenía una larga historia. Un

acuerdo sin precedentes que se produjo en 1981 entre Farber, en nombre de CSNET y la NSF, y Kahn, en nombre de

DARPA, permitió que el tráfico de CSNET compartiese la

infraestructura de ARPANET basándose en estadísticas y sin cifras previas.

Después, y de manera similar, la NSF alentó a sus redes

regionales (inicialmente académicas) de NSFNET a buscar

clientes comerciales, no académicos, a ampliar sus

instalaciones para darles servicios y a utilizar el dinero

resultante para reducir los costes de abono a todo el mundo. En la red troncal de NSFET (el segmento a escala nacional de

NSFET), la NSF impuso una “Directiva de uso aceptable”

(AUP) que prohibía el uso de la red troncal para fines “ajenos a la investigación y la educación”. El resultado predecible (y

buscado) de alentar el tráfico de redes comerciales a nivel

local y regional, mientras se negaba el acceso al transporte a escala nacional, era estimular la aparición y crecimiento de

redes “privadas”, competitivas y de largo alcance, como PSI,

Page 26: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

UUNET, ANS CO+RE y (más adelante) otras. Este proceso de

aumento financiado por empresas privadas para usos

comerciales fue muy criticado desde 1988 en una serie de conferencias iniciadas por la NSF en la Escuela de Gobierno

Kennedy de Harvard acerca de “La comercialización y

privatización de Internet”, y en la propia lista de la red “com-priv”.

En 1988, un comité del Consejo Nacional de Investigaciones,

presidido por Kleinrock y con Kahn y Clark como miembros, presentó un informe encargado por la NSF titulado “Hacia

una red de investigación nacional”. Este informe influyó en el

entonces senador Al Gore, y marcó el comienzo de las redes de alta velocidad que fueron la base de la futura autopista de

la información.

En 1994, se publicó un informe del Consejo Nacional de Investigaciones, presidido de nuevo por Kleinrock (y con

Kahn y Clark como miembros una vez más), titulado

“Haciendo realidad el futuro de la información: Internet y después”. Este informe, encargado por la NSF, fue el

documento en el que se articuló el programa para la

evolución de la autopista de la información, y que ha tenido un efecto duradero en la manera en que se concibe su

evolución. Anticipó los problemas fundamentales de derechos

de propiedad intelectual, ética, precios, educación, arquitectura y regulación de Internet.

La política de privatización de la NSF culminó en abril de

1995, con la eliminación de la financiación de la red troncal de NSFNET. Los fondos así recuperados se redistribuyeron

(competitivamente) entre redes regionales para adquirir

conectividad a Internet a escala nacional de las entonces

numerosas redes privadas de largo alcance.

La red troncal había hecho la transición de una red construida a partir de enrutadores de la comunidad investigadora (los

enrutadores “Fuzzball” de David Mills) a los equipos comerciales.

En su vida de 8 años y medio, la red troncal había pasado de seis nodos con enlaces a 56 kbps a 21 nodos con múltiples enlaces a

45 Mbps. Había visto cómo Internet pasaba a tener más de 50.000

redes en los siete continentes y el espacio exterior, con aproximadamente 29.000 redes en Estados Unidos.

Page 27: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Tal era el peso del ecumenismo y la financiación del programa

NSFNET (200.000 millones de dólares desde 1986 hasta 1995) (y

de la calidad de los propios protocolos), que en 1990, cuando finalmente se retiró del servicio ARPANET 10, , TCP/IP había

suplantado o marginado a la mayoría de los demás protocolos de

red de área amplia, e IP se estaba convirtiendo a pasos agigantados en EL servicio portador de la infraestructura global de

información.

El papel de la documentación

Una clave para el rápido crecimiento de Internet ha sido el acceso abierto y gratuito a los documentos básicos, en especial las

especificaciones de los protocolos.

Los principios de ARPANET e Internet en la comunidad

investigadora universitaria promovieron la tradición académica de

publicar ideas y resultados de forma abierta. Sin embargo, el ciclo normal de las publicaciones académicas tradicionales era

demasiado formal y demasiado lento para el intercambio dinámico

de ideas esencial para la creación de redes.

En 1969, S. Crocker (en UCLA en aquel momento) dio un paso

esencial al establecer las series de notas Petición de comentarios (o RFC). La idea de estos memorandos era que fuesen una forma

de distribución informal y rápida para compartir ideas con otros

investigadores de la red. Al principio, las RFC se imprimían en papel y se distribuían a través del correo ordinario. Cuando se

empezó a usar el Protocolo de Transferencia de Archivos (FTP), las

RFC se preparaban como archivos en línea y se accedía a ellas a través de FTP. Hoy en día, por supuesto, se accede a las RFC

fácilmente a través de la World Wide Web en numerosos sitios de

todo el mundo. El SRI, en su papel de Centro de Información de Redes, mantenía los directorios en línea. Jon Postel fue editor de

RFC además de gestionar la administración centralizada de las

asignaciones necesarias de números de protocolo, trabajos que ejerció hasta su muerte, el 16 de octubre de 1998.

El efecto de las RFC fue crear un bucle de comentarios positivos, en el que las ideas y propuestas presentadas en una RFC

desencadenaban otra RFC con ideas adicionales, y así

Page 28: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

sucesivamente. Cuando se conseguía un consenso (o al menos un

conjunto coherente de ideas), se preparaba un documento de

especificaciones. Después, varios equipos de investigación usaban esas especificaciones como base para las implementaciones.

Con el tiempo, las RFC se han ido centrando más en los estándares de los protocolos (las especificaciones “oficiales”), aunque siguen

existiendo RFC informativas que describen enfoques alternativos, u

ofrecen información sobre los antecedentes de los protocolos y los problemas de ingeniería. Hoy en día, las RFC se conciben como

“documentos oficiales” en la comunidad de ingeniería y estándares

de Internet.

El acceso abierto a las RFC (gratuito, si tiene cualquier tipo de

conexión a Internet) promueve el crecimiento de Internet porque permite usar las especificaciones reales como ejemplos en clases y

entre los emprendedores que desarrollan nuevos sistemas.

El correo electrónico ha sido un factor significativo en todas las

áreas de Internet, y eso es especialmente cierto en el desarrollo

de especificaciones de protocolos y estándares técnicos y en la ingeniería de Internet. Las primeras RFC solían presentar un

conjunto de idas desarrolladas por un determinado grupo de

investigadores, ubicado en un punto concreto, que las presentaban al resto de la comunidad. Cuando se empezó a usar el correo

electrónico, el patrón de autoría cambió: las RFC eran presentadas

por varios autores con una visión común, independientemente de su ubicación.

El uso de listas de correo electrónico especializadas se ha usado desde hace tiempo en el desarrollo de especificaciones de

protocolos, y sigue siendo una herramienta importante. Ahora la

IETF consta de más de 75 grupos de trabajo, cada uno trabajando en un aspecto diferente de la ingeniería de Internet. Cada uno de

esos grupos de trabajo tiene una lista de correo electrónico para

discutir uno o más borradores en vías de desarrollo. Cuando se alcanza el consenso sobre un borrador, se puede distribuir como

RFC.

Como la actual y rápida expansión de Internet está impulsada por

la conciencia de su capacidad para compartir información,

Page 29: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

deberíamos entender que el primer papel de la red a la hora de

compartir información fue compartir la información relativa a su

propio diseño y funcionamiento a través de las RFC. Este método único de desarrollar nuevas funciones en la red seguirá teniendo

una importancia fundamental en la evolución futura de Internet.

Formación de una comunidad amplia

Internet es tanto una colección de comunidades como una colección de tecnologías, y su éxito se puede atribuir en gran

medida a la satisfacción de necesidades básicas de las

comunidades y a usar la comunidad de manera efectiva para hacer avanzar la infraestructura. Este espíritu comunitario tiene una

larga historia, que comienza con ARPANET. Los primeros

investigadores de ARPANET trabajaron como una comunidad muy unida para conseguir las primeras demostraciones de la tecnología

de conmutación de paquetes ya descrita. Del mismo modo, la red

satélite de paquetes, de radiopaquetes y otros programas de investigación informática de DARPA eran actividades en las que

colaboraban varias personas, que usaban con profusión cualquier

mecanismo disponible para coordinar sus esfuerzos, empezando por el correo electrónico y siguiendo por la posibilidad de compartir

archivos, el acceso remoto y, finalmente, las funciones de la World

Wide Web. Cada uno de esos programas formó un grupo de trabajo, empezando por el ARPANET Network Working Group.

Debido al papel único que desempeñó ARPANET como

infraestructura que respaldaba los distintos programas de investigación, cuando Internet empezó a evolucionar, el Network

Working Group se convirtió en el Internet Working Group.

A finales de la década de 1970, reconociendo que el crecimiento de

Internet iba acompañado de un crecimiento del interés de la

comunidad de investigación, y, por lo tanto, de un incremento de la necesidad de mecanismos de coordinación, Vint Cerf, gerente

por entonces del Programa de Internet en DARPA, formó varios

organismos de coordinación, una Junta de Cooperación Internacional (ICB), presidida por Peter Kirstein de UCL, para

coordinar las actividades con algunos países cooperantes

centrados en la investigación de la red satélite de paquetes, un Grupo de Investigación de Internet que se trataba de un grupo

abierto que proporcionaba un entorno de intercambio de

Page 30: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

información general, y una Junta de Configuración de Internet

(ICCB), presidida por Clark. La ICCB era un organismo en el que

solo podía participarse por invitación, creado para ayudar a Cerf en la gestión de la creciente actividad de Internet.

En 1983, cuando Barry Leiner asumió la responsabilidad de la gestión del programa de investigación de Internet en DARPA, él y

Clark se dieron cuenta de que el crecimiento continuado de la

comunidad de Internet exigía una reestructuración de los mecanismos de coordinación. La ICCB se disolvió y en su lugar se

formó una estructura de Fuerzas de tareas, cada una de ellas

centrada en un área en particular de la tecnología (por ejemplo, enrutadores, protocolos de extremo a extremo, etc.) Se formó la

Internet Activities Board (IAB), creada por los presidentes de las

Fuerzas de tareas.

Por supuesto, fue una mera coincidencia que los presidentes de las

Fuerzas de tareas fuesen las mismas personas que los miembros de la antigua ICCB, y Dave Clark continuó actuando como

presidente. Tras algunos cambios entre los miembros de la IAB,

Phill Gross se convirtió en presidente de una revitalizada Fuerza de Tareas de Ingeniería de Internet (IETF), que en aquella época era

simplemente una de las Fuerzas de tareas de la IAB. Como se ha

visto antes, en 1985 existía un tremendo crecimiento en la parte más práctica y de ingeniería de Internet. Este crecimiento tuvo

como resultado una explosión en la asistencia a las reuniones de

IETF y Gross se vio obligado a crear una subestructura de la IETF con grupos de trabajo.

Este crecimiento se vio complementado por una gran expansión de

la comunidad. DARPA ya no era el único que jugaba un papel

importante en la financiación de Internet. Además de NSFNet y

diversas actividades financiadas por el gobierno de EE.UU. y por gobiernos internacionales, empezaba a crecer el interés en el

sector comercial. También en 1985, tanto Kahn como Leiner

abandonaron DARPA, con lo que hubo una disminución en la actividad de Internet de DARPA. Como resultado, la IAB se quedó

sin su patrocinador primario y asumió cada vez la responsabilidad

del liderazgo.

Page 31: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

El crecimiento continuó, lo que resultó en la creación de más

subestructuras dentro de la IAB e IETF. La IETF combinó los

grupos de trabajo en áreas y designó directores de áreas. Un Grupo de Dirección de Ingeniería de Internet (IESG) se formó a

partir de los directores de área. La IAB reconoció la creciente

importancia de la IETF, y reestructuró el proceso de estándares para reconocer explícitamente IESG como el principal cuerpo de

revisión de estándares. La IAB también reestructuró el resto de la

Fuerzas de tareas (excepto la IETF) y las combinó en una Fuerza de Tareas de Investigación de Internet (IRTF) presidida por Postel,

renombrando las antiguas fuerzas de tareas como grupos de

investigación.

El crecimiento en el sector comercial trajo una mayor preocupación

en el proceso de estándares en sí. Desde principios de los 80 y hasta hoy en día, Internet creció más allá de sus principales raíces

de investigación para incluir una amplia comunidad de usuarios y

un aumento en las actividades comerciales. Se prestó mayor atención a que el proceso fuese justo y abierto. Esto, junto con

una necesidad reconocida de tener apoyo comunitario en Internet,

llevó, con el tiempo, a la formación de Internet Society en 1991, bajo los auspicios de la Corporation for National Research

Initiatives (CNRI) de Kahn y el liderazgo de Cerf, entonces en la

CNRI.

En 1992, se hizo otra reorganización. En 1992, el Consejo de

actividades de Internet se reorganizó y se renombró Consejo de arquitectura de Internet y operaba bajo los auspicios de Internet

Society. Se definió una relación más de “pares” entre la nueva IAB

con IESG, con una toma de mayor responsabilidad de la IETF y el

IESG para la aprobación de estándares. Finalmente, se formó una

relación cooperativa y de apoyo mutuo entre la IAB, IETF e

Internet Society, con Internet Society cuyo objetivo era proveer servicios y otras medias que facilitarían la labor de la IETF.

Los recientes desarrollos y el despliegue generalizado de la World Wide Web han aportado una nueva comunidad, ya que mucha de

la gente que trabaja en WWW no se consideran primariamente

investigadores de redes y desarrolladores. Se formó un nuevo grupo de organización el Word Wide Web Consortium (W3C).

Liderado al principio desde el laboratorio de informática de MIT por

Page 32: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Tim Berners-Lee (el inventor de WWW) y Al Vezza, W3C ha

tomado la responsabilidad de evolucionar algunos protocolos y

estándares asociados con la Web.

Así pues, en dos décadas de actividad de Internet hemos visto una

evolución continuada en las estructuras organizativas diseñadas para soportar y facilitar la siempre creciente comunidad que

trabaja colaborativamente en temas de Internet.

Comercialización de la tecnología

La comercialización de Internet no solo implicó el desarrollo de servicios de redes competitivos y privados sino también el

desarrollo de productos comerciales para implementar la

tecnología de Internet. A principios de los 80, docenas de vendedores estaban incorporando TCP/IP en sus productos porque

veían compradores para este tipo de enfoque a la interconexión.

Desafortunadamente, no tenían información real sobre cómo se suponía que funcionaba la tecnología y cómo planeaban los

clientes usar este enfoque a la interconexión. Muchos lo veían

como un complemento incordioso que se tenía que pegar a sus propias soluciones propietarias de interconexión: SNA, DECNet,

Netware, NetBios. DoD había obligado a usar TCP/IP en muchas de

sus compras pero no ayudaba a los vendedores a construir productos TCP/IP útiles.

En 1985, reconociendo esta falta de disponibilidad de información y entrenamiento apropiado, Dan Lynch en cooperación con la IAB

organizó un taller de tres días para que TODOS los vendedores

aprendiesen cómo TCP/IP funcionaba y lo que aún no podía hacer bien. Los conferenciantes provenían casi todos de la comunidad de

investigación de DARPA, gente que había desarrollado esos

protocolos y los usaba diariamente. Unos 250 vendedores fueron a escuchar a 50 inventores y experimentadores. Los resultados

fueron sorpresas en ambas partes: los vendedores se

sorprendieron al darse cuenta que los inventores eran tan abiertos sobre el funcionamiento de las cosas (y sobre lo que aún no

funcionaba) y a los inventores les gustó escuchar sobre nuevos

problemas que no habían considerado, pero que los vendedores de campo estaban descubriendo. De modo que se formó una

discusión a dos vías que ha durado más de una década.

Page 33: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Después de dos años de conferencias, tutoriales, reuniones de

diseño y talleres, se organizó un evento especial y se invitó a los

vendedores cuyos productos ejecutaban TCP/IP bien para que se juntasen en una sala durante tres días para demostrar lo bien que

trabajaban todos juntos con Internet. En septiembre de 1988

nació la primera feria de muestras Interop. 50 compañías consiguieron asistir. 5.000 ingenieros de organizaciones de clientes

potenciales fueron a ver si funcionaba como prometían.

Funcionaba. ¿Por qué? Porque los vendedores trabajaron duro para asegurarse que todos los productos interoperaban con el resto de

los productos; incluso con los productos de los competidores. La

feria de muestras Interop ha crecido muchísimo desde entonces y hoy en día se celebra en 7 ubicaciones en todo el mundo durante

el año, y más de 250.000 personas vienen a aprender sobre qué

productos funcionan con que productos sin problemas, aprender más sobre los últimos productos y discutir la tecnología más

puntera.

En paralelo con los esfuerzos de comercialización que se

resaltaban en las actividades de Interop, los vendedores

empezaron a asistir a las reuniones de la IETF, que se celebraban 3 o 4 veces al año para discutir nuevas ideas sobre ampliaciones

del conjunto de protocolos TCP/IP. Empezando con unos pocos

cientos de asistentes, mayoritariamente de académicos y pagados por el gobierno, hoy en día, estas reuniones tienen una asistencia

de miles de personas, mayoritariamente de la comunidad de

vendedores y pagados por los asistentes mismo. Este grupo autoseleccionado evoluciona el conjunto TCP/IP de manera

cooperativa. La razón por la que es tan útil es porque está

compuesto por todos los interesados: investigadores, usuarios

finales y vendedores.

La gestión de redes da un ejemplo de la interacción entre las comunidades de investigación y de venta. En el principio de

Internet, el énfasis se ponía en definir e implementar protocolos

que consiguiesen la interoperación.

Conforme se hizo más grande la red, quedó claro que los

procedimientos ad hoc usados para gestionar la red no escalarían. La configuración manual de las tablas fue sustituida por algoritmos

automáticos distribuidos, y se diseñaron mejores herramientas

Page 34: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

para aislar fallos. En 1987, quedó claro que era necesario un

protocolo que permitiese gestionar los elementos de una red,

como los enrutadores, remotamente de manera uniforme. Se propusieron varios protocolos con este objetivo, incluyendo el

Protocolo Simple de Administración de Red o SNMP (diseñado,

como sugiere su nombre, para ser sencillo, y derivado de una propuesta anterior llamada SGMP), HEMS (un diseño más complejo

de la comunidad investigadora) y CMIP (de la comunidad OSI).

Tras una serie de reuniones se decidió retirar HEMS como candidato para la estandarización, para ayudar a resolver la

contención, pero que se continuaría trabajando en SNMP y CMIP,

con la idea que SNMP sería una solución a corto plazo y CMIP una solución a largo plazo. El mercado podía elegir el que le pareciese

más adecuado. Hoy en día se usa SNMP casi universalmente para

la gestión basada en la red.

En los últimos años, hemos visto una nueva fase de

comercialización. Originalmente, los esfuerzos de comercialización comprendían principalmente vendedores ofreciendo los productos

básicos de redes y los proveedores de servicios ofreciendo los

servicios de conectividad y básicos de Internet. Internet casi se ha convertido en un servicio de “mercancías”, y se ha prestado mucha

atención en esta infraestructura global de información para

soportar otros servicios comerciales. Esto se ha visto acelerado increíblemente por la adopción generalizada y rápida de

navegadores y la tecnología World Wide Web, lo que permite a los

usuarios tener un fácil acceso a la información enlazada de todo el mundo. Hay productos disponibles para facilitar el

aprovisionamiento de esta información y muchos de los últimos

desarrollos en la tecnología se han centrado en proveer servicios

de información cada vez más sofisticados por encima de los

servicios de comunicación básicos de datos de Internet.

Historia del futuro

El 24 de octubre de 1995, FNC pasó una resolución unánime para

definir el término Internet. Esta definición se desarrolló consultando a los miembros de las comunidades de Internet y

propiedad intelectual. RESOLUCIÓN: El Consejo federal de redes

Page 35: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

(FNC) acuerda que la siguiente descripción refleja nuestra

definición del término "Internet". "Internet" se refiere al sistema

de información global que: (i) esta enlazado lógicamente a un espacio global de direcciones únicas basadas en el Protocolo de

Internet (IP) o sus subsecuentes extensiones/añadidos; (ii) puede

soportar la comunicación usando el conjunto Protocolo de control de transmisión/Protocolo de Internet (TCP/IP) o sus subsecuentes

extensiones/añadido y otros protocolos compatibles con IP; y (iii)

provee, usa o da accesibilidad, ya sea de manera pública o privada a servicios de alto nivel superpuestos en las comunicaciones y las

infraestructuras relacionas ya descritas.

Internet ha cambiado mucho en las dos décadas desde que nació.

Se concibió en la época de tiempo compartido, pero ha sobrevivido

a la época de los ordenadores personales, la informática cliente-servidor y par a par y la informática de redes. Se diseñó antes que

existiesen las LAN, pero ha acomodado a esa tecnología nueva,

además de los recientes cajeros y servicios de intercambio de marcos. Se concibió para soportar un rango de funciones tales

como compartir archivos y acceso remota a distribución de

recursos y colaboración, y ha creado el correo electrónico y más recientemente la World Wide Web. Pero lo más importante,

empezó como la creación de un pequeño grupo de investigadores

dedicados y ha crecido para convertirse en un éxito comercial con miles de millones de dólares en inversiones anuales.

No se debería concluir que Internet ha dejado de cambiar ahora. Internet, a pesar de ser una red con nombre y geografía, es una

criatura de los ordenadores, no las redes tradicionales de teléfono

y televisión. Seguirá, y debe, cambiando y evolucionando a la

velocidad de la industria informática si quiere seguir siendo

relevante. En estos momentos está cambiando para ofrecer

nuevos servicios como transporte en tiempo real, para soportar, por ejemplo, de stream de audio y vídeo.

La disponibilidad de una red dominante (es decir, Internet) junto con ordenadores potentes baratos y comunicaciones en

dispositivos portátiles (es decir, portátiles, mensáfonos, PDA,

teléfonos móviles) hace posible un nuevo paradigma de informática y comunicaciones nómadas. Esta evolución nos traerá

nuevas aplicaciones; el teléfono de Internet y, en el futuro, la

Page 36: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

televisión de Internet. Está evolucionando para permitir formas

más sofisticadas de poner precios y recuperar costes, un requisito

doloroso en este mundo comercial. Está cambiando para acomodar otra generación de nuevas tecnologías subyacentes con diferentes

características y requisitos, por ejemplo, acceso residencial a

banda ancha y satélites. Nuevos modos de acceso y nuevas formas de servicio generarán nuevas aplicaciones, que en su lugar

impulsarán la evolución de la red.

La pregunta más acuciante del futuro de Internet no es cómo la

tecnología cambiará, sino cómo se gestionará el proceso de

cambio y evolución. Como describe este artículo, la arquitectura de Internet siempre ha sido impulsada por un grupo de diseñadores,

pero la forma del grupo ha cambiado conforme crecía el número

de partes interesadas. Con el éxito de Internet ha habido una proliferación de interesados: interesados que ahora invierten

dinero además de invertir ideas en la red.

Ahora vemos, en los debates sobre el control del espacio de

nombres de dominio y la forma de la próxima generación de

direcciones de IP, una lucha para encontrar la próxima estructura social que guiará Internet en el futuro. La forma de estructura será

más difícil de encontrar teniendo en cuenta el número de

interesados. La industria, a su vez, lucha por encontrar la razón económica para la gran inversión necesaria para el crecimiento

futuro, por ejemplo para mejorar el acceso residencial a una

tecnología más adecuada. Si Internet tropieza no será porque nos falta tecnología, visión o motivación. Será porque no podemos

determinar una dirección y caminar juntos hacia el futuro.

INTERNET EN EL CONTEXTO VENEZOLANO.-

En Venezuela, los primeros intentos de conexión a Internet, se

remontan a 1980 cuando la Universidad Simón Bolívar estaba perfectamente familiarizada con la interconexión de máquinas bajo

UUCP, luego de la instalación en 1970 de la primera máquina

operando bajo el sistema operativo UNIX -basamento de las redes pioneras-. En pleno desarrollo del TCP/IP, el primer enlace con el

exterior se establece a través de la plataforma X25 suministrada

Page 37: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

por CANTV, aunque, para entonces, problemas de facturación

impedían la continuidad de este servicio que proveía FTP, Telnet y

correo electrónico a unos 300 usuarios, con un computador Prime como primer servidor: Velocidad de enlace 300 bits por segundo,

suficiente para el uso racional de la herramienta. Fue la Dirección

de Información Científica y Tecnológica del Conicit la organización que lideraba los esfuerzos para concretar un proyecto de

automatización y concibe el Saicyt o Servicio Automatizado de

Información Científica y Tecnológica, que toma el control de la conexión.

Page 38: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

El segundo hito importante corresponde al año 1989, cuando se

decide desarrollar los servicios sobre una plataforma TCP/IP, es

decir, sobre el conjunto de tecnologías que hoy son la base de Internet. Corresponde a Emsca, empresa especializada la primera

máquina SUN SPARC que asume el rol de servidor bajo el nombre

de "DINO". Posteriormente Pebbles y Ban-Ban sirvieron de nombres para otros servidores. En ese tiempo, la oferta estaba

limitada, se hacían charlas de sensibilización para convencer al

grueso de la calidad académica de las bondades del servicio ofrecido. Las cuentas eran asignadas siguiendo un listado, en parte

para justificar la inversión que se estaba haciendo. Dino se conecta

al backbone o espina dorsal de la NSFNET desarrollada en 1986 en Estados Unidos, con una capacidad de 56K bps. En Venezuela se

usaba la conexión de Saicyt para accesos a base de datos privados

como Dialog, las cuales requerían suscripción. En el año 1992, se realiza la primera conexión de Venezuela a Internet, con un enlace

de 19,200 bps que conectaba al Conicit con el JVNC, surgiendo la

idea de desarrollar un proyecto nacional que integrara los esfuerzos de interconexión de las Universidades y Centros de

Investigación entre sí con el exterior. Después que el marco

regulatorio lo permite, a partir de 1994 comienza la explotación comercial del acceso a Internet en Venezuela. La utilización de

Internet se ha propagado lentamente, ofreciendo servicios de

correo-e desde y hacia Internet, ftp y telnet, y luego el acceso a Internet y a Compuserve en una sola sesión. De 300 usuarios a

principios de los 80, se estima actualmente un aproximado de 120

mil usuarios conectados en la red. Hoy existen proveedores con más de 6 Mbps de ancho de banda y el perfil del usuario de

Internet ha cambiado considerablemente, así como sus hábitos de

conexión, debido a lo costoso del servicio. No obstante, se espera

un crecimiento de más de medio millón de personas a fines del

año, lo cual evidencia la importancia que tiene como medio masivo

de comunicación e información.

Desde hace varios años Internet se ha convertido en una

alternativa donde personas y empresas de todo el mundo pueden accesar una gran variedad de información y recursos, comunicarse

y conducir sus negocios. Con mayor frecuencia las personas

utilizan herramientas como el correo electrónico y las páginas Web para llevar a cabo procesos de mercadeo, compra y venta de

productos.

Page 39: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Estudios recientes indican que en Venezuela existen 120 mil

usuarios de Internet, pertenecientes en su mayoría a las clases socioeconómicas A, B y C y la tasa de crecimiento semanal es del

2%. El perfil del usuario promedio de Internet es el siguiente

(Fuente: PC News- Mayo 1997): 83% Hombres, 56% entre 26 y 45 años, 75% profesionales 70%

localizado en Caracas y Zona Metropolitana, 50% se conecta al

menos una vez al día, 48% desde su casa, 38% desde casa y oficina. El tiempo de conexión promedio es de 22 horas

mensuales.

Otros estudios señalan que en Venezuela el usuario de Internet se

divide en dos grupos: el académico, que ha trabajado por 10 años

con Internet y aquel que llega después de la apertura comercial del medio (4 años), y pertenece a un grupo que tiene poder

adquisitivo, posee tarjetas de crédito e ingresos apetecibles para

que los anunciantes les muestren sus productos. Por esto es importante que el comercio en línea se realice con productos

asequibles al target que navega en la red

Page 40: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

En 1989 cuando se creo el Sistema Automatizado de Información

Científica y Tecnológica (SAICYT), pocos eran los que creían en ese

proyecto y el CONICIT apoyado por Ingenieros de la Universidad Simón Bolivar tuvieron que hacer un gran esfuerzo para que la

idea fuera aceptada. En esa época el Ing. Horacio Rondón del

Conicit y otras personas, pensaron en la forma de crear la sensación de una RED Nacional utilizando el acceso vía Teléfono y

modem a la base de Datos de Dialog System en USA desde mi

oficina en el I.U.T. Región Los Andes en San Cristóbal y llamamos a eso como si fuera el SAICYT remoto porque nos conectábamos a

DINO también vía teléfono y modem a una cuenta que ellos me

crearon. Denominamos la oficina Centro de computación del I.U.T. (COMPIUT) y creamos un servicio al público de consultas, donde

mayormente los médicos eran los que más la utilizaban para

investigación. Luego involucramos a la Sociedad Civil con un evento donde utilizamos el primer computador portatil de SAICYT

de CONICIT y por último pudimos activar el primer nodo con un

equipo con protocolo X.25. Al comienzo, los rectores de las Universidades Nacionales no querían participar, hasta que el

CONICIT dió un incentivo en dólares para investigación en REDES

con la NSF de USA y ahí si que se armaron las Universidades, inclusive tratando de hacer una red propia de alta velocidad entre

Zulia , ULA y UCV. Como las Universidades nacionales tomaron

control del SAICYT, dejaron fuera a todos los IUT para no repartir la torta de subsidios y me vi en la obligación de buscar una via

alterna para interconectar los IUT. Así que en 1993, propuse un

convenio entre el M.E. y Asociados Espada C.A. para crear PANAMTEL montar el primer sistema Satelital privado No-CANTV,

al ayudar al M.T,C, a permitir que el nuevo servicio satelital de

PANAMSAT pudiera hacer subida de datos desde Venezuela. La

primera empresa a usar ese sistema fue Banco de Fomento

Regional Los Andes para conectar sus sucursales de Caracas con

San Cristóbal. Por supuesto el nodo de control de la red satelital estaba en San Cristóbal y aprovechando el convenio, y siendo el

vicepresidente de Panamtel, tuve una conversación en Virginia,

USA con Rick Adams, fundador de UUNET la primera red de Internet comercial de USA y el me ayudó otorgándome la primera

familia de direcciones IP públicas para conectar las redes en

Venezuela a su troncal de fibra óptica que llegaba al nodo de HomeStead, donde estaba PANAMSAT. Y así creamos el primer

acceso público comercial a Internet en Venezuela y el servidor

Page 41: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

DNS estaba en San Cristóbal y registramos más de 40 dominios en

la época. Ese fue el primer acceso local por discado que se dio en

Venezuela de tipo comercial y fue quien le permitió a la red de los ex profesores de la USB llamada True Net funcionar en Caracas, la

cual posteriormente se transformó en Cantv.net. Desde Asociados

Espada C.A. - Panamtel, con uno de sus Directores se promovió la creación de la cámara venezolana de comercio electrónico y se dió

asesoría al grupo Santo Domingo de Bogotá en Colombia para

crear la primera red comercial de Internet de Colombia, denominada Andinet y sus ingenieros fueron entrenados en el

Centro de Control de la Red en San Cristóbal por graduados del

I.U.T. Región Los Andes que manejaban la red. Posteriormente se hizo un convenio M.E. Grupo Maldonado, y se monto un centro de

entrenamiento de red en la Fundación Andina para los 28

coordinadores de red de los I.U.T. de Venezuela y se apoyo para crear la primera empresa de VOIP comercial tanto en Venezuela

como un nodo en Miami para servir de Carrier a mas de 1900

ciudades alrededor del mundo. Esa empresa se llamó Intercall Global Llc. Juan C. Fariñas.

Sin las redes nacionales INTERNET no sería lo que es ni tendría la misma utilidad que hoy disfrutamos.

Gracias al esfuerzo y la pasión de miles de personas que gestaron la plataforma local en su difícil inicio es que hoy

podemos aprovechar su alcance global.

En nuestro caso, el de América Latina en la mayoría de los

países los gobiernos estuvieron ausentes, la empresa llegó

tarde y todo dependió de la pasión y esfuerzo de unos

pocos.

A pesar de eso aún hoy se piensa en Internet como una red centralizada en los Estados Unidos olvidando sus

capacidades inclusivas y distribuídas de alcance global. Se

olvida este lado de la historia.

Si hablamos de pioneros en la región seguro que no están

todos los que son, pero contando con su ayuda pronto la mayoría estarán incluídos.

Page 42: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Como es sabido la herramienta colectiva de publicación que estoy

usando, el WordPress, habilita por defecto a que cualquiera que lo

desee pueda inscribirse y obtener diferentes categorías:

1. pueden ser “suscriptores” – que es la categoría por defecto –

que permite leer y hacer comentarios a las entradas;

2. pueden ser “Autores” que permite a los inscriptos en esta

categoría escribir “post”y cargar documentos escritos o multimedia;

3. la categoría de “editor” es para las personas que autorizan la

publicacion de posts, páginas o comentarios; 4. y finalmente están los “Administradores” que tienen todas las

facultades incluyendo los cambios de forma e imágen del blog.

Aunque no fué publicitado por considerarlo de conocimiento

público estas facilidades estan disponibles desde el inicio de

este proyecto a principios del mes de enero.

Esperamos sus contribuciones…

Como podrán ver aquí “Pioneros – Internet de América Latina – La

historia contada por sus protagonistas” estoy tratando de

reconstruir, antes de que se pierda, la historia de Internet de

América Latina y el Caribe.

Lo estoy haciendo a partir de documentación propia, la que he

podido hallar en la red – recuperándola antes de que se pierda -, y

entrevistas y documentos enviados por los propios pioneros de

Internet.

Es un esfuerzo personal sin financiamiento – espero que por poco

tiempo –

El que desee pasar de la categoría de suscriptor a la de autor y es reconocido actor en la construcción de redes en la región basta con

solicitarlo a los administradores por mail.

El objetivo final de este proyecto es publicar un libro acompañado

de un DVD. Para lograrlo pienso continuar con las entrevistas personales en audio, las fotografías y cuando sea posible hacer

Page 43: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

pequeños videos, (tengo varias realizadas pero aún no

editadas)que serán liberadas en formato podcast acompañadas por

todo tipo de documentos testimoniales.

En una segunda etapa y luego de editar el material, la idea es,

como ya dije, publicar un libro acompañado de un DVD que permitan guardar los testimonios y documentos en distintos

soportes para su preservación.

Por supuesto que esperamos su participación señalando errores,

discrepancias que serán reflejadas, y personas o instituciones olvidadas. Cada país ha tenido múltiples y diversos actores:

Académicos, de ONG´s, gubernamentales y comerciales.

Como pretendo reconstruir la historia a partir de sus protagonistas

en las próximas semanas, gracias a Bruce Girard que me presta

hosting, instalaremos:

un Wiki para permitir una participación más activa de todos los

protagonistas.

También pueden visitar el blog espejo en :

https://interred.wordpress.com/ …

APORTACIONES DE INTERNET AL PLANO CIENTÍFICO – EDUCATIVO

(http://tecnologiaedu.us.es/edutec/inicio.htm) Javier Rodríguez Santero.

Los medios de comunicación, cada vez hablan más de Internet como un nuevo invento que va a cambiar nuestras vidas, nuestra

cultura y nuestra manera de trabajar y relacionarnos con nuestros

semejantes (Cabero, 1995). Su repercusión podría catalogarse como mayor aún de la que en su día tuvieron el teléfono o la

televisión. Lo cierto es que esta nueva herramienta está

desencadenando una serie de cambios importantes en diferentes facetas de la sociedad. En el presente trabajo vamos a tratar de

analizar las repercusiones que está originando tanto en el plano de

la educación y la investigación educativa como en el de la investigación científica en general.

Page 44: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Las aportaciones de Internet al plano de la Investigación Científica podrían resumirse en los siguientes aspectos:

Mejoras considerables en las posibilidades de obtener referencias bibliográficas.

Mayores oportunidades de documentación científica.

Notables mejoras en las oportunidades de comunicación y trabajo con otros investigadores.

Mejoras en la capacidad de adquirir información sobre acontecimientos y eventos relacionados con nuestro área de

interés.

Con objeto de llegar a una comprensión más amplia de cada uno de estos planos vamos a proceder al análisis de cada uno de ellos.

Mejoras en las posibilidades de obtener referencias bibliográficas

Las búsquedas bibliográficas constituyen un apartado importantísimo en todo proceso de investigación. Gracias a

Internet tenemos la posibilidad de realizarlas, sin necesidad de movernos de nuestro lugar de trabajo y sin tener que atenernos a

ningún tipo de horario.

En la WWW nos encontramos con tres fuentes principales de las que obtener referencias bibliográficas: los catálogos de bibliotecas,

las bases de datos y las revistas electrónicas.

1. Catálogos de bibliotecas

Casi todas las Universidades e instituciones científicas del mundo cuentan con una página web en Internet. Dentro de la misma, es

corriente encontrar links (enlaces) que nos permitan el acceso al catálogo de los libros y revistas que contiene su biblioteca. Como

podemos observar, obtener las referencias bibliográficas que se

encuentran en la biblioteca de una Universidad concreta, sólo es cuestión de buscar un determinado enlace dentro de su página

web. Una vez estemos dentro del catálogo "virtual", podremos

Page 45: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

llevar a cabo búsquedas por autor, título, año, etc, como si

estuviésemos físicamente dentro de esa biblioteca.

Debemos ser conscientes de que, por regla general, sólo accedemos a referencias bibliográficas, pero no a los libros ni

revistas en sí. Veamos un ejemplo de cómo podríamos realizar a través de la web una búsqueda bibliográfica en la biblioteca de un

determinado centro.

Imaginemos que deseamos conocer los libros que hay en la

Universidad Complutense de Madrid (http://www.uca.es) sobre

Educación Especial.

El primer paso a seguir, sería acceder a la página web de la UCM.

Para conectar con ésta o con la de cualquier otro centro u organismo, tenemos que conocer la URL (dirección en Internet) de

esa determinada institución. En el caso de que no la conozcamos

tendremos que buscarla a través de los llamados buscadores (Altavista: http://www.altavista.com ---- Olé: http://www.ole.es

------ etc.). En éstos únicamente tenemos que escribir los

descriptores, las palabras que la máquina debe buscar. Al cabo de unos instantes se nos presentarán aquellas direcciones que

contengan ese descriptor en su URL o en el resumen explicativo

que acompaña a toda página web. Hay distintos tipos de buscadores, aunque todos funcionan de una forma muy parecida.

Existen también diferentes formas de búsqueda.

Estas van desde los niveles mínimos de simplicidad y generalidad hasta niveles altos de complejidad y especificidad. Gracias a la

existencia de esta diversidad el usuario puede ir afinando cada vez más, hasta encontrar lo que desea. Es decir, hay una serie de

reglas de presentación de los descriptores al buscador que indican

a éste distintos modos de realizar la búsqueda. Así, por ejemplo, podemos pedir que nos muestre direcciones de Internet que

contengan una palabra determinada, o podemos indicarle que nos

busque páginas web que contengan la palabra X, pero no la palabra Y, etc. En la dirección

http://nodo50.ix.apc.org/buscahelp.htm encontramos las reglas

que podemos seguir para realizar búsquedas eficientes en un buscador.

Page 46: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Una vez ya en la página web de la UCM, procederíamos al segundo paso. Este consiste en buscar el link que nos remita a la biblioteca

(en este caso servicios centrales), y dentro de ésta probablemente tendremos que picar en el link que nos lleve al catálogo (la palabra

catálogo, en este caso). Una vez dentro de este empezaríamos a

realizar búsquedas, de la forma corriente, es decir, autor, título, etc.

2. Bases de datos

Existen bases de datos sistematizadas que nos aportan bibliografía

sobre cualquier área temática.

En el plano de la educación tenemos la ERIC

(http://www.cica.es/cgi-bin/wsunivnoident.cgi ), REDINET (http://www.mec.es/redinet/ ), ORTELIUS

(http://193.43.17.5/ortelius/index2.html ), etc.

Como comentábamos en el punto anterior sólo hay dos formas de acceder a una página web. O conocemos su URL, o la buscamos a

través de los motores de búsqueda. Veamos un ejemplo práctico de cómo deberíamos proceder, en el caso de que deseáramos

buscar bases de datos que nos aportasen referencias bibliográficas

sobre un determinado área de conocimiento.

Imaginemos que tenemos que encontrar bases de datos que nos

aporten referencias bibliográficas sobre educación especial. El primer paso se centraría en la búsqueda de páginas web que

contuvieran bases de datos sobre educación. No debemos ir

demasiado rápido y caer en el error de intentar buscar directamente aquellas que traten el tema de la educación especial,

ya que probablemente no las encontraremos. Internet implica un

proceso de búsqueda deductivo (de lo más general a lo más particular) si realmente queremos conseguir nuestro objetivo.

Para la búsqueda de las web conectaremos con Altavista o con cualquier otro buscador y escribiremos, por ejemplo, la siguiente

secuencia: base and datos and educacion. Al instante se nos

ofrece un listado de links a páginas web que contienen, a la vez, esas tres palabras. Cada uno de esos enlaces viene acompañado

por un pequeño texto, en el que se nos explica qué podemos

Page 47: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

encontrar en esa página. Debemos picar en aquel cuyo texto -

resumen nos permita intuir que en esa web encontraremos lo que

buscamos. Observamos que hay uno que nos interesa especialmente (Bases de datos especializadas. Educación). Si

picamos en él, accedemos a un listado de bases de datos sobre

educación. Picando en cualquiera de ellas, por ejemplo Redinet accedemos a esa base de datos concreta. Una vez allí sólo

tenemos que introducir el descriptor sobre el que deseamos

obtener información (educación especial en este caso) y al instante aparecen los documentos que contienen esa palabra o cadena de

palabras.

3 Revistas Científicas.

Son muchas las revistas científicas que introducen los índices de sus números en Internet. De esta forma, se brinda al internauta la

posibilidad de acceder a información tan importante, desde el

punto de vista de la búsqueda bibliográfica, como los títulos de los artículos publicados en los distintos números, nombres de los

autores, resúmenes, etc.

Hay revistas que, incluso, colocan el texto íntegro de sus artículos. Es decir colocan en la web los números, tal y como aparecen en la

tirada impresa. También hay revistas que sólo existen en la web, no tienen tirada impresa. Tanto a las primeras, como a las

segundas se les denomina revistas electrónicas, ya que contienen,

lo que se conoce con el nombre de publicaciones electrónicas. Aunque tienen un gran interés desde el punto de vista de la

revisión bibliográfica, no las vamos a analizar en este apartado,

sino en el siguiente, en el que hablaremos de la documentación

científica.

En el caso de que quisiéramos obtener información sobre artículos que traten una determinada temática, tendríamos que proceder

del siguiente modo:

En primer lugar, debemos acceder a páginas web de revistas que traten el área temática que nos interesa. Para ello, al igual que en

los ejemplos anteriores, debemos conectar con un buscador e iniciar una secuencia de búsqueda. Sería óptimo empezar con una

cadena en la que demandemos revistas sobre un área temática

Page 48: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

extensa, como por ejemplo "revista and educación". Una vez

aparezca el listado de links a las páginas picamos en el que más

nos interesa.

Ya en la página web de la revista, comenzaría la segunda fase, que

consistiría en ir buscando artículos sobre la temática de interés. Para ello, sólo tendríamos que echar un vistazo a los índices de los

distintos números. Un método que puede resultar muy útil, en el

caso de que los títulos de los artículos se distribuyan en una sola página, consistiría en teclear, dentro del menú edición / buscar, el

nombre de la temática acerca de la cual queremos encontrar los

citados artículos. Por ejemplo, imaginemos que queremos hallar títulos sobre educación especial, sólo tendríamos que escribir esa

cadena de palabras en el espacio al efecto, dentro del citado

menú, para acceder paulatinamente a las zonas de la página web donde se encuentra dicha cadena de palabras.

Una vez analizados los títulos y resúmenes de los artículos, entraríamos en la tercera fase, en la que tendríamos que elegir

entre volver a la página del buscador, en la que encontrábamos los

links a las web de revistas científicas y elegir otra, o utilizar los enlaces a otras revistas que, en ocasiones, encontramos dentro de

este tipo de páginas (páginas web de revistas).

Mayores oportunidades de documentación científica.

Internet nos ofrece varias formas de obtener información sobre una determinada temática, es decir, de documentarnos

científicamente sobre un tema:

1. Nos brinda la oportunidad de consultar páginas web que traten

un determinado área de conocimiento. Por ejemplo, si nos interesa

el tema de la educación especial podemos consultar páginas web relacionadas con esa temática. El proceso a seguir sería similar al

expuesto en ejemplos anteriores, salvo que conozcamos la URL de

alguna institución que, o bien trate la educación especial, o contenga enlaces a otros organismos que se ocupen de ésta.

2. Nos permite el acceso a lo que se conoce como "publicaciones electrónicas".

Page 49: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Como veíamos en el apartado anterior, algunas páginas web de revistas científicas permiten al internauta acceder no sólo a los

resúmenes y referencias bibliográficas de los artículos, sino al texto íntegro, es decir a la publicación electrónica de ese

determinado documento.

En el ámbito de la educación nos encontramos con varios revistas que difunden íntegramente sus artículos dentro de la www, como

Comunidad Escolar

(http://www.pntic.mec.es/cescolar/), Edutec

(http://www.uib.es/depart/gte/revelec.html ), Ciudad Universitaria (http://www.costanet.es/ciudad_universitaria/ ), etc.

Como podemos apreciar, las ventajas que aporta esta herramienta a la investigación científica, en cuanto a, por ejemplo, costes

económicos y temporales, son enormes.

Gracias a las publicaciones electrónicas podemos tener acceso a documentos que de otra forma nunca hubiésemos obtenido, entre

otras razones, porque nunca hubiéramos sido conscientes de su existencia. Debemos de destacar también las ventajas procedentes

de obtener los documentos en un espacio de tiempo mínimo y con

un coste económico irrisorio. Pero no todo son ventajas con este tipo de publicaciones. Son muchos los investigadores que se han

quejado ante la imposibilidad de controlar el contenido de los

trabajos y publicaciones que se introducen en la red. La verdad es que no les falta razón, pues en la web podemos encontrarnos con

comunicaciones erróneas, datos falsos o mal utilizados, simples

fraudes científicos, etc.

El proceso a seguir para encontrar publicaciones electrónicas en la

web, relacionadas con una determinada temática, sería similar al descrito en el punto de las revistas científicas, comentado en el

apartado anterior.

3.Nos ofrece la posibilidad subscribirnos a news y listas de distribución relacionadas con nuestro área de interés.

Las news y las listas de distribución vienen a significar, más o menos, lo mismo. En ambas, el usuario tiene que subscribirse para

Page 50: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

obtener información sobre una determinada temática. La diferencia

estribaría en que las news son consultadas por el propio usuario,

mientras que el subscribirse a las listas de distribución implica la remisión por correo electrónico de la información que vaya

surgiendo en el área temática a la que nos habíamos adscrito. La

verdad es que resulta difícil distinguir entre ambas, debido a que en multitud de páginas web se utilizan los términos news y listas

de distribución de una forma arbitraria, sin realizar distinción

alguna entre los mismos.

En el área de la educación encontramos una serie de páginas web

que contienen listas de distribución sobre una gran cantidad de temas educativos. De entre ellas podemos destacar

http://www.rediris.es/list/poli.es.html y

http://www.uv.es/~aliaga/spain.html#listas.

Para encontrar páginas web que contengan listas de distribución

sobre una determinada temática, tendríamos que seguir procesos de búsqueda similares a los descritos anteriormente. Es decir, o

buscamos páginas web de organismos que, con casi toda

seguridad, albergan listas de distribución sobre la temática en cuestión, o procedemos a realizar búsquedas de webs que

contengan a la vez los términos: "listas", "distribución" y "una

palabra descriptora del área temática".

Una buena secuencia por la que comenzar sería: listas and

distribución and (palabra que describa el área temática general).

Existen listas de distribución sobre casi todas las temáticas,

aunque, en el caso de que no encontremos la que buscamos, podemos crearla nosotros mismos. En casi todas las páginas web

dedicadas a esta actividad suele haber enlaces que ofrecen la

oportunidad de realizar peticiones sobre listas de distribución aún no existentes. Sólo tendríamos, pues, que encontrar ese link y

rellenar el formulario (virtual) pertinente para que se crease la

lista deseada.

Notables mejoras en las oportunidades de comunicación y trabajo

con otros investigadores.

Page 51: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

En la actualidad, casi todos los investigadores tienen acceso a Internet o, como mínimo, a correo electrónico. Gracias a ello,

tienen la posibilidad de conocer, con rapidez, el trabajo de otros colegas en la otra punta del mundo, o consultar con otros expertos

de su especialidad la estrategia de investigación que van a

desarrollar en la próxima investigación. De este modo, incluso es posible participar en directo en todo el proceso de gestación de

una idea o invento. Otra importante mejora que introduce

Internet, desde el punto de vista científico, es la de trabajar en grupo, pero a distancia. Ya es posible conectarse a un instrumento

científico situado en otro país. Los telescopios son el caso más

claro. Astrónomos de todo el mundo tienen, por ejemplo, acceso a las imágenes del observatorio Sondre Stromjford, de Groelandia,

sin salir de su despacho y en tiempo real.

En resumen, Internet nos ofrece la oportunidad de intercambiar información con profesionales de todo el mundo. Para ello,

podemos usar cuatro herramientas o servicios básicos: correo electrónico, chat, foros de debate y videoconferencias.

1. El correo electrónico

El correo electrónico es una de las aplicaciones más populares de

la red, y también la más antigua. Mantiene grandes similitudes estructurales con el correo común. Un mensaje electrónico, al igual

que una carta convencional, contiene un destinatario, un remitente

y un contenido, informaciones usadas por el sistema de transporte para trasladarlo a su destino o devolverlo a su origen si los datos

no son correctos. La diferencia entre ambos estribaría en que en el

virtual no hay descanso, ya que el trabajo lo realizan máquinas.

Hoy existen en el mundo más de 50 millones de direcciones de

correo electrónico y se estima que el año 2000 estarán en torno a los mil millones (Muy Especial, 1998)

Gracias al E- mail o correo electrónico, podemos intercambiar

texto, sonidos e imágenes con investigadores de cualquier parte del mundo en un tiempo récord y con un coste mínimo. Bastan

unos pocos minutos para que una carta electrónica viaje de punta

a punta del planeta.

Page 52: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

Notas

1 Quizá sea una exageración basada en la residencia en Silicon

Valley del autor principal 2 En un viaje reciente a una librería de Tokio, uno de los autores

contó 14 revistas en inglés dedicadas a Internet.

3 Una versión abreviada de este artículo aparece en la publicación del 50ª aniversario de CACM, febrero del 97. Los autores quisieran

expresar su apreciación a Andy Rosenbloom, editor sénior de

CACM, por instigar la escritura de este artículo y su invaluable ayuda a la hora de editar esta y la versión abreviada.

4 La Advanced Research Projects Agency (ARPA) cambió su

nombre a Defense Advance Research Projects Agency (DARPA) en 1971, y luego de Nuevo a ARPA EN 1993 y otra vez a DARPA en

1996. Nos referimos a DARPA que es su nombre actual.

5 Fue a partir de estudio de RAND, que se creó un falso rumor que ARPANET estaba relacionada con la creación de una red resistente

a la guerra nuclear. Eso nunca fue cierto de ARPANET, solo el

estudio RAND, que no estaba relacionado, en voz segura consideraba la guerra nuclear. Sin embargo, la palabra interredes

enfatiza la robustez y la supervivencia, incluyendo la capacidad de

soportar la pérdida de grandes partes de las redes subyacentes. 6 Incluyendo entre otros Vint Cerf, Steve Crocker y Jon Postel. Se

les unió más adelante David Crocker que jugó un papel importante

en la documentación de los protocolos del correo electrónico, y Robert Branden, que desarrolló en primer CNCP y luego TCP para

los mainframes de IBM y que también jugó un gran papel en la

ICCB y la IAB.

7 Se publica más adelante como V.G. Cerf y R. E. Kahn, "Un

protocolo sobre la interconexión de red de paquetes" IEEE Trans.

Comm. Tech. , vol. COM-22, V 5, págs. 627-641, mayo de 1974. 8 El atractivo del intercambio de correos electrónicos, sin

embargo, lo llevó a ser uno de los primeros “libros de Internet":

!%@:: un directorio de direcciones de correo electrónico y redes, escrito por Frey y Adams, acerca de la traducción de direcciones

de correo electrónico y el reenvío.

9 Llamado originalmente Comité federal de coordinación de investigación sobre Internet, FRICC. FRICC se formó originalmente

para coordinar las actividades de investigación de redes de EE.UU.

Page 53: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

para apoyar la coordinación internacional provista por el CCIRN.

10 La retirada de servicio de ARPANET se conmemoró en su 20º

aniversario, en un simposio de UCLA en 1989.

Page 54: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

CONCLUSIONES

Internet es una gran red internacional de ordenadores que

permite, como todas las redes, compartir recursos. Es decir:

mediante el ordenador, establecer una comunicación inmediata

con cualquier parte del mundo para obtener información sobre un

tema que nos interesa, o conseguir un programa o un juego

determinado para nuestro ordenador. En definitiva: establecer

vínculos comunicativos con millones de personas de todo el

mundo, bien sea para fines académicos o de investigación, o

personales.

La idea primitiva red se fue fraguando un entramado más

complejo del cual nació lo que hoy conocemos como Internet. En

consecuencia La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre

las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios

anteriores de varios científicos y organizaciones desde 1959

En 1989, con la integración de los protocolos OSI en la

arquitectura de Internet, se inició la tendencia actual de permitir

no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de

comunicaciones. En el CERN de Ginebra, un grupo de físicos

encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente

Web, llamado WorldWideWeb (WWW), y el primer servidor web.

Internet, como la conocemos hoy en día, es una infraestructura de información muy difundida, el prototipo inicial de lo que se llama a

menudo la Infraestructura de Información Nacional (o Global, o Galáctica). Su historia es compleja e implica muchos aspectos:

tecnológicos, organizativos y comunitarios. Y su influencia no solo

alcanza los campos técnicos de las comunicaciones informáticas, sino también a toda la sociedad, ya que nos movemos hacia un

uso mayor de las herramientas en línea para el comercio

electrónico, la obtención de información y las operaciones comunitarias.

Page 55: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

En Venezuela, los primeros intentos de conexión a Internet, se

remontan a 1980 cuando la Universidad Simón Bolívar estaba

perfectamente familiarizada con la interconexión de máquinas bajo UUCP, luego de la instalación en 1970 de la primera máquina

operando bajo el sistema operativo UNIX -basamento de las redes

pioneras. Fue la Dirección de Información Científica y Tecnológica del Conicit la organización que lideraba los esfuerzos para

concretar un proyecto de automatización y concibe el Saicyt o

Servicio Automatizado de Información Científica y Tecnológica, que toma el control de la conexión.

Los medios de comunicación, cada vez hablan más de Internet como un nuevo invento que va a cambiar nuestras vidas, nuestra

cultura y nuestra manera de trabajar y relacionarnos con nuestros

semejantes (Cabero, 1995). Su repercusión podría catalogarse como mayor aún de la que en su día tuvieron el teléfono o la

televisión. Lo cierto es que esta nueva herramienta está

desencadenando una serie de cambios importantes en diferentes facetas de la sociedad.

El correo electrónico es una de las aplicaciones más populares de la red, y también la más antigua. Mantiene grandes similitudes

estructurales con el correo común. Un mensaje electrónico, al igual

que una carta convencional, contiene un destinatario, un remitente y un contenido, informaciones usadas por el sistema de transporte

para trasladarlo a su destino o devolverlo a su origen si los datos

no son correctos. La diferencia entre ambos estribaría en que en el virtual no hay descanso, ya que el trabajo lo realizan máquinas.

Page 56: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

REFERENCIAS

P. Baran, "Acerca de las comunicaciones de redes distribuidas", IEEE Trans. Comm.. Systems, marzo de 1964.

V. G. Cerf y R. E. Kahn, "Un protocolo para la interconexión de

paquetes de red", IEEE Trans. Comm. Tech. , vol. COM-22, V 5, págs. 627-641, mayo de 1974.

S. Crocker, RFC001 Host software, 7 de abril de 1969.

R. Kahn, Principios de comunicación para sistemas operativos. Memorando interno de BBN, enero 1972.

Procedimientos de IEEE, edición especial sobre la las redes de

paquetes de comunicación, volumen 66, nº 11, noviembre de 1978. (Editor invitado: Robert Kahn, editores invitados asociados:

Keith Uncapher y Harry van Trees)

L. Kleinrock, "Flujo de información en grandes redes de comunicación", informe trimestral de progreso RLE, julio de 1961.

L. Kleinrock, Redes de comunicación: flujo y retraso estocástico de

mensajes, Mcgraw-Hill (Nueva York), 1964. L. Kleinrock, Sistemas de cola: volumen II, aplicaciones

informáticas, John Wiley and Sons (Nueva York), 1976

J.C.R. Licklider y W. Clark, "Comunicación en línea entre el hombre y el ordenador", agosto de 1962.

L. Roberts y T. Merrill, "Hacia una red cooperativa en ordenadores

de tiempo compartido", Conferencia AFIPS de otoño, octubre de 1966.

L. Roberts, "Múltiples redes informáticas y comunicación entre

ordenadores", Conferencia ACM Gatlinburg, octubre de 1967.

Autores

Barry M. Leiner fue director del Instituto de investigación para

informática avanzada. Falleció en abril de 2003.

Vinton G. Cerf es vicepresidente y director evangelista de Internet en Google.

David D. Clark investigador sénior en el Laboratorio de informática

de MIT. Robert E. Kahn es presidente de Corporation for National Research

Initiatives.

Leonard Kleinrock es profesor de informática en la universidad de California, Los Ángeles, y es presidente y fundador de Nomadix.

Daniel C. Lynch es el fundador de CyberCash Inc. y de la feria de

Page 57: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

muestras y conferencia Interop.

Jon Postel sirvió como director de la división de redes informáticas

del Instituto de ciencias de la información de la universidad de Southern California hasta su muerte el 16 de octubre de 1998.

Dr. Lawrence G. Roberts es director ejecutivo y presidente de

Anagran, Inc. Stephen Wolff trabaja con Cisco Systems, Inc.

http://www.emaresme.com/promocion/ventajas.php

http://www.google.co.ve/#hl=es&tbo=d&output=search&sclient=

psy-

ab&q=ventajas+del+internet&oq=ventajas+del&gs_l=hp.1.1.0l10.1077

http://www.slideshare.net/diegoo0/ventajas-y-desventajas-del-

uso-de-internet

http://es.answers.yahoo.com/question/index?qid=2009052219575

1AAMZWwb

Page 58: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre

ANEXOS

Page 59: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 60: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 61: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 62: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 63: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 64: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 65: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 66: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 67: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 68: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 69: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre
Page 70: UNIVERSIDAD GRAN MARISCAL DE AYACUCHO VICE …€¦ · universidad gran mariscal de ayacucho vice-rectorado acadÉmico escuela de administraciÓn asignatura informÁtica sede el tigre