Jerson stiven zapata padilla

20
JERSON STIVEN ZAPATA PADILLA SISTEMAS HISTORIA & EVOLUCION DE LA INTERNET

Transcript of Jerson stiven zapata padilla

JERSON STIVEN ZAPATA PADILLA

SISTEMAS HISTORIA & EVOLUCION

DE LA INTERNET

HISTORIA DEL INTERNET Los inicio de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos

crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del

país. Este red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4

ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su

sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes

informáticas (actualmente seguimos utilizando dicho protocolo). ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines

académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva

red creada por los Estados Unidos. La NSF (National Science Fundation) crea su propia red informática llamadaNSFNET, que

más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. 

El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos. El autor William Gibson hizo una revelación: el término "ciberespacio". 

En ese tiempo la red era basicamente textual, así que el autor se baso en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinonimo de Internet.

El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores.

EVOLUCION DEL INTERNET

 En diciembre de 1969, nació una red experimental con la conexión de cuatro nodos a través de circuitos de 56 Kbps. La nueva tecnología resultó ser altamente exitosa y condujo a la creación de dos redes militares similares: MILNET, en los Estados Unidos, y MINET, en Europa.

 Hacia 1985, ARPANET era altamente utilizada y estaba cargada de atascos. En respuesta la National Science Foundation (Fundación Nacional de Ciencia) inicio la fase 1 del desarrollo de la NSFNET. La NSFNET estaba compuesta por múltiples redes regionales y redes entre iguales (como la red de ciencia de la NASA) conectadas a un gran backbone que constituía el núcleo de toda la NSFNET.

 En su forma primitiva, en 1986, la NSFNET, creó una arquitectura de red más distribuida, de tres capas. Esta arquitectura conectaba campus y organizaciones de investigación con redes regionales, que se conectaban por turnos a un backbone de red principal que unía seis centros de supercomputadoras financiados nacionalmente. Los enlaces originales de 56 kbps se actualizaron en 1988 a los enlaces T1 más rápidos (1.544 Mbps).

En 1990, Merit, IBM y MCI iniciaron una nueva organización conocida como redes y servicios avanzados (ANS). El grupo de ingeniería de Merit proporcionó una serie de base de datos de políticas y servicios de consultoría y administración de enrutamiento para la NSFNET, mientras que ANS operaba los routers del backbone y un centro de operaciones de red (NOC).

 Hacia 1991, el trafico de datos se había incrementado enormemente, lo que hizo necesario actualizar el servicio de red del backbone de la NSFNET a enlaces T3 (45 Mbps).

 En Estados Unidos, las redes agencias gubernamentales se interconectaron a los puntos de intercambio federal en internet (FIX)

Hoy en día el backbone de internet  es un conjunto de proveedores de servicios que tienen puntos de conexión llamados POP (punto de presencia) sobre múltiples regiones.

 Los proveedores que tienen POP por todo los Estados Unidos se denominan habitualmente proveedores nacionales. Los que cubren regiones específicas, o proveedores regionales, conectan a otros proveedores en uno o más puntos. Para permitir que los clientes de un proveedor enlacen a los clientes conectados a otro proveedor, el trafico se intercambia en punto de acceso a la red (NAP) públicos, o a través de interconexiones directas.

 Volviendo a la historia en 1992, la NSF quería desarrollar una petición de seguimiento que acomodara y promoviera el papel de proveedores de servicios comerciales que configurarían la estructura de un nuevo y más robusto modelo de internet. Al mismo tiempo la NSF desistiría del actual funcionamiento de la red principal y se enfocaría en aspectos de investigación e iniciativas.

Pero que es un NAP, en términos de NSF, un NAP es un switch de alta velocidad o una red de switches a los que pueden estar conectados un cierto número de routers para intercambiar tráfico. Los NAP deben trabajar a velocidades, de al menos, 100 Mbps y debe ser posible actualizarlos según lo solicite la demanda y el uso. El NAP puede ser tan simple como un switch FDI (100 Mbps) o como un switch ATM (normalmente más de 45 Mbps) pasando tráfico de u proveedor a otro.

Las redes adjuntas a los NAP tienen que trabajar a velocidades proporcionales a la velocidad de las redes acopladas (1.5 Mbps o superior), y tiene que ser actualizada según la demanda, el uso y los objetivos del programa lo requiera. A los NAP premiados por la NSF se les pedía ser capaces de conmutar tanto IP como CLNP (protocolo de red sin conexiones). Los requisitos para intercambiar paquetes CLNP y para implementar procedimientos basados en IDRP (protocolo de enrutamiento entre dominios, protocolo de gateway exterior ISO OSI) podrían abandonarse dependiendo del nivel del servicio en conjunto proporcionado por el NAP.

 Durante las primeras fases de transición desde ARPANET al backbone de la NSFNET, fueron creados para proporcionar ínter conectividad. Rápidamente se  convirtieron en importantes puntos de interconexión para el intercambio de información entre redes de investigación, educación y gubernamentales. Sin embargo, la gente de la política del FIX no les gustaba mucho la idea de permitir que se intercambiaran datos comerciales en esos servicios. Consecuentemente, se creó el intercambio comercial en internet (CIX).

 Las configuraciones físicas actuales de un NAP es una mezcla de switches FDI, ATM y Ethernet (Ethernet, Fast Ethernet y Gigabit Ethernet). Los métodos de acceso varían desde FDI y Gigabit Ethernet hasta DS3, OC3 y ATM OC12.

 Mientras internet continúa creciendo, la enorme cantidad de tráfico intercambiado entre grandes redes está haciendo que muchos NAP no puedan soportarlo. A menudo, los problemas de capacidad de los NAP se traducen en pérdidas de datos e inestabilidad. Por dichas razones, durante los últimos años ha evolucionado una alternativa a los NAP para la interconexión de proveedores de servicios: las interconexiones directas.

 La idea que se esconde tras ellas es simple. Mediante el suministro de enlaces directos entre redes y evitando totalmente los NAP, los proveedores de servicios pueden reducir los tiempos de aprovisionamiento, incrementar la fiabilidad y escalar consideradamente la capacidad de interconexión. 

WEB 2.0 El término Web 2.0 comprende aquellos sitios web que facilitan el

compartir información, lainteroperabilidad, el diseño centrado en el usuario1 y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web estáticos donde los usuarios se limitan a la observación pasiva de los contenidos que se han creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, lasaplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, laswikis, blogs, mashups y folcsonomías.

El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.

WEB 3.0 La Web 3.0 es un término que no termina de tener un significado ya

que varios expertos han intentado dar definiciones que no concuerdan o encajan la una con la otra pero que, en definitiva, va unida a veces con la Web Semántica.

En lo que a su aspecto semántico se refiere, la Web 3.0 es una extensián del World Wide Weben el que se puede expresar no sólo lenguaje natural, también se puede utilizar un lenguaje que se puede entender, interpretar utilizar por agentes software, permitiendo de este modo encontrar, compartir e integrar la información más fácilmente.

El termino se acuño en 2001 en un artículo científico escrito por American Boauthored Berners-Lee en el que se describía el término como lugar en el cual las máquinas pueden leer páginas Web con la misma facilidad con la que los humanos lo hacemos.

Otros de los términos que se han utilizado para definir la Web 3.0 hacen referencia a la transformación de la Web en una base de datos, un movimiento hacia la fabricación de contenido accesible para múltiples buscadores, la influencia de la Inteligencia Artificial, laWeb Semántica o la Web geoespacial.

La Web 3.0 y sus servicios se fundamentan en el colectivo de la Web Semántica, búsquedas de lenguaje natural, data-mining, aprendizaje automático y asistencia de agentes, todo ello conocido como técnicas de la Inteligencia Artificial o Inteligencia Web.

De acuerdo a algunos expertos, “la Web 3.0 está caracterizada y aprovisionada por la acertada unión de la Inteligencia Artificial y la Web”, mientras que algunos expertos han definido laWeb 3.0 como el siguiente paso en la progresión de las tuberís que conforman Internet.

REPOSITORIO Un repositorio, depósito o archivo es un sitio

centralizado donde se almacena y mantiene información digital, habitualmente bases de datos o archivos informáticos.

BLOG Un blog es un sitio Web en donde uno o varios autores

desarrollan contenidos. Los blogs también se conocen como weblog o cuaderno de bitácora. La información se actualiza periódicamente y,de la misma forma, los textos se plasman en forma cronológica; primero aparece el más recientemente escrita. 

En cada artículo de un blog, los lectores tienen la capacidad de dejar sus comentarios. A su vez, estos pueden ser contestados por el autor de manera que se va creando un diálogo. Otra característica de los Blogs es que suelen tener una temática específica. El autor escribe con total libertad y la temática es particular, los hay de tipo personal, periodístico, empresarial o corporativo, tecnológico, educativo (edublogs), políticos, etc.

RED SOCIAL Una red social es una estructura social que

se puede representar en forma de uno o varios grafos en el cual los nodos representan individuos (a veces denominados actores) y las aristas relaciones entre ellos. Las relaciones pueden ser de distinto tipo, como intercambios financieros, amistad, relaciones sexuales, o rutas aéreas. También es el medio de interacción de distintas personas como por ejemplo juegos en linea, chats, foros, spaces, etc

NAVEGADOR Un navegador o navegador web (del inglés, web browser) es

una aplicación que opera a través de Internet, interpretando la información de archivos y sitios web para que éstos puedan ser leídos (ya se encuentre esta red mediante enlaces ohipervínculos)

La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado en la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web).

Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.

BUSCADOR   Un buscador es una página de internet que permite realizar

búsquedas en la red. Su forma de utilización es muy sencilla, basta con introducir una o más palabras clave en una casilla y el buscador generará una lista de páginas web que se supone guardan relación con el tema solicitado. Digo se supone porque como veremos más adelante, esto no es siempre así.    Aunque el modo de utilización es muy fácil a nivel básico, los buscadores permiten opciones avanzadas para refinar la búsqueda, cuyo resultado puede ser en muchas ocasiones de miles de páginas. Mediante estas opciones avanzadas se puede acotar la búsqueda y obtener un número de páginas más manejable.    Debido al gran tamaño de Internet y a su naturaleza cambiante, ningún buscador posee registro de todas las páginas que se encuentran en la red. Por ello es aconsejable visitar más de un buscador para contrastar los resultados y en ningún caso pensar que si una página no aparece en un buscador, es que no existe. 

HOSTING El alojamiento web (en inglés web hosting) es el servicio que provee

a los usuarios de Internet un sistema para poder almacenar información, imágenes, vídeo, o cualquier contenido accesible vía Web. Es una analogía de hospedaje o alojamiento en hoteles o habitaciones donde uno ocupa un lugar específico, en este caso la analogía alojamiento web o alojamiento de páginas web, se refiere al lugar que ocupa una página web, sitio web, sistema, correo electrónico, archivos etc. en Internet o más específicamente en un servidor que por lo general hospeda varias aplicaciones o páginas web. 

Los Web Host son compañías que proporcionan espacio de un servidor a sus clientes. 

Se puede definir como un lugar para tu página web o correos electrónicos, aunque esta definición simplifica de manera conceptual el hecho de que el alojamiento web es en realidad espacio en Internet para prácticamente cualquier tipo de información, sea archivos, sistemas, correos electrónicos, videos etc.

DOMINIO Un dominio de Internet es una red de

identificación asociada a un grupo de dispositivos o equipos conectados a la red Internet.

El propósito principal de los nombres de dominio en Internet y del sistema de nombres de dominio (DNS), es traducir las direcciones IP de cada nodo activo en la red, a términos memorizables y fáciles de encontrar. Esta abstracción hace posible que cualquier servicio (de red) pueda moverse de un lugar geográfico a otro en la red Internet, aún cuando el cambio implique que tendrá una dirección IP diferente.

URL Internet puede ser concebida como un gran grupo

de recursos o contenidos ubicados en diferentes computadoras alrededor del mundo. Estos contenidos pueden ser encontrados y enlazarse unos a otros mediante URIs. Como su nombre lo describe, identifica recursos asignando una dirección en una red dada.

URL (localizador de recursos uniforme), es un tipo de URI que se utiliza para describir la ubicación de un documento específico. Una URL no define por si sola el tipo de contenido al que refiere (textos, imágenes, videos, etc.), simplemente dice dónde y cómo encontrarlo