tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la...

28
Historia del Computador 1. Introducción 2. Computadora; definición 3. Historia del Computador 4. Historia de LINUX y UNIX 5. Redes, Concepto, Internet 6. Procesador de textos 7. Hoja de cálculo 8. Conclusión INTRODUCCIÓN La historia de la computadora es muy interesante ya que muestra como el hombre logra producir las primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya medio de vida. La evolución histórica del procesamiento de datos se divide en cuatro fases: 1.- técnicas de registros 2.- dispositivos de cálculo 3.- programas de tarjetas perforadas 4.- computadores electrónicos una computadora procesa datos . Las empresas desarrollan departamentos de procesamiento de datos ( programación de computadoras ), pues las computadoras procesan datos para producir información significativa. Los datos se construyen de hechos y cifras en bruto (sin procesar). La información está constituida por los datos procesados; la información tiene significado , los datos no. La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto el programa convierte los datos en información útil. Computadora; definición: En el nivel más elemental, una computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de

Transcript of tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la...

Page 1: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

Historia del Computador1. Introducción 2. Computadora; definición 3. Historia del Computador 4. Historia de LINUX y UNIX 5. Redes, Concepto, Internet 6. Procesador de textos 7. Hoja de cálculo 8. Conclusión

INTRODUCCIÓNLa historia de la computadora es muy interesante ya que muestra como el hombre logra producir las primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya medio de vida.La evolución histórica del procesamiento de datos se divide en cuatro fases:1.- técnicas de registros2.- dispositivos de cálculo3.- programas de tarjetas perforadas4.- computadores electrónicosuna computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de datos ( programación de computadoras ), pues las computadoras procesan datos para producir información significativa. Los datos se construyen de hechos y cifras en bruto (sin procesar).La información está constituida por los datos procesados; la información tiene significado , los datos no.La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto el programa convierte los datos en información útil.Computadora; definición:En el nivel más elemental, una computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de datos ( programación de computadoras ), pues las computadoras procesan datos para producir información significativa. Los datos se construyen de hechos y cifras en bruto (sin procesar).La información está constituida por los datos procesados; la información tiene significado , los datos no.

Page 2: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto el programa convierte los datos en información útil.Los datos generalmente se introducen por medio de algún dispositivo de entrada, como un teclado. La información generalmente se envía a un dispositivo de salida, como una pantalla, una impresora o un archivo en disco. La entrada y la salida de la computadora pueden provenir de y dirigirse a muchos tipos de dispositivos distintos.La computadora es un dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información.El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.Historia del Computador:En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una

Page 3: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Page 4: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.Historia de LINUX y UNIX:LINUX nació como un producto de Linus Torvalds, inspirado en el MINIX, el sistema operativo desarrollado por Andrew S. Tanenbaum en su obra "Sistemas Operativos: Diseño e Implementación". Libro en el cual, tras un estudio general sobre los servicios que debe proporcionar un sistema operativo y algunas formas de proporcionar éstos, introduce su propia implementación del UNIX en forma de código fuente en lenguaje C y ensamblador, además de las instrucciones necesarias para poder instalar y mejorar el mismo.La primera versión de LINUX, enumerada como 0.01 contenía solo los rudimentos del núcleo y funcionaba sobre una máquina con el MINIX instalado, esto es, para compilar y jugar con LINUX era necesario tener instalado el MINIX de Tanembaum.El 5 de Octubre de 1991, Linus anunció su primera versión 'oficial', la 0.02 con esta versión ya se podía ejecutar el bash (GNU Bourne Shell) y el gcc (GNU C compiler).Después de la versión 0.03, Linus cambió este número por 0.10 y tras las aportaciones de un grupo inicial de usuarios se incrementó de nuevo la denominación a 0.95, reflejando la clara voluntad de poder anunciar en breve una versión 'oficial' (con la denominación 1.0).En Diciembre de 1993 el núcleo estaba en su versión 0.99 pH I. En la actualidad la última versión estable es al 2.0.30 aunque existe ya la versión de desarrollo 2.1.La enumeración de las versiones de LINUX implica a tre números separados por puntos, el primero de ellos es la versión del sistema operativo es el que distingue unas versiones de otras cuando las diferencias son importantes. El segundo número indica el nivel en que se encuentra dicha versión. Si es un número impar quiere decir que es una versión de desarrollo con lo cual se nos avisa de que ciertos componentes del núcleo están en fase de prueba, si es par se considera una versión estable. El último número identifica el número de revisión para dicha versión del sistema operativo, suele ser debido a la corrección de pequeños problemas o al añadir algunos detalles que anteriormente no se contemplaba con lo cual no implica

Page 5: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

un cambio muy grande en el núcleo. Como ejemplo sirva la versión de LINUX con la que ha sido desarrollado este trabajo, la última estable hasta hace poco tiempo, su número es 1.2.13, esto es, la versión 1 en su nivel 2 (estable) y la revisión número 13 de la misma en éste caso fue la última.Hay que señalar que LINUX no sería lo que es sin la aportación de la Free Software Foundation y todo el software desarrollado bajo el soporte de esta asociación así como la distribución del UNIX de Berkley (BSD), tanto en programas transportados como en programas diseñados para este que forman parte de algunas distribuciones del LINUX.Redes, Concepto, Internet:Las redes están formadas por conexiones entre grupos de computadoras y dispositivos asociados que permiten a los usuarios la transferencia electrónica de información. La red de área local, representada en la parte izquierda, es un ejemplo de la configuración utilizada en muchas oficinas y empresas. Las diferentes computadoras se denominan estaciones de trabajo y se comunican entre sí a través de un cable o línea telefónica conectada a los servidores. Éstos son computadoras como las estaciones de trabajo, pero poseen funciones administrativas y están dedicados en exclusiva a supervisar y controlar el acceso de las estaciones de trabajo a la red y a los recursos compartidos (como las impresoras). La línea roja representa una conexión principal entre servidores de red; la línea azul muestra las conexiones locales. Un módem (modulador/demodulador) permite a las computadoras transferir información a través de las líneas telefónicas normales. El módem convierte las señales digitales a analógicas y viceversa, y permite la comunicación entre computadoras muy distantes entre sí. Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.Internet, interconexión de redes informáticas que permite a las computadoras conectadas comunicarse directamente. El término suele referirse a una interconexión en particular, de carácter planetario y abierto al público, que conecta redes informáticas de organismos oficiales, educativos y empresariales. También existen sistemas de redes más pequeños llamados intranet, generalmente para el uso de una única organización.

Page 6: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

La tecnología de Internet es una precursora de la llamada 'superautopista de la información', un objetivo teórico de las comunicaciones informáticas que permitiría proporcionar a colegios, bibliotecas, empresas y hogares acceso universal a una información de calidad que eduque, informe y entretenga. A principios de 1996 estaban conectadas a Internet más de 25 millones de computadoras en más de 180 países, y la cifra sigue en aumento. Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador especial por cada red, conocido como gateway. Las interconexiones entre gateways se efectúan a través de diversas vías de comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por radio. Pueden añadirse redes adicionales conectando nuevas puertas. La información que debe enviarse a una máquina remota se etiqueta con la dirección computerizada de dicha máquina.Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección (Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por ejemplo 123.45.67.89. Otro formato describe el nombre del ordenador de destino y otras informaciones para el encaminamiento, por ejemplo 'mayor.dia.fi.upm.es'. Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos, el sufijo anterior especifica el tipo de organización a que pertenece la red informática en cuestión, que por ejemplo puede ser una institución educativa (.edu), un centro militar (.mil), una oficina del Gobierno (.gov) o una organización sin ánimo de lucro (.org).Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es encaminada de puerta en puerta hasta que llega a la red local que contiene la máquina de destino. Internet no tiene un control central, es decir, ningún ordenador individual que dirija el flujo de información. Esto diferencia a Internet y a los sistemas de redes semejantes de otros tipos de servicios informáticos de red como CompuServe, America Online o Microsoft Network.Procesador de textosaplicación utilizada para la manipulación de documentos basados en texto. Es el equivalente electrónico del papel, el bolígrafo, la máquina de escribir, el borrador y el diccionario. Dependiendo del programa y el equipo que se use, los procesadores de textos pueden mostrar los documentos bien en modo texto, usando selección de texto, subrayado o colores para representar cursiva, negrita y otros formatos, o bien pueden mostrarlos en modo WYSIWYG, en el que los formatos y las distintas fuentes aparecen en la pantalla tal y como lo harán en la página impresa. Todos los procesadores de texto ofrecen funciones para dar formato a los documentos, como cambios de tipo de letra, presentación de página, sangría de párrafos y similares. Muchos procesadores de textos pueden también comprobar la

Page 7: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

ortografía, encontrar sinónimos, incorporar gráficos creados en otros programas, alinear correctamente fórmulas matemáticas, crear e imprimir tipos de letras estándar, realizar cálculos, mostrar documentos en pantalla en varias ventanas y permitir a los usuarios realizar macros que simplifican operaciones difíciles o repetitivas.Hoja de cálculoprograma de aplicación utilizado normalmente en tareas de creación de presupuestos o previsiones, y en otras tareas financieras. En un programa de hoja de cálculo, los datos y las fórmulas necesarios se introducen en formularios tabulares (hojas de cálculo u hojas de trabajo), y se utilizan para analizar, controlar, planificar o evaluar el impacto de los cambios reales o propuestos sobre una estrategia económica. Los programas de hoja de cálculo usan filas, columnas y celdas. Cada celda puede contener texto, datos numéricos o una fórmula que use valores existentes en otras celdas para hacer un cálculo determinado. Para facilitar los cálculos, estos programas incluyen funciones incorporadas que realizan operaciones estándar. Dependiendo del programa, una sola hoja de cálculo puede contener miles o millones de celdas. Algunos programas de hoja de cálculo permiten también vincular una hoja de cálculo a otra que contenga información relacionada y pueden actualizar de forma automática los datos de las hojas vinculadas. Los programas de hoja de cálculo pueden incluir también utilidades de macros; algunas se pueden utilizar para crear y ordenar bases de datos. Los programas de hoja de cálculo cuentan por lo general con capacidades gráficas para imprimir sus resultados. CONCLUSIÓNLa computadora es una máquina electrónica capaz de ordenar procesar y elegir un resultado con una información.En la actualidad, dada la complejidad del mundo actual, con el manejo inmenso de conocimientos e información propia de esta época de crecimiento tecnológico es indispensable contar con una herramienta que permita manejar información con eficiencia y flexibilidad, esa herramienta es la computadora. Las computadoras cuentan con diversas herramientas para realizar varias acciones tales como procesadores de palabras que permiten crear documentos, editarlos y obtener una vista preliminar del mismo antes de imprimirlo si esa es la necesidad, también cuenta con hojas de cálculo que permiten realizar operaciones de cálculo de tipo repetitivas o no, también permite crear nóminas, balances, auditorias y demás operaciones resultando herramientas muy útiles en muchas áreas de desenvolvimiento cotidiano.Estas herramientas necesitan de una plataforma en la cual ejecutarse. Este es el papel del sistema operativo de una máquina computacional, que permite gestionar ficheros, llamadas al sistema, entre otras acciones. Siendo Linux un sistema operativo muy eficiente constituyéndose en una alternativa muy viable a la hora de

Page 8: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

escoger un determinado sistema operativo, ya que combina la eficiencia, rapidez y potencia de los sistemas UNIX con la facilidad de uso de un sistema gráfico como MS Windows. 

Historia y evolución del computador1. El Ábaco 2. La Pascalina 3. La máquina analítica 4. Primeros Ordenadores 5. Ordenadores electrónicos 6. Bibliografía

Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.

El ÁbacoDos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea los dedos, piedras, conchas, semillas. El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos aritméticos con enorme rapidez y precisión.En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada en las investigaciones de Nappier, Gunther y Bissaker. John Napier (1550-1617) descubre la relación entre series aritmética y geométricas, creando tablas que llama logaritmos. Edmund Gunter se encarga de marcar los logaritmos de Napier en líneas. Bissaker por su parte coloca las líneas de Nappier y Gunter sobre un pedazo de madera, creando de esta manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es perfeccionada, convirtiéndose en una calculadora de bolsillo, extremadamente versátil. Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda Europa.

La PascalinaLa primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm

Page 9: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analíticaTambién en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Primeros OrdenadoresLos ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Ordenadores electrónicos1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con

Page 10: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

los equipos actuales, fue la primer máquina en poseer todas las características de una verdadera computadora.La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades.Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John Von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.Circuitos integrados A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único

Page 11: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.GeneracionesTeniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación.Primera Generación (1951-1958)(Bulbos )Características Principales:Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas). Alto consumo de energía. El voltaje de los tubos era de 300 v y la posibilidad de fundirse era grande. Almacenamiento de la información en tambor magnético interior. Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban. Continuas fallas o interrupciones en el proceso. Requerían sistemas auxiliares de aire acondicionado especial. Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja. Alto costo. Uso de tarjetas perforadas para suministrar datos y los programas. Computadora representativa UNIVAC y utilizada en las elecciones presidenciales de los E.U.A. en 1952. Fabricación industrial. La iniciativa se aventuro a entrar en este campo e inició la fabricación de computadoras en serie. Segunda generación (1959-1964)(Transistores)Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos

Page 12: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

estos motivos, la densidad del circuito  podía ser aumentada sensiblemente, lo que quería decir que los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.Características Principales:Transistor como potente principal. El componente principal es un pequeño trozo de semiconductor, y se expone en los llamados circuitos transistorizados. Disminución del tamaño. Disminución del consumo y de la producción del calor. Su fiabilidad alcanza metas inimaginables con los efímeros tubos al vacío. Mayor rapidez, la velocidad de las operaciones ya no se mide en segundos sino en ms. Memoria interna de núcleos de ferrita. Instrumentos de almacenamiento: cintas y discos. Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas. Introducción de elementos modulares. Aumenta la confiabilidad. Las impresoras aumentan su capacidad de trabajo. Lenguajes de programación mas potentes, ensambladores y de alto nivel (fortran, cobol y algol). Aplicaciones comerciales en aumento, para la elaboración de nóminas, facturación y contabilidad, etc.Tercera generación (1964 - 1971)Circuito integrado (chips)Características Principales:Circuito integrado desarrollado en 1958 por Jack Kilbry. Circuito integrado, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip). Menor consumo de energía. Apreciable reducción de espacio. Aumento de fiabilidad y flexibilidad. Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta. Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software entre diversos equipos.

Page 13: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

Computadoras en Serie 360 IBM. Teleproceso: Se instalan terminales remotas, que accesen la Computadora central para realizar operaciones, extraer o introducir información en Bancos de Datos, etc... Multiprogramación: Computadora que pueda procesar varios Programas de manera simultánea. Tiempo Compartido: Uso de una computadora por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultáneamente. Renovación de periféricos. Instrumentación del sistema. Ampliación de aplicaciones: en Procesos Industriales, en la Educación, en el Hogar, Agricultura, Administración, Juegos, etc. La mini computadora. Cuarta generación (1971-1982)(Microcircuito integrado)El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La micro miniaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador. Las aplicaciones del microprocesador se han proyectado más allá de la computadora y se encuentra en multitud de aparatos, sean instrumentos médicos, automóviles, juguetes, electrodomésticos, etc. Memorias Electrónicas: Se desechan las memorias internas de los núcleos magnéticos de ferrita y se introducen memorias electrónicas, que resultan más rápidas. Al principio presentan el inconveniente de su mayor costo, pero este disminuye con la fabricación en serie. Sistema de tratamiento de base de datos: el aumento cuantitativo de las bases de datos lleva a crear formas de gestión que faciliten las tareas de consulta y edición. Lo sistemas de tratamiento de base de datos consisten en un conjunto de elementos de hardware y software interrelacionados que permite un uso sencillo y rápido de la informaciónCaracterísticas PrincipalesMicroprocesador: Desarrollado por Intel Corporation a solicitud de una empresa Japonesa (1971). El Microprocesador: Circuito Integrado que reúne en la placa de Silicio las principales funciones de la Computadora y que va montado en una estructura que facilita las múltiples conexiones con los restantes elementos. Se minimizan los   circuitos, aumenta la capacidad de almacenamiento.

Page 14: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

Reducen el tiempo de respuesta. Gran expansión del uso de las Computadoras. Memorias electrónicas más rápidas. Sistemas de tratamiento de bases de datos. Generalización de las aplicaciones: innumerables y afectan prácticamente  a todos los campos de la actividad humana: Medicina, Hogar, Comercio, Educación, Agricultura, Administración, Diseño,   Ingeniería, etc... Multiproceso. MicrocomputadorGeneración Posterior y La Inteligencia Artificial (1982- ) El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones.  Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.  El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.Características Principales: Mayor velocidad. Mayor miniaturización de los elementos. Aumenta la capacidad de memoria. Multiprocesador (Procesadores interconectados). Lenguaje Natural. Lenguajes de programación: PROGOL (Programming Logic) y LISP

(List Processing). Máquinas activadas por la voz que pueden responder a palabras

habladas en diversas lenguas y dialectos. Capacidad de traducción entre lenguajes que permitirá la

traducción instantánea de lenguajes hablados y escritos. Elaboración inteligente del saber y número tratamiento de datos.  Características de procesamiento similares a las secuencias de

procesamiento Humano.

La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales: Sistemas Expertos

Un sistema experto no es una Biblioteca (que aporta información), si no, un consejero o especialista en una materia (de ahí que aporte

Page 15: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

saber, consejo experimentado).Un sistema experto es un sofisticado programa de computadora, posee en su memoria y en su estructura una amplia cantidad de saber y, sobre todo, de estrategias para depurarlo y ofrecerlo según los requerimientos, convirtiendo al sistema en un especialista que está programado.Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar, exploración petrolera, etc...   Se programa a la computadora para reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas, sacaba las mismas conclusiones iniciales, verificaba de la misma manera la exactitud de los resultados y redondeaba las ideas dentro de principios bien definidos. Lenguaje natural

Consiste en que las computadoras (y sus aplicaciones en robótica) puedan comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente o por escrito: hablar con las máquinas y que éstas entiendan nuestra lengua y también que se hagan entender en nuestra lengua. Robótica

Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.   Los Robots son dispositivos compuestos de sensores que reciben Datos de Entrada y que están conectados a la Computadora.  Esta recibe la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente.Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de fabricación.  ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc... Reconocimiento De La VozLas aplicaciones de reconocimiento de la voz tienen como objetivo la captura, por parte de una computadora, de la voz humana, bien para el tratamiento del lenguaje natural o para cualquier otro tipo de función.BibliografíaEnciclopedia Encartawww.rincondelvago.comHistoria de la computación¿Qué es la Informática?Breve Historia de la computaciónNacen los ordenadoresLos 80's (Computadoras para todos)Los 90's - Nuevas tecnologías

Page 16: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

Informática o Computación, conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica.

Breve Historia de la computación

Aunque la computadora personal fue creada en 1981, sus inicios se remontan a varias décadas atrás y sus antecedentes a hace más de cuatro mil años.

Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema binario, el lenguaje en que se programan las computadoras, que está basado en la combinación de números ceros y unos (0 y 1).

2500 a.C. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.

600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.

500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).

 

1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.

 

 

 

1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas.

 

Page 17: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

La pascalina funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.

1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.

 

 

 

 

 

1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.

Babbage usaba cartones perforados para suministrarle datos a su máquina -había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se convertirían en instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.

La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.

1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento".

Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras.

 

1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC.

 

1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a

Page 18: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.

1893 - Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó la primera máquina capaz de jugar ajedrez.

1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.

1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora.

La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.

   

1937 - Claude Shannon demostró que la programación de las futuras computadoras era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole.

Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería fundamental para la construcción de la primera computadora.

Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la "teoría de la información", estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.

1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.

Nacen los ordenadores

En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética programable mediante una cinta perforada.

Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts.

Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.

1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó a Colossus, una computadora que permitía descifrar en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma.

Page 19: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción de la primera computadora americana, del tipo electromecánico -basado en electroimanes-.

El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros de alto.

Posteriormente se construyeron Mark II y Mark III.

1947 - Pese a que Harvard e IBM construyeron la primera computadora, la tecnología era más avanzada en otras universidades.

Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator).

Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción.

ENIAC es considerada la primera computadora, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días.

1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea.

La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario.

Refiriéndose a esta innovación, se habla de la "arquitectura de Von Neumann". Su EDVAC fue el modelo de las computadoras de este tipo.

 

1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados Unidos.

Disponía de mil palabras de memoria central y podía leer cintas magnéticas.

Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos modelos.

1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas

Page 20: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.

Los transistores habían sido inventados en 1947 por los científicos de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de vacío.

1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.

60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes que cumplían diversas funciones electrónicas.

Se trataba de los circuitos integrados o chips.

Estos permitieron una nueva disminución en el tamaño y el costo.

1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix.

1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio.

Se trató de un circuito integrado especialmente construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann.

Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:

Integración simple (Integrated Circuits o IC) Alta integración (Large Scale Integration o LSI) Muy alta integración (Very Large Scale Integration o VLSI)

Estos procesos permitieron acelerar el funcionamiento de las computadoras, logrando superar el millón de operaciones por segundo.

1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.

1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el microprocesador Intel 8080.

Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos.

1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar una microcomputadora que pudiera ser usada más masivamente.

Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic.

Page 21: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

El resultado fue la primera computadora Apple.

Steve Jobs y Steven Wozniak, crearon la primera computadora Apple.

A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récord para una industria que continuamente presenta novedades.

1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa dedicada íntegramente al "software"

 

  Los 80's (Computadoras para todos)

Tras el éxito de la microcomputadora, en 1981 IBM lanzó al mercado el IBM PC, diseñado por doce ingenieros dirigidos por William C. Lowe.

Su principal característica es que tenía una estructura abierta; es decir, que era capaz de integrar componentes de otros fabricantes.

De hecho, su sistema operativo, el DOS 1.0, era de Microsoft, y el microprocesador, un Intel 8088.

En cinco años se vendieron más de tres millones de unidades.

Aunque el término personal computer (PC) se popularizó con esta invención de IBM, los primeros aparatos de este tipo habían sido comercializados desde 1977 por la Tandy Corporation, que le incorporó teclado y monitor, ya que el primer modelo de computadoras de escritorio, el Altair 8800 de 1974, no los tenía.

En 1980, antes del lanzamiento de IBM, las revolucionarias empresas del Silicon Valley o Valle del Silicio -recibió ese nombre porque en él se establecieron solo empresas tecnológicas- como Apple, Tandy, Osborne y Commodore, ya habían vendido 327 mil unidades.

En 1984, la compañía Apple presentó una nueva computadora, la Macintosh, sucesora de un modelo denominado Lisa.

Entre sus novedades estaba la incorporación de una herramienta nueva para controlar la computadora, el mouse o ratón.

El modelo no tuvo gran aceptación, debido a su alto costo.

En 1985, Microsoft -compañía fundada por Bill Gates y Paul Allen en 1975- presentó el software Windows 1.1

Ese mismo año aparecen los primeros CD-ROM para computadoras.

Page 22: tecno file · Web viewpara registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos. empezaron a formar naciones y el comercio. era ya medio de vida

Las computadoras personales surgieron gracias a la Muy Alta Integración de sus procesos (VLSI) desarrollada durante los ochentas, y que permitió concentrar miles de componentes electrónicos en una plaquita de silicio (el chip) de alrededor de un centímetro cuadrado.

Esto ha permitido reducir los tamaños de estas máquinas hasta hacerlas portátiles (Notebooks) y ampliar su velocidad por sobre el billón de operaciones por segundo, como es el caso de los supercomputadoras.

Los 90's - Nuevas tecnologías

Durante los noventa comenzó a masificarse el uso de las computadoras, al disminuir su tamaño y también su costo, debido a la producción en serie y a la competencia entre las fabricantes IBM, Apple y Microsoft.

Primero se multiplicaron en las empresas y luego fueron apareciendo cada vez en más hogares.