U3 - Selección de componentes para ensamble de equipos de cómputo

60
asasasas

Transcript of U3 - Selección de componentes para ensamble de equipos de cómputo

Page 1: U3 - Selección de componentes para ensamble de equipos de cómputo

asasasas

Page 2: U3 - Selección de componentes para ensamble de equipos de cómputo

3 Selección de componentes para ensamble de equipos de cómputo

3.1 Chipset

Chipset es el conjunto de circuitos integrados diseñados con base a la arquitectura de un procesador (en algunos casos diseñados como parte integral de esa arquitectura), permitiendo que ese tipo de procesadores funcionen en una placa base. Sirven de puente de comunicación con el resto de componentes de la placa, como son la memoria, las tarjetas de expansión, los puertos USB, ratón, teclado, etc.

Las placas base modernas suelen incluir dos integrados, denominados Norte y Sur, y suelen ser los circuitos integrados más grandes después del microprocesador.

El chipset determina muchas de las características de una placa base y por lo general la referencia de la misma está relacionada con la del chipset.

A diferencia del microcontrolador, el procesador no tiene mayor funcionalidad sin el soporte de un chipset: la importancia del mismo ha sido relegada a un segundo plano por las estrategias de marketing.

Historia

Desde los comienzos de la fabricación de los primeros procesadores, se pensó en un conjunto de integrados de soporte, de hecho el primer microprocesador de la historia, el Intel 4004 formaba parte de un conjunto de integrados numerados 4001,4002 y 4003 que tenían todos una apariencia física similar y que formaban la base de un sistema de cómputo cualquiera.

Mientras que otras plataformas usaban muy variadas combinaciones de chips de propósito general, los empleados en el Commodore 64 y la Familia Atari de 8 bits, incluso sus CPUs, solían ser diseños especializados para la plataforma, que no se encontraban en otros equipos electrónicos, por lo que se les comenzó a llamar chipsets.

Este término se generalizó en la siguiente generación de ordenadores domésticos: el Commodore Amiga y el Atari ST son los equipos más potentes de los años 90, y ambos tenían multitud de chips auxiliares que se encargaban del manejo de la memoria, el sonido, los gráficos o el control de

Page 3: U3 - Selección de componentes para ensamble de equipos de cómputo

unidades de almacenamiento masivo dejando a la CPU libre para otras tareas. En el Amiga sobre todo se diferenciaban las generaciones por el chipset utilizado en cada una.

Tanto los chips de los Atari de 8 bits como los del Amiga tenían como diseñador a Jay Miner, por lo que algunos lo consideran el precursor de la moderna arquitectura utilizada en la actualidad.

Apple Computer comienza a utilizar chips diseñados por la compañía o comisionados expresamente a otras en su gama Apple Macintosh, pero pese a que irá integrando chips procedentes del campo PC, nunca se usa el término chipset para referirse al juego de chips empleado en cada nueva versión de los Mac, hasta la llegada de los equipos G4.

Mientras tanto el IBM PC ha optado por usar chips de propósito general (IBM nunca pretendió obtener el éxito que tuvo) y sólo el subsistema gráfico tiene una ligera independencia de la CPU. Hasta la aparición de los IBM Personal System/2 no se producen cambios significativos, y el término chipset se reserva para los conjuntos de chips de una placa de ampliación (o integrada en placa madre, pero con el mismo bus de comunicaciones) dedicada a un único propósito como el sonido o el subsistema SCSI. Pero la necesidad de ahorrar espacio en la placa y abaratar costes trae primero la integración de todos los chips de control de periféricos (las llamadas placas multi-IO pasan de tener hasta 5 chips a integrar más funciones en uno sólo) y con la llegada del bus PCI y las especificaciones ATX de los primeros chipsets tal y como los conocemos ahora.

Funcionamiento

El Chipset es el que hace posible que la placa base funcione como eje del sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos haciendo uso de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y muchas veces de la memoria RAM.

En el caso de los computadores PC, es un esquema de arquitectura abierta que establece modularidad: el Chipset debe tener interfaces estándar para los demás dispositivos. Esto permite escoger entre varios dispositivos estándar, por ejemplo en el caso de los buses de expansión, algunas tarjetas madre pueden tener bus PCI-Express y soportar diversos tipos de tarjetas con de distintos anchos de bus (1x, 8x, 16x).

En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la medida y aunque no soporte gran variedad de tecnologías, presentará alguna interfaz de dispositivo.

La terminología de los integrados ha cambiado desde que se creó el concepto del chipset a principio de los años 90, pero todavía existe equivalencia haciendo algunas aclaraciones:

• El NorthBridge, puente norte, MCH (Memory Controller Hub), GMCH (Graphic MCH), se usa como puente de enlace entre el microprocesador y la memoria. Controla las funciones de acceso hacia y entre el microprocesador, la memoria RAM, el puerto gráfico AGP o el PCI-Express de gráficos, y las comunicaciones con el puente sur. Al

Page 4: U3 - Selección de componentes para ensamble de equipos de cómputo

principio tenía también el control de PCI, pero esa funcionalidad ha pasado al puente sur.

• El SouthBridge o puente sur, ICH (Input Controller Hub), controla los dispositivos asociados como son la controladora de discos IDE, puertos USB, FireWire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN, PCI-Express 1x y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. Es el encargado de comunicar el procesador con el resto de los periféricos.

En la actualidad los principales fabricantes de chipsets son AMD, ATI Technologies (comprada en 2006 por AMD), Intel, NVIDIA, Silicon Integrated Systems y VIA Technologies

El termino chipset en la electrónica

También en electrónica se utiliza el termino chipset para referirnos al circuito integrado o conjunto de ellos que fueron diseñados específicamente para un equipo electrónico, siendo imposible su utilización para otro propósito que no fuese el planificado por sus fabricantes. Estos circuitos integrados albergan en su interior prácticamente la totalidad de los componentes del dispositivo, requiriendo de unos pocos componentes adicionales en el circuito impreso, difíciles o imposibles de integrar, como condensadores, cristales de cuarzo, inductores o memorias RAM que ocupan una gran superficie del chip y tienen una alta tasa de fallos en la fabricación. Tampoco se suelen integrar las memorias flash donde se almacena el firmware.

3.1.1 CPU

La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.

Page 5: U3 - Selección de componentes para ensamble de equipos de cómputo

La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960 . La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.

Historia

Casi todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo.1 Generalmente, cuando un tubo ha fallado, el CPU tendría que ser diagnosticado para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidas pero menos confiables que las computadoras electromecánicas, (basadas en relés). Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente . Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los

Page 6: U3 - Selección de componentes para ensamble de equipos de cómputo

modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.

La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos CPU más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales).

Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en IC. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles.

En 1964, IBM introdujo su arquitectura de computador System/360, que fue usada en una serie de computadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles entre sí, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en los CPU modernos . La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en las computadoras modernas, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro computador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía un CPU integrado únicamente por cuatro circuitos integrados LSI .

Page 7: U3 - Selección de componentes para ensamble de equipos de cómputo

Los computadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de las supercomputadoras especializadas, como los hechos por Cray Inc.

Microprocesadores

Desde la introducción del primer microprocesador, el Intel 4004, en 1970, y del primer microprocesador ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores.

Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC.

Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción, y la forma general del CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann.

Page 8: U3 - Selección de componentes para ensamble de equipos de cómputo

A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración, y el subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computadora cuántica, así como ampliar el uso de paralelismo, y otros métodos que extienden la utilidad del modelo clásico de von Neumann.

Operación del CPU

La operación fundamental de la mayoría de los CPU, es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. Hay cuatro pasos que casi todos los CPU de arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar, y escribir).

El primer paso, leer (fetch), implica el recuperar una instrucción, (que es representada por un número o una secuencia de números), de la memoria de programa. La localización en la memoria del programa es determinada por un contador de programa (PC), que almacena un número que identifica la posición actual en el programa. En otras palabras, el contador de programa indica al CPU, el lugar de la instrucción en el programa actual. Después de que se lee una instrucción, el Contador de Programa es incrementado por la longitud de la palabra de instrucción en términos de unidades de memoria.2 Frecuentemente la instrucción a ser leída debe ser recuperada de memoria relativamente lenta, haciendo detener al CPU mientras espera que la instrucción sea retornada. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas pipeline (ver abajo).

La instrucción que el CPU lee desde la memoria es usada para determinar qué deberá hacer el CPU. En el paso de decodificación, la instrucción es dividida en partes que tienen significado para otras unidades del CPU. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del conjunto de instrucciones (el ISA) del CPU.3 A menudo, un grupo de números en la instrucción, llamados opcode, indica qué operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como por ejemplo, operandos para una operación de adición. Tales operandos se pueden dar como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por algún modo de dirección, puede ser un registro o una dirección de memoria. En diseños más viejos las unidades del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es frecuentemente usado un microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.

Page 9: U3 - Selección de componentes para ensamble de equipos de cómputo

Después de los pasos de lectura y decodificación, es llevado a cabo el paso de la ejecución de la instrucción. Durante este paso, varias unidades del CPU son conectadas de tal manera que ellas pueden realizar la operación deseada. Si, por ejemplo, una operación de adición fue solicitada, una unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. Las entradas proporcionan los números a ser sumados, y las salidas contendrán la suma final. La ALU contiene la circuitería para realizar operaciones simples de aritmética y lógica en las entradas, como adición y operaciones de bits (bitwise). Si la operación de adición produce un resultado demasiado grande para poder ser manejado por el CPU, también puede ser ajustada una bandera (flag) de desbordamiento aritmético localizada en un registro de banderas (ver abajo la sección sobre rango de números enteros).

El paso final, la escritura (writeback), simplemente "escribe" los resultados del paso de ejecución a una cierta forma de memoria. Muy a menudo, los resultados son escritos a algún registro interno del CPU para acceso rápido por subsecuentes instrucciones. En otros casos los resultados pueden ser escritos a una memoria principal más lenta pero más barata y más grande. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado. Éstas son llamadas generalmente "saltos" (jumps) y facilitan comportamientos como |bucles (loops), la ejecución condicional de programas (con el uso de saltos condicionales), y funciones en programas.4 Muchas instrucciones también cambiarán el estado de dígitos en un registro de "banderas". Estas banderas pueden ser usadas para influenciar cómo se comporta un programa, puesto que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de instrucción de "comparación" considera dos valores y fija un número, en el registro de banderas, de acuerdo a cuál es el mayor. Entonces, esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa.

Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas, y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el "entubado RISC clásico" (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos, a menudo llamados microcontroladores.5

Diseño e implementación

Rango de enteros

La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números internamente, un modelo eléctrico del sistema de numeración decimal común (base diez). Algunas otras computadoras han usado sistemas de numeración más

Page 10: U3 - Selección de componentes para ensamble de equipos de cómputo

exóticos como el ternario (base tres). Casi todos los CPU modernos representan los números en forma binaria, en donde cada dígito es representado por una cierta cantidad física de dos valores, como un voltaje "alto" o "bajo".6

Con la representación numérica están relacionados el tamaño y la precisión de los números que un CPU puede representar. En el caso de un CPU binario, un bit se refiere a una posición significativa en los números con que trabaja un CPU. El número de bits (o de posiciones numéricas, o dígitos) que un CPU usa para representar los números, a menudo se llama "tamaño de la palabra", "ancho de bits", "ancho de ruta de datos", o "precisión del número entero" cuando se ocupa estrictamente de números enteros (en oposición a números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes unidades del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el software corre y que el CPU puede usar directamente.7

El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede direccionar (localizar). Por ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de memoria, y cada dirección de memoria representa a un octeto (8 bits), la cantidad máxima de memoria que el CPU puede direccionar es 232 octetos, o 4 GB. Ésta es una vista muy simple del espacio de dirección del CPU, y muchos diseños modernos usan métodos de dirección mucho más complejos como paginación para localizar más memoria que su rango entero permitiría con un espacio de dirección plano.

Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales, y por lo tanto, más complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no es del todo infrecuente, ver microcontroladores de 4 y 8 bits usados en aplicaciones modernas, aun cuando están disponibles CPU con un rango mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores más simples son generalmente más baratos, usan menos energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones de diseño importantes para los dispositivos electrónicos. Sin embargo, en aplicaciones del extremo alto, los beneficios producidos por el rango adicional, (más a menudo el espacio de dirección adicional), son más significativos y con frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas proporcionadas por las longitudes de bits tanto más bajas, como más altas, muchas CPUs están diseñadas con anchos de bit diferentes para diferentes unidades del dispositivo. Por ejemplo, el IBM Sistem/370 usó un CPU que fue sobre todo de 32 bits, pero usó precisión de 128 bits dentro de sus unidades de coma flotante para facilitar mayor exactitud y rango de números de coma flotante . Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar, especialmente cuando el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la capacidad de números enteros y de coma flotante.

Page 11: U3 - Selección de componentes para ensamble de equipos de cómputo

Frecuencia de reloj

La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica secuencial, son de naturaleza síncrona.8 Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como señal de reloj, usualmente toma la forma de una onda cuadrada periódica. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores pueden seleccionar un período apropiado para la señal del reloj.

Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse, en el peor de los casos. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso, es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño, como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos, aun cuando algunas unidades de la misma son mucho más rápidas. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver abajo).

Sin embargo, las solamente mejoras arquitectónicas no solucionan todas las desventajas de CPUs globalmente síncronas. Por ejemplo, una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de reloj más altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del reloj en fase (sincronizada) a través de toda la unidad. Esto ha conducido que muchos CPU modernos requieran que se les proporcione múltiples señales de reloj idénticas, para evitar retardar una sola señal lo suficiente significativamente como para hacer al CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente, es la cantidad de calor que es disipado por el CPU. La señal del reloj cambia constantemente, provocando la conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. En general, un componente que está cambiando de estado, usa más energía que un elemento en un estado estático. Por lo tanto, a medida que la velocidad del reloj aumenta, así lo hace también la disipación de calor, causando que el CPU requiera soluciones de enfriamiento más efectivas.

Un método de tratar la conmutación de componentes innecesarios se llama el clock gating, que implica apagar la señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.9 Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma. Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completas se han construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el AMULET, que implementa la arquitectura del ARM, y el MiniMIPS,

Page 12: U3 - Selección de componentes para ensamble de equipos de cómputo

compatible con el MIPS R3000. En lugar de remover totalmente la señal del reloj, algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas, como por ejemplo, usar ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y disipación de calor, los hace muy adecuados para sistemas embebidos .

Paralelismo

La descripción de la operación básica de un CPU ofrecida en la sección anterior describe la forma más simple que puede tomar un CPU. Este tipo de CPU, usualmente referido como subescalar, opera sobre y ejecuta una sola instrucción con una o dos piezas de datos a la vez.

Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente instrucción. Como resultado, el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo).

Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU, generalmente son usados dos términos para clasificar estas técnicas de diseño.

• El paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de ejecución en la pastilla

• El paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente.

Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa que producen en el aumento del desempeño del CPU para una aplicación.

Page 13: U3 - Selección de componentes para ensamble de equipos de cómputo

ILP: Entubado de instrucción y arquitectura superescalar

Uno de los más simples métodos usados para lograr incrementar el paralelismo es comenzar los primeros pasos de leer y decodificar la instrucción antes de que la instrucción anterior haya terminado de ejecutarse. Ésta es la forma más simple de una técnica conocida como instruction pipelining (entubado de instrucción), y es utilizada en casi todos los CPU de propósito general modernos. Al dividir la ruta de ejecución en etapas discretas, la tubería permite que más de una instrucción sea ejecutada en cualquier tiempo. Esta separación puede ser comparada a una línea de ensamblaje, en la cual una instrucción es hecha más completa en cada etapa hasta que sale de la tubería de ejecución y es retirada.

Sin embargo, la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la operación anterior para completar la operación siguiente; una condición llamada a menudo como conflicto de dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado adicional para comprobar estas clases de condiciones, y si esto ocurre, se debe retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto requiere circuitería adicional, los procesadores entubados son más complejos que los subescalares, pero no mucho. Un procesador entubado puede llegar a ser casi completamente escalar, solamente inhibido por las abruptas paradas de la tubería (una instrucción durando más de un ciclo de reloj en una etapa).

Una mejora adicional sobre la idea del entubado de instrucción (instruction pipelining) condujo al desarrollo de un método que disminuye incluso más el tiempo ocioso de los componentes del CPU. Diseños que se dice que son superescalares incluyen una larga tubería de instrucción y múltiples unidades de ejecución idénticas. En una tubería superescalar, múltiples instrucciones son leídas y pasadas a un despachador, que decide si las instrucciones se pueden o no ejecutar en paralelo (simultáneamente). De ser así, son despachadas a las unidades de ejecución disponibles, dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. En general, cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de ejecución en espera, más instrucciones serán completadas en un ciclo dado.

La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un despachador eficaz. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden ejecutarse en paralelo, tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de ejecución como sea posible. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y se incrementa la necesidad, en las arquitecturas superescalares, de cantidades significativas de caché de CPU. Esto también crea técnicas para evitar peligros como la predicción de bifurcación, ejecución especulativa, y la ejecución fuera de orden, cruciales para mantener altos niveles de desempeño.

• La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional, el CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una instrucción condicional.

Page 14: U3 - Selección de componentes para ensamble de equipos de cómputo

• La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las porciones de código que pueden o no ser necesarias después de que una operación condicional termine.

• La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para reducir retardos debido a las dependencias de los datos.

En el caso donde una porción del CPU es superescalar y una parte no lo es, la parte que no es superescalar sufre en el desempeño debido a las paradas de horario. El Intel Pentium original (P5) tenía dos ALUs superescalares que podían aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de reloj. Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto [decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el P6, agregó capacidades superescalares a sus funciones de coma flotante, y por lo tanto produjo un significativo aumento en el desempeño de este tipo de instrucciones.

El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).11 La mayoría de los modernos diseños de CPU son por lo menos algo superescalares, y en la última década, casi todos los diseños de CPU de propósito general son superescalares. En los últimos años algo del énfasis en el diseño de computadores de alto ILP se ha movido del hardware del CPU hacia su interface de software, o ISA. La estrategia de la muy larga palabra de instrucción, very long instruction word (VLIW), causa a algún ILP a ser implícito directamente por el software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por lo tanto reducir la complejidad del diseño.

TLP: ejecución simultánea de hilos

Otra estrategia comúnmente usada para aumentar el paralelismo de los CPU es incluir la habilidad de correr múltiples hilos (programas) al mismo tiempo. En general, CPUs con alto TLP han estado en uso por mucho más tiempo que los de alto ILP. Muchos de los diseños en los que Seymour Cray fue pionero durante el final de los años 1970 y los años1980 se concentraron en el TLP como su método primario de facilitar enormes capacidades de computación (para su tiempo). De hecho, el TLP, en la forma de mejoras en múltiples hilos de ejecución, estuvo en uso tan temprano como desde los años 1950 . En el contexto de diseño de procesadores individuales, las dos metodologías principales usadas para lograr el TLP son, multiprocesamiento a nivel de chip, en inglés chip-level multiprocessing (CMP), y el multihilado simultáneo, en inglés simultaneous multithreading (SMT). En un alto nivel, es muy común construir computadores con múltiples CPU totalmente independientes en arreglos como multiprocesamiento simétrico (symmetric multiprocessing (SMP)) y acceso de memoria no uniforme (Non-Uniform Memory Access (NUMA)).12 Aunque son usados medios muy diferentes, todas estas técnicas logran la misma meta: incrementar el número de hilos que el CPU(s) puede correr en paralelo.

Page 15: U3 - Selección de componentes para ensamble de equipos de cómputo

Los métodos de paralelismo CMP y de SMP son similares uno del otro y lo más directo. Éstos implican algo más conceptual que la utilización de dos o más CPU completos y CPU independientes. En el caso del CMP, múltiples "núcleos" de procesador son incluidos en el mismo paquete, a veces en el mismo circuito integrado.13 Por otra parte, el SMP incluye múltiples paquetes independientes. NUMA es algo similar al SMP pero usa un modelo de acceso a memoria no uniforme. Esto es importante para los computadores con muchos CPU porque el tiempo de acceso a la memoria, de cada procesador, es agotado rápidamente con el modelo de memoria compartido del SMP, resultando en un significativo retraso debido a los CPU esperando por la memoria. Por lo tanto, NUMA es considerado un modelo mucho más escalable, permitiendo con éxito que en un computador sean usados muchos más CPU que los que pueda soportar de una manera factible el SMP. El SMT se diferencia en algo de otras mejoras de TLP en que el primero procura duplicar tan pocas porciones del CPU como sea posible. Mientras es considerada una estrategia TLP, su implementación realmente se asemeja más a un diseño superescalar, y de hecho es frecuentemente usado en microprocesadores superescalares, como el POWER5 de IBM. En lugar de duplicar todo el CPU, los diseños SMT solamente duplican las piezas necesarias para lectura, decodificación, y despacho de instrucciones, así como cosas como los registros de propósito general. Esto permite a un CPU SMT mantener sus unidades de ejecución ocupadas más frecuentemente al proporcionarles las instrucciones desde dos diferentes hilos de software. Una vez más esto es muy similar al método superescalar del ILP, pero ejecuta simultáneamente instrucciones de múltiples hilos en lugar de ejecutar concurrentemente múltiples instrucciones del mismo hilo.

Procesadores vectoriales y el SIMD

Un menos común pero cada vez más importante paradigma de CPU (y de hecho, de computación en general) trata con vectores. Los procesadores de los que se ha hablado anteriormente son todos referidos como cierto tipo de dispositivo escalar.14 Como implica su nombre, los procesadores vectoriales se ocupan de múltiples piezas de datos en el contexto de una instrucción, esto contrasta con los procesadores escalares, que tratan una pieza de dato por cada instrucción. Estos dos esquemas de ocuparse de los datos son generalmente referidos respectivamente como SISD (Single Instruction, Single Data|) (Simple Instrucción, Simple Dato) y SIMD (Single Instruction, Multiple Data) (Simple Instrucción, Múltiples Datos). La gran utilidad en crear CPUs que se ocupen de vectores de datos radica en la optimización de tareas que tienden a requerir la misma operación, por ejemplo, una suma, o un producto escalar, a ser realizado en un gran conjunto de datos. Algunos ejemplos clásicos de este tipo de tareas son las aplicaciones multimedia (imágenes, vídeo, y sonido), así como muchos tipos de tareas científicas y de ingeniería. Mientras que un CPU escalar debe completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto de datos, un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos con una sola instrucción. Por supuesto, esto es solamente posible cuando la aplicación tiende a requerir muchos pasos que apliquen una operación a un conjunto grande de datos.

Page 16: U3 - Selección de componentes para ensamble de equipos de cómputo

La mayoría de los primeros CPU vectoriales, como el Cray-1, fueron asociados casi exclusivamente con aplicaciones de investigación científica y criptografía. Sin embargo, a medida que la multimedia se desplazó en gran parte a medios digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito general. Poco después de que comenzara a ser común incluir unidades de coma flotante en procesadores de uso general, también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para los CPU de uso general. Algunas de estas primeras especificaciones SIMD, como el MMX de Intel, fueron solamente para números enteros. Esto demostró ser un impedimento significativo para algunos desarrolladores de software, ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma flotante. Progresivamente, éstos primeros diseños fueron refinados y rehechos en alguna de las comunes, modernas especificaciones SIMD, que generalmente están asociadas a un ISA. Algunos ejemplos modernos notables son el SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX).

3.1.2 Controlador de Bus

El Bus es la vía a través de la que se van a transmitir y recibir todas las comunicaciones, tanto internas como externas, del sistema informático. El bus es solamente un Dispositivo de Transferencia de Información entre los componentes conectados a él, no almacena información alguna en ningún momento. Los datos, en forma de señal eléctrica, sólo permanecen en el bus el tiempo que necesitan en recorrer la distancia entre los dos componentes implicados en la transferencia. En una unidad central de Bus de sistema típica el bus se subdivide en tres buses o grupos de líneas:

• Bus de Control.• Bus de Datos. • Direcciones.

Bus de Direcciones

Es un canal de comunicaciones constituido por líneas que apuntan a la dirección de memoria que ocupa o va a ocupar la información a tratar. Una vez direccionada la posición, la información, almacenada en la memoria hasta ese momento, pasará a la CPU a través del bus de datos. Para determinar la cantidad de memoria directamente accesible por la CPU, hay que tener en cuenta el número de líneas que integran el bus de direcciones, ya que cuanto mayor sea el número de líneas, mayor será la cantidad de direcciones y, por tanto, de memoria a manejar por el sistema informático.

Page 17: U3 - Selección de componentes para ensamble de equipos de cómputo

Bus de Datos

El bus de datos es el medio por el que se transmite la instrucción o dato apuntado por el bus de direcciones. Es usado para realizar el intercambio de instrucciones y datos tanto internamente, entre los diferentes componentes del sistema informático, como externamente, entre el sistema informático y los diferentes subsistemas periféricos que se encuentran en el exterior, una de las características principales de una computadora es el número de bits que puede transferir el bus de datos (16, 32, 64, etc.). Cuanto mayor sea este número, mayor será la cantidad de información que se puede manejar al mismo tiempo.

Bus de Control

Es un número variable de líneas a través de las que se controlan las unidades complementarías. El número de líneas de control dependerá directamente de la cantidad que pueda soportar el tipo de CPU utilizada y de su capacidad de direccionamiento de información.

3.1.3 Puertos de E/S

En computación, entrada/salida, también abreviado E/S o I/O (del original en inglés input/output), es la colección de interfaces que usan las distintas unidades funcionales (subsistemas) de un sistema de procesamiento de información para comunicarse unas con otras, o las señales (información) enviadas a través de esas interfaces. Las entradas son las señales recibidas por la unidad, mientras que las salidas son las señales enviadas por ésta. El término puede ser usado para describir una acción; "realizar una entrada/salida" se refiere a ejecutar una operación de entrada o de salida. Los dispositivos de E/S los usa una persona u otro sistema para comunicarse con una computadora. De hecho, a los teclados y ratones se los considera dispositivos de entrada de una computadora, mientras que los monitores e impresoras son vistos como dispositivos de salida de una computadora. Los dispositivos típicos para la comunicación entre computadoras realizan las dos operaciones, tanto entrada como salida, y entre otros se encuentran los módems y tarjetas de red.

Es importante notar que la designación de un dispositivo, sea de entrada o de salida, cambia al cambiar la perspectiva desde el que se lo ve. Los teclados y ratones toman como entrada el movimiento físico que el usuario produce como salida y lo convierten a una señal eléctrica que la computadora pueda entender. La salida de estos dispositivos son una entrada para la

Page 18: U3 - Selección de componentes para ensamble de equipos de cómputo

computadora. De manera análoga, los monitores e impresoras toman como entrada las señales que la computadora produce como salida. Luego, convierten esas señales en representaciones inteligibles que puedan ser interpretadas por el usuario. La interpretación será, por ejemplo, por medio de la vista, que funciona como entrada.

En arquitectura de computadoras, a la combinación de una unidad central de procesamiento (CPU) y memoria principal (aquélla que la CPU puede escribir o leer directamente mediante instrucciones individuales) se la considera el corazón de la computadora y cualquier movimiento de información desde o hacia ese conjunto se lo considera entrada/salida. La CPU y su circuitería complementaria proveen métodos de entrada/salida que se usan en programación de bajo nivel para la implementación de controladores de dispositivos.

Los sistemas operativos y lenguajes de programación de más alto nivel brindan conceptos y primitivas de entrada/salida distintos y más abstractos. Por ejemplo, un sistema operativo brinda aplicativos que manejan el concepto de archivos. El lenguaje de programación C define funciones que les permiten a sus programas realizar E/S a través de streams, es decir, les permiten leer datos desde y escribir datos hacia sus programas.

Una alternativa para las funciones primitivas especiales es la mónada de E/S, que permite que los programas describan su E/S y que las acciones se lleven a cabo fuera del programa. Esto resulta interesante, pues las funciones de E/S introducirían un efecto colateral para cualquier lenguaje de programación, pero ahora una programación puramente funcional resultaría práctica.

Dispositivos de entrada y salida

• Entrada: o Teclado o Ratón o Joystick o Lápiz óptico o Micrófono o Webcam o Escáner o Escáner de código de barras

• Salida: o Monitor o Altavoz o Auriculares o Impresora o Plotter o Proyector

• Entrada/salida: o Unidades de almacenamiento

Page 19: U3 - Selección de componentes para ensamble de equipos de cómputo

o CD o DVD o Módem o Fax o Memory cards o USB o Router o Pantalla táctil

3.1.4 Controlador de instrucciones

Este circuito integrado controla las interrupciones del sistema. Como el microprocesador sólo posee dos entradas de interrupción, y puede controlar muchas más, es necesario algún integrado que no permita ello. El 8259 cumple este propósito.

El funcionamiento del 8259 es muy sencillo: Supongamos que no queda ninguna interrupción pendiente y el CPU está trabajando en el “Programa principal”. Al activarse una línea de interrupción, el 8259 verifica que no haya otra interrupción pendiente, y si no la hay, envía una señal a través del pin INTR hacia el pin INTR del CPU, adicionalmente, envía a través del bus de datos, el número de interrupción que se ha activado, de tal manera que el CPU ya sabe qué servicio de interrupción va a usar. Una vez que recibió el CPU este valor, activa su pin INTA, indicando que ya recibió y está ejecutando el servicio. Una vez que el CPU termina, el pin INTA se desactiva, indicando al 8259 que está listo para procesar otras interrupciones.

Las rutinas de los servicios de interrupción están vectorizadas en las primeras posiciones de memoria, y están distribuidas de la manera siguiente: El los dos primeros bytes corresponden al valor que irá al registro IP, que indica el desplazamiento; y los dos siguientes, corresponden al registro CS, que indica el segmento donde está el servicio de interrupción. Estos dos pares de bytes se inician en la posición de memoria 0000h y corresponden a la interrupción 0; los siguientes cuatro corresponden a la interrupción 1, y así sucesivamente hasta las 256 interrupciones (total 1024 bytes). Esto significa que el usuario puede crear su propio servicio de interrupción y accederlo a través de la manipulación de estos bytes.

El 8259, posee varios modos de configuración, dependiendo de la manera cómo se desea que se traten a las interrupciones

Hay que tener en cuenta que la interrupción no enmascarable NMI, va directamente a CPU y es la encargada de indicar errores de paridad en la memoria, fallos de circuiteria y el procesador matemático. En el PC/XT original es posible un total de 256 interrupciones, de las cuales 8 son por hardware y las demás por software.

La distribución de las interrupciones en el PC/XT es:

Page 20: U3 - Selección de componentes para ensamble de equipos de cómputo

IRQ

FUNCION

IRQ0

Reloj en tiempo real

IRQ1

Teclado

IRQ2

PC-Net

IRQ3

Puerto serie secundario

IRQ4

Puerto serie primario

IRQ5

Disco duro

IRQ6

Diskette

IRQ7

Impresora

El 8259 posee cuatro palabras de control que se encargan de configurar al integrado para que funcione correctamente. En la primera palabra de estado (ICW1), se configura el modo del 8259 (es decir para que trabaje junto con otro más y ampliar las interrupciones), el modo de disparo de las interrupciones (Nivel o flanco descendente) y parte de los vectores de interrupción.

En la segunda palabra de estado (ICW2), se configuran los vectores de interrupción.

La tercera palabra funciona cuando el 8259 trabaja en modo múltiple con otros más. Aquí se configura el modo maestro/esclavo.

El la ICW4, se configura el modo de manejo de las interrupciones (modo buffered, interrupciones anidadas y el tipo de procesador al que se conecta)

Page 21: U3 - Selección de componentes para ensamble de equipos de cómputo

Hay que tener en cuenta que el pin INTR del CPU se puede configurar para que no reciba interrupciones (en ensamblador CLI). El pin NMI no se puede deshabilitar y esta interrupción puede interrumpir a cualquier otra interrupción que se esté ejecutando en ese momento.

3.1.5 Controlador de DMA

El mecanismo de acceso directo a memoria está controlado por un chip específico, el DMAC (“DMA Controller”), que permite realizar estos intercambios sin apenas intervención del procesador. En los XT estaba integrado en un chip 8237A que proporcionaba 4 canales de 8 bits (puede mover solo 1 Byte cada vez); sus direcciones de puerto son 000–00Fh. Posteriormente en los AT se instalaron dos de estos integrados y las correspondientes líneas auxiliares en el bus de control.

En contra de lo que podría parecer, el resultado no fue disponer de 8 canales, porque el segundo controlador se colgó en “Cascada” de la línea 4 del primero (más adelante se explica este concepto ). Los canales del segundo DMAC está asignado a las direcciones 0C0–0DFh y son de 16 bits. Pueden mover 2 Bytes (de posiciones contiguas) cada vez.

Cada canal tiene asignada una prioridad para el caso de recibirse simultáneamente varias peticiones (los números más bajos tienen prioridad más alta). Pueden ser utilizados por cualquier dispositivo que los necesite (suponiendo naturalmente que esté diseñado para soportar este modo de operación). Cada sistema los asigna de forma arbitraria, pero hay algunos cuya asignación es estándar.

El acceso directo a memoria permite a cierto tipo de componentes de ordenador acceder a la memoria del sistema para leer o escribir independientemente de la CPU principal. Muchos sistemas hardware utilizan DMA, incluyendo controladores de unidades de disco, tarjetas gráficas y tarjetas de sonido. DMA es una característica esencial en todos los ordenadores modernos, ya que permite a dispositivos de diferentes velocidades comunicarse sin someter a la CPU a una carga masiva de interrupciones.

Una transferencia DMA consiste principalmente en copiar un bloque de memoria de un dispositivo a otro. En lugar de que la CPU inicie la transferencia, la transferencia se lleva a cabo por el controlador DMA. Un ejemplo típico es mover un bloque de memoria desde una memoria externa a una interna más rápida. Tal operación no ocupa el procesador y como resultado puede ser planificado para efectuar otras tareas. Las transferencias DMA son esenciales para aumentar el rendimiento de aplicaciones que requieran muchos recursos.

Cabe destacar que aunque no se necesite a la CPU para la transacción de datos, sí que se necesita el bus del sistema (tanto bus de datos como bus de direcciones), por lo que existen diferentes estrategias para regular su uso, permitiendo así que no quede totalmente acaparado por el controlador DMA.

Page 22: U3 - Selección de componentes para ensamble de equipos de cómputo

Caché Problema de Coherencia

La DMA puede llevar a problemas de coherencia de caché. Imagine una CPU equipada con una memoria caché y una memoria externa que se pueda acceder directamente por los dispositivos que utilizan DMA. Cuando la CPU accede a X lugar en la memoria, el valor actual se almacena en la caché. Si se realizan operaciones posteriores en X, se actualizará la copia en caché de X, pero no la versión de memoria externa de X. Si la caché no se vacía en la memoria antes de que otro dispositivo intente acceder a X, el dispositivo recibirá un valor caducado de X.

Del mismo modo, si la copia en caché de X no es inválida cuando un dispositivo escribe un nuevo valor en la memoria, entonces la CPU funcionará con un valor caducado de X.

Este problema puede ser abordado en una de las dos formas en el diseño del sistema:

• Los sistemas de caché coherente implementan un método en el hardware externo mediante el cual se escribe una señal en el controlador de caché, la cual realiza una invalidación de la caché para escritura de DMA o caché de descarga para lectura de DMA.

• Los sistemas no-coherente dejan este software, donde el sistema operativo debe asegurarse de que las líneas de caché se vacían antes de que una transferencia de salida de DMA sea iniciada y anulada antes de que una parte de la memoria sea afectada por una transferencia entrante de DMA que se haya requierido. El sistema operativo debe asegurarse de que esa parte de memoria no es accedida por cualquier subproceso que se ejecute en ese instante. Este último enfoque introduce cierta sobrecarga a la operación de DMA, ya que la mayoría de hardware requiere un bucle para invalidar cada línea de caché de forma individual.

Los híbridos también existen, donde en la caché secundaria L2 es coherente, mientras que en la caché L1 (generalmente la CPU) es gestionado por el software.

Secuencia de eventos

Una operación de E/S por DMA se establece ejecutando una corta rutina de inicialización. Consiste en varias instrucciones de salida para asignar valores iniciales a:

- AR: Direccion de memoria de la región de datos de E/S IOBUF (buffer de entrada/salida). - WC: Número N de palabras de datos a transferir.

Una vez inicializado, el DMA procede a transferir datos entre IOBUF y el dispositivo de E/S. Se realiza una transferencia cuando el dispositivo de E/S solicite una operación de DMA a través de la línea de petición del DMAC.

Después de cada transferencia, se decrementa el valor de WC y se incrementa el de AR.

Page 23: U3 - Selección de componentes para ensamble de equipos de cómputo

La operación termina cuando WC=0, entonces el DMAC (o el periférico) indica la conclusión de la operación enviando al procesador una petición de interrupción.

Secuencia de eventos detallada

1- El procesador inicializa el DMAC programando AR y WC.2- El dispositivo de E/S realiza una petición de DMA al DMAC.3- El DMAC le responde con una señal de aceptación.4- El DMAC activa la línea de petición de DMA al procesador.5- Al final del ciclo del bus en curso, el procesador pone las líneas del bus del sistema en alta

impedancia y activa la cesión de DMA.6- El DMAC asume el control del bus.7- El dispositivo de E/S transmite una nueva palabra de datos al registro intermedio de datos

del DMAC.8- El DMAC ejecuta un ciclo de escritura en memoria para transferir el contenido del registro

intermedio a la posición M[AR].9- El DMAC decrementa WC e incrementa AR.10- El DMAC libera el bus y desactiva la línea de petición de DMA.11- El DMAC compara WC con 0:

Si WC > 0, se repite desde el paso 2.<br>

Si WC = 0, el DMAC se detiene y envía una petición de interrupción al procesador.<br>

3.1.6 Circuitos de temporización y control

El Circuito de temporizador y control: Es una red secuencial que acepta un código que define la operación que se va a ejecutar y luego prosigue a través de una secuencia de estados, generando una correspondiente secuencia de señales de control. Estas señales de control incluyen el control de lectura escritura y señales de dirección de memoria válida en el bus de control del sistema. Otras señales generadas por el controlador se conectan a la unidad aritmética lógica y a los registros internos del procesador para regular el flujo de información en el procesador y a, y desde, los buses de dirección y de datos del sistema.

El temporizador es un circuito que se encuentra en la tarjeta matriz (Mother Borrad) de la PC y que es capaz de mantener una cuenta de tiempo basada en el reloj de la computadora. Puede usarse para calcular el intervalo entre dos mediciones de tiempo o para generar pausas.

Este chip tiene la capacidad de realizar diferentes funciones de conteo. Es útil para medir el tiempo que dura cierto proceso o para mantener actualizadas la hora del día y la fecha si se deja la PC conectada y encendida (en el caso de computadoras anteriores a la AT, pues esta tiene un reloj de batería integrado; a este respaldo de batería se le conoce como CMOS (complementary MOS).

Page 24: U3 - Selección de componentes para ensamble de equipos de cómputo

El chip mantiene tres contadores independientes (definidos como 0, 1, 2), cada uno de los cuales es alimentado por una señal que equivale a 1.19318 MHZ. El contador obtiene una capacidad máxima de conteo que asciende a 65 536. Su salida tiene una frecuencia de 18.2 HZ.(1.19/65536) aproximadamente. Por lo tanto, cualquier acción que interrumpa a la PC ocurrirá 18.2 veces por segundo (cada 55 ms o cada 0.055 segundos en forma redondeada).

Dicha acción genera una interrupción llamada interrupción del contador, la cual interrumpe brevemente la CPU e incrementa la cuenta del día.

Cuando el contador del canal cero llega a 0 (los tres contadores del temporizador timer siempre cuentan en forma regresiva), significa que la hora es exactamente las 24:00 (hora militar) y entonces es inicializado a cero de nuevo. El contador 1 es usado por la PC para realizar el proceso de refrescamiento de memoria (DMA memory Refresh) y no debe ser alterado bajo ninguna circunstancia.

El contador 2 generalmente se encuentra programado para trabajar con la bocina. Los primeros dos contadores (0 y 1) envían una interrupción a la CPU mientras que el 2 no lo hace.

3.1.7 Controladores de video

a Los controladores son circuitos de entrada que tienen todas las impresoras. Son los que procesan la información en primer lugar para saber exactamente qué les está llegando y como manipular los datos. Básicamente, un controlador de una impresora recoge los datos que proceden del PC y los convierte en datos de imagen que deberán pasar a lo que llamamos “video interface” de la impresora. Este otro dispositivo, se encarga de recuperar los datos que ha dejado el controlador e inyectarlos hasta el sistema de escritura del periférico. Los datos de imagen indican si un punto es blanco o negro, en c aso de una impresora de color de que color será ese punto.

Veamos un ejemplo de la formación de una letra “A”:

1. El controlador recibe un dato del ordenador. Ese dato es el número 41h. según una tabla el controlador interpreta que 41h quiere decir “A”.

Page 25: U3 - Selección de componentes para ensamble de equipos de cómputo

2. tras interpretar el dato como una A el controlador busca en sus fuentes la forma de esa letra.

Page 26: U3 - Selección de componentes para ensamble de equipos de cómputo

3. una vez se ha creado toda la imagen de una página esta se le pasa al video interface. Los datos de una página pasados a imagen se llaman datos rasterizados o rípeados.

Los datos rasterízados se transmiten a la video interface de línea a línea.

Page 27: U3 - Selección de componentes para ensamble de equipos de cómputo

3.2 Aplicaciones

3.2.1 Entrada/Salida.

ENTRADA

Los dispositivos de entrada, como hemos visto, tienen una función determinada: suministrar datos a la CPU. Veamos los más importantes:

El TECLADO

Es quizás el periférico al cual se presenta menor atención. Y no hay razón para este desaire ya que es un dispositivo esencial y frente al que se pasan muchas horas. Siendo esto así, elegir un teclado de calidad repercutirá también en el rendimiento de nuestro trabajo, sobre todo si éste está basado en el procesador de textos.

Las características principales que describen un teclado son las siguientes:

Sistema de Conexión: Esta puede ser mediante AT (o DIM de 5 pines): un conector redondo del tamaño de un pulgar; PS-2 (o Míni-Dim): parecido al anterior pero más pequeño de diámetro; o USB, es un nuevo sistema de conectividad que permite instalar y desinstalar periféricos “en caliente” (sin apagar el ordenador). Hay otros, pero estos son los principales. Debemos elegir el sistema adecuado para poder conectar el teclado a nuestra placa. Existen en venta, no obstante, adaptadores entre Dim a Mini-Dim y viceversa.

¿Mecaníco o membrana?: El teclado mecánico basa el mecanismo de pulsación de las teclas en unos muelles o resortes. Los de membrana utilizan para este fin un sistema parecido al de los mandos a distancia de la TV. Es decir, una membrana de plástico realiza el contacto y vuelve a la tecla a su posición inicial. Esta característica hace al teclado mecánico más robusto y resistente, pero también de tacto más duro.

Díseño: Los teclados ergonómicos, con hot-Reys (teclas de acceso rápido configurables), con mini-joysticR, etc; son elecciones disponibles en el mercado las cuales solo hay que valorar si su precio es acorde con nuestras necesidades.

Page 28: U3 - Selección de componentes para ensamble de equipos de cómputo

EL RATON

Sistema de conexión: Vale lo dicho para los teclados. También es frecuente la conexión al puerto serie.

Tecnología utilizada: Aquí podemos diferenciar: ratones mecánicos, son los más comunes, la guía del puntero se realiza mediante una bola que se desliza sobre unos ejes; ópticos, utilizan tecnología óptica, lo que los hace más precisos; optomecánicos, un híbrido. Existen otras tecnologías, pero mucho menos utilizadas.

Díseño: También encontramos los que apuestan por la ergonomía, los colores y formas originales, etc. Dentro de este periférico podemos diferenciar los TracR-ball: dispositivos de puntero ideales para lo que no disponen de mucho espacio de escritorio. En ellos, en vez de desplazar el ratón sobre una alfombrilla, el movimiento se realiza girando una bola o rodillo sobre un eje fijo.

Número de botones: Dos o tres. Con dos normalmente es suficiente. El tercero (central) normalmente es configurable y se utiliza en contadas aplicaciones. También los hay con botones laterales, ruedas, etc. Si esto es útil o un engorro es algo que deberá valorar el usuario.

JOYSTICK

Sistema de conexión: Van conectados al puerto juegos de la placa, al de la tarjeta de sonido, al puerto o puertos de una tarjeta de juegos, o eventualmente, al puerto serie o paralelo. Aunque la opción del puerto de la tarjeta de sonido es con mucho la más utilizada por ahorro de recursos.Tecnología: Aquí dependiendo del tipo de JoystíckR que estemos hablando (palanca, joypad, volante, etc) la tecnología utilizada es variopinta. A pesar de ello es útil optar por mandos robustos y que ofrezcan buen soporte de software. Los basados en tecnología digital son ideales para los que se requieran precisión en sus “batallas” particulares.

Muchos joysticR permiten de forma sencilla y simplemente mediante el uso de un cable especial (en forma de Y), la utilización de dos dispositivos simultáneos. Gran cosa para compartir la acción con amigos/as.

Page 29: U3 - Selección de componentes para ensamble de equipos de cómputo

ESCÁNER

Un escáner es un periférico el cual nos permite digitalizar imágenes o texto con el fin de pasar esta información a un fichero, normalmente con el fin de modificarlo o almacenarlo en soportes de alta capacidad.

A tener en cuenta:

Sistema de Conexión: Lo más extendido es conectarlos al puerto de impresora y ésta a su vez, al escáner. Con lo que con el uso de un solo puerto tendremos dos dispositivos. También existen otras opciones, como la conexión a puerto SCSI o USB.

Sistema de escaneo: Los escáner de sobremesa permiten tratar imágenes provenientes de libros o revistas. Los de rodillo o las impresoras convertidas a escáner (mediante la utilización de un cabezal especial) tienen el inconveniente de limitar nuestro trabajo a documentos que puedan pasar por su torno. Los escáner de mano son muy versátiles pero también poco útiles para trabajos que requieran gran resolución.

Resolución: Hay en el mercado gran oferta en capacidad de resolución. Esto afecta a la calidad con la que podremos obtener el documento resultante. Ésta se mide en dpi (dot per inchs = puntos por pulgada, también PPP). Es frecuente encontrar información sobre la resolución real y la resolución por interpolación (mediante software), las cuales no son comparables y deben tenerse en cuenta a la hora de elegir varias ofertas. No obstante hay que tener en cuenta que para cualquier usuario normal o semi-profesional, un escáner de gama media-baja es más que suficiente, ya que éstos ofrecen resoluciones superiores a las que nuestra memoria RAM puede soportar (Y también nuestro disco duro).

Capacidad de escáneo: Los escáner de sobremesa y rodillo normales aceptan tamaños de hasta DIN A4 o folio. Otros tamaños mayores requerirían escáner especiales.

Page 30: U3 - Selección de componentes para ensamble de equipos de cómputo

CD-ROM

La unidad de Cd-Rom, así como los DVD, son la única respuesta al aumento de tamaño que en los últimos tiempos han experimentado los programas. Prácticamente toda la información electrónica se distribuye ya en Cd-Roms y la caída de precios de las unidades grabadoras de este soporte lo han hecho aún más popular. Siendo estos así, el lector de Cd-Roms es un dispositivo imprescindible en cualquier PC.

Sistema de conexión: Lo habitual es a puerto IDE (como los discos duros), pero también podemos encontrarlos a puerto SCSI e incluso externos a puerto paralelo. Ver sí disponemos de un puerto libre adecuado y, en el caso de los internos, de hueco en la c aja para alojarlo, es lo primero que debemos averiguar.

Tiempo medio de acceso (TMA): Es el tiempo, medido en milisegundos, que tarda como media la cabeza lectora en situarse en un punto concreto del disco. A menor tiempo, lógicamente, más efectividad y velocidad en la lectura de datos.

Velocidad: Medida en kilobytes por segundo (Kb/s), nos indica la velocidad máxima de transferencia de datos. La transferencia de un Cd-Rom X1 es 150 Kb/s. tomando eso como referencia podremos averiguar fácilmente qué nos indica las unidades llamadas x2, x4,…, x40. Efectivamente hay que multiplicar el número entero por 150 y tendremos la velocidad de transferencia máxima de nuestra unidad. Cuanto más rápida, menos tardará en leer una cierta cantidad de datos. Eso sí, en unidades muy rápidas debemos asegurarnos que el nivel de ruido durante el funcionamiento es aceptable.

Memoria buffer: Indica si la unidad dispone de una cantidad de memoria donde almacena datos que después serán reclamados por el microprocesador, acelerando así su lectura. Mejor si tiene, y cuanta más, mejor.

Compatibilidad de formatos: Pese a lo que pueda parecer a simple vista, no todos los Cd-Roms están grabados en el mismo formato. Un compacto musical, un programa o un DVD pueden tener aspectos parecidos pero no contienen lo mismo ni todos los lectores son capaces de reconocerlos

Page 31: U3 - Selección de componentes para ensamble de equipos de cómputo

y leerlos. Cualquier unidad moderna podrá leer la mayoría de los formatos; no así si disponemos de una con más de 2 o 3 años de antigüedad.

SALIDA

MONITOR

Tecnología: Tubo de rayos catódicos, lo normal; o cristal líquido, lo normal en portátiles y monitores ultramodernos de pantalla plana. También debemos prestar atención a otras características relacionadas como sí el tubo es Trinitron (mas caro pero mayor pureza de color). En la elección debe primar el estudio de nuestras necesidades y también de nuestra economía.

Resolución máxima: Indica a la máxima resolución (en PPP, puntos por pulgada) que puede trabajar el monitor, lo cual como vemos no depende sólo de la tarjeta gráfica. Cuanta más mejor.

Tamaño: Medido en pulgadas (= 25,4 mm) se refiere a la diagonal, es decir, la distancia entre una esquina y su opuesta. El tamaño es importante sobre todo cuando se trabaja con varias aplicaciones a la vez o cuando utilizamos programas que a su vez abren otras muchas ventanas (programas de diseño). También si por cualquier otra necesidad necesitamos una pantalla que sirva también para presentaciones o reproducción de vídeo. Un monitor de 15 pulgadas es una buena opción para el usuario medio, a partir de ese tamaño los precios se disparan.

Tamaño del punto: Llamado también dot pich. Se refiere al diámetro, medido en mm, de los orificios por los cuales pasan los rayos catódicos. A menor tamaño, más definición tendrán las imágenes vistas en pantalla. Lo normal es 0,25-0,28.

Baja radiación: Como su nombre indica define que existe una baja emisión, por parte del tubo, de radiaciones electrostáticas y electromagnéticas. Sin ésta característica la única solución será utilizar un buen filtro de pantalla o un parche para cada ojo.

Multisync (Multifrecuencia): Sí nuestro ordenador es Multisync podrá adaptarse automáticamente (o manualmente) a diferentes modos de video o resoluciones. Con ello, junto con el control digital de la imagen, podremos utilizar siempre todo el tamaño de pantalla.

Page 32: U3 - Selección de componentes para ensamble de equipos de cómputo

Otros aspectos como los monitores multimedia (con micrófono y altavoces incorporados), pantallas planas, el diseño, etc. Deberán tenerse en cuenta dependiendo de las necesidades.

IMPRESORA

Un elemento casi obligatorio si se posee un ordenador es una impresora. ¿Quién no tiene que imprimir alguna vez un currículo, una carta o una foto molona? Claro que también hay quien imprime una carta al mes y quien imprime 1000 al día. Hay quien busca resolución fotográfica y quien nunca imprime en color. Para eso está la variedad, las necesidades propias de cada uno.

Tecnología: Hoy día lo más extendido son las impresoras de inyección o láser. Pero también nos podemos encontrar con más de las que creemos de las de tipo aguja. Las impresoras de aguja imprimen como una máquina de escribir. Es decir, por contacto de unas piezas metálicas (agujas) con una cinta impregnada de tinta y el papel. Sus inconvenientes es que son ruidosas, de baja resolución y no muy limpias. ¿Ventajas? Puedes encontrar alguna de segunda mano casi gratis. Y sí total, sólo la quieres para imprimir el borrador de tus apuntes de derecho… las de inyección, como su nombre indica, funcionan por inyección directa de la tinta al papel (eso sí, a una ínfima distancia), poseen resoluciones casi fotográficas y son mucho más silenciosas que las anteriores. Los inconvenientes son sobre todo el alto precio de los cartuchos de tinta, en ocasiones de escándalo. Las impresoras láser, pese a ser la opción más cara en principio, es la más recomendada para los usuarios que necesiten imprimir gran cantidad de documentos ya que el precio por una impresión de buena calidad es bastante bajo.

Resolución: Indicada en PPP (puntos por pulgada) o matriz de puntos (punto ancho x puntos largo). A mayor resolución, más calidad podriamos llegar a obtener en nuestras impresiones.

Admisión de papel: Debemos fijarnos tanto en el tamaño del papel con el que es capaz de trabajar; como si admite modo vertical o apaisado; sí se posee alimentador de hojas automático y de qué capacidad; y sí admite sobres, etiquetas y papeles especiales.

¿Color?: No todas las impresoras pueden imprimir a color. Algunas necesitan la compra adicional de un cartucho de color que no viene incluido en el precio. También no todas ellas poseen la misma calidad de impresión a color. Es algo que deberemos valorar.

Page 33: U3 - Selección de componentes para ensamble de equipos de cómputo

Tamaño y diseño: No todas son iguales, pero su formato exterior no es lo único que las diferencia. Una impresora muy pequeña puede ser una magnifica solución a la falta de espacio o como compañera de un equipo portátil. Sin embargo, suelen tener un gran gasto en consumibles debido a que como los cartuchos de tinta también son pequeños se gastan rápidamente y por su peculiar formato reducido normalmente valen más que los otros (que de por si ya son caros).

Consumibles: Quizás el aspecto que el usuario doméstico más debería mirar con lupa. Los precios de los consumibles: cartuchos, toners, etc, pueden resultar un gran handicap a la hora de decidirnos. Ciertas marcas venden impresoras baratas pero con un gasto en consumibles superior a sus competidores (bien sea porque consumen más o porque el precio es mayor). Si no queremos llevarnos un susto de cuidado debemos elegir impresoras con consumibles baratos y fáciles de encontrar en los comercios. No teniendo esta preocupación nos puede salir cuenta comprar una impresora nueva cada vez que se nos gaste la tinta.

Velocidad de impresión: Número de páginas por minuto, contando siempre con que la prueba se realiza con un DIN A4 completamente escrito por una cara. Normalmente veremos la velocidad en B/N y color. Cuando más rápido mejor, pero no deberíamos desembolsar una gran cantidad de dinero sólo por esto.

3.2.2 ALMACENAMIENTO

Unidades de disquete

Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de estos aparatos. Su capacidad es totalmente insuficiente para las necesidades actuales, pero cuentan con la ventaja que les dan los muchos años que llevan como estándar absoluto para almacenamiento portátil.

Tamaño

Tipo de disco Capacidad Explicación

5,25” SS/DD 180 Kb Una cara, doble densidad. Desfasado

Page 34: U3 - Selección de componentes para ensamble de equipos de cómputo

5,25” DS/DD 360 Kb Dos caras, doble densidad. Desfasado

5,25” DS/HP 1,2 MB Dos caras, alta densidad. Desfasado pero útil

3,5” DS/DD 720 Kb Dos caras, doble densidad. Desfasado pero muy común

3,5” DS/HD 1,44 MB Dos caras, alta densidad. El estándar actual.

Discos duros

Son otro de los elementos habituales en los ordenadores, al menos desde los tiempos del 286. Un disco duro está compuesto de numerosos discos de material sensible a los campos magnéticos, apilados unos sobre otros; en realidad se parece mucho a una pila de disquetes sin sus fundas y con el mecanismos de giro y el brazo lector incluido en la carcasa.

Los discos duros han evolucionado mucho desde los modelos primitivos de 10 ó 20 MB. Actualmente los tamaños son del orden de varios gigabytes, el tiempo medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia es tan alta que deben girar a más de 5.000

Page 35: U3 - Selección de componentes para ensamble de equipos de cómputo

rpm (revoluciones por minuto), lo que desgraciadamente hace que se calienten como demonios, por lo que no es ninguna tontería instalarles un ventilador para su refrigeración.

Una diferencia fundamental entre unos y otros discos duros es su interfaz de conexión. Antiguamente se usaban diversos tipos, como MFM, RLL o ESDI, aunque en la actualidad sólo se emplean dos: IDE y SCSI.

Dispositivos de almacenamiento ópticos (CD y DVD)

Los discos ópticos están formados por una lámina circular de plástico con una fina capa de material metálico reflectante, recubiertas a su vez por un barniz transparente para su protección del polvo. Un haz láser va leyendo microscópicos agujeros “pits” o espacios planos “lanas”, de forma que si el láser es reflejado o no, se interpretará de forma digital como un 1 o un 0. un sistema óptico con lentes encamina el haz luminoso, y lo enfoca como un punto en la capa del disco que almacena los datos.

Podemos establecer una división en función de la longitud de onda del láser; de este modo tenemos el CD, el DVD y actualmente se están lanzando dispositivos con tecnología de Láser Azul. Esto es, disminuyendo la longitud de onda del láser, aumentamos la capacidad de escritura/lectura para el mismo espacio físico en el disco.

Su capacidad de almacenamiento llega hoy a unos 800 MB de información. Habitualmente se utiliza para almacenar datos o música.

3.2.3 FUENTES DE ALIMENTACIÓN

FUENTES DE ALMACENAMIENTO CONFIGURABLES: La serie MVP es la familia más versátil de fuentes de alimentación de potencia media que utiliza componentes magnéticos de SMD y convertidos DC-DC internos, combinados con módulos PFC, que pueden ser configurables desde 1 hasta 10 tensiones de salida con valores entre 2 y 60 V. tiene todas las homologaciones de seguridad necesarias y es un producto marcado ‘CE’.

FUENTES DE ALIMENTACIÓN DE BAJA POTENCIA: Las series LP y Net de fuentes de alimentación conmutadas de baja potencia, ofrecen una óptima combinación de prestaciones, precio y fiabilidad, así como la última tecnología.

Estos dispositivos ofrecen potencias entre 25 y 350 W y están disponibles en una amplia variedad de configuraciones, tanto en salida única como multisalida.

FUENTES DE ALIMENTACION DE GRAN POTENCIA: ASTEC es líder mundial en fuentes de alimentación para telefonía, redes, fibra óptica y otras aplicaciones industriales donde se necesitan alimentadores, cargadores de batería enchufables en caliente y paralelables, para

Page 36: U3 - Selección de componentes para ensamble de equipos de cómputo

conseguir configuraciones N+1. La serie VS es una fuente de alimentación modular, con diseño flexible, que ofrece de 1 a 12 salidas con potencias entre 1000 a 2500 W por unidad.

3.3 AMBIENTES DE SERVICIOS.

El negocio de proveer servicios de datos es mucho más complejo que la forma en la que se dan los tradicionales servicios, los primeros requieren de nuevos conocimientos y modelos de negocio, que con frecuencia se termina involucrando o necesitando la colaboración de terceras empresas. Por lo que se hace necesario que los operadores tradicionales transformen su negocio para ofrecer los servicios de datos con los niveles de servicio que el mercado exige, las principales exigencias áreas de negocio que debe ser consideradas se detallan en los siguientes párrafos.

1. Desarrollo de nuevos mercados y productos: Para un operador típico, la cadena de valor se han expandido muy particularmente en el área de desarrollo de productos, los operadores deben integrar y establecer relaciones con muchos nuevos actores para generar contenido, portales o agregados al negocio como los ISP, así como construir las plataformas para el desarrollo de productos, mejorar la segmentación y los clientes meta. El énfasis estará puesto en:

Desarrollo de contenido: Los operadores de las redes deberán buscar esquemas de compartir los ingresos y ofrecerle algún retorno financiero a los dueños del contenido.

La incorporación de contenido: Muchos nuevos jugadores, así como las mayores operadores de las redes, están luchando por convertirse en los dominadores de esta parte del negocio.

Portales (multi-acceso). Disponibilidad de aplicaciones: Los operadores deben ofrecer aplicaciones para uso de los

clientes que les genere nuevos ingresos por servicios. Mercadeo y desarrollo de nuevos productos: La segmentación se vuelve vital, como

proveedores de servicios, se debe segmentar y enfocarse en grupos de clientes en particular y velar por sus necesidades especificas.

2. Adquisición y Administración de Clientes: La Administración y la retención de los clientes está aumentado en importancia cada vez más, se busca mantener clientes leales; los CRM y los diferentes dispositivos que se utilizan como medios de acceso se han diversificado, pasando a ser elementos críticos en los negocios como herramientas para atraer y retenerlos. Esta porción de la provisión de servicio en la cadena de valor ha llegado a ser muy competitiva, principalmente en los negocios de ventas al por mayor, que incorporan a nuevos proveedores de servicios que los ayudaran a enfocarse en grupos de clientes muy específicos. Los proveedores de servicios tendrán que aprender a diferenciar la experiencia del cliente a través de su ciclo de vida completa, la ayuda de los dispositivos como los CRMS se están volviendo extremadamente importantes conforme su funcionalidad se expande más allá de la simple voz y la mensajería, entrando a manejar conceptos de mayor conocimiento del cliente por medio de funciones de inteligencias de negocios que le permitan conocer con lujo de detalle el comportamiento de compra del consumidor. Para lograr esa fidelidad y conocimiento se debe estar enfocado en:

Page 37: U3 - Selección de componentes para ensamble de equipos de cómputo

Nuevos clientes: Hay muchos nuevos competidores, apalancando marcas, mejorando la distribución, produciendo contenido, incorporando nuevas funcionalidades a los CRMS, habilitando nuevas aplicaciones, etc. Por otro lado los operadores de la red también se están enfocando sobre marcas como diferenciadores.

Retención de clientes: Retener los clientes de alta gama debe ser uno de los focos principales para los proveedores de servicios que dependen de la red y que ya están establecidos.

Administración de los clientes y canales: Diferenciarse a través de la experiencia del cliente, reducir costos, mejorar el rendimiento, enfocarse en canales directos.

Dispositivos: poner mucha atención al creciente uso de dispositivos móviles como las PDA, de acceso inalámbrico diseñado para ofrecer servicios de computación y comunicación específicos, va a ayudar considerablemente a posicionar la interfaz de acceso de los usuarios a los servicios.

3. Proveer y desarrollar servicios para la red: Los operadores de las redes deben buscar un uso eficiente de los activos, mejorar la calidad, el rendimiento, su utilización y el retorno financiero, las oportunidades de ventas al por mayor seguirán en incremento.

Hay una oportunidad creciente en los servicios de valor agregado de las redes, los operadores deben de crear una capa de servicios dentro de su negocio para soportar las aplicaciones inalámbricas, tales como seguridad, ubicación, servicios al por mayor, etc.,tales como:

Servicios principales de la red. Servicios de valor agregado de la red: Una de las áreas nuevas claves para los operadores

de la red, como seguridad, hospedaje de servicios, administración de dispositivos, respaldo de datos, etc.

Operación de la red.

4. Administración del negocio: Los expertos consideran que los operadores, cada vez más estarán volcando sus ojos hacia todos aquellos elementos que no son parte del negocio principal, buscando mejorar los costos, la eficiencia, la calidad y el rendimiento, las áreas candidatas a tercerizar son:

Administración: El ambiente cada vez más complejo, hace que las empresas se enfocan cada vez más en sus principales destrezas y fortalezas del negocio y complementar con la administración de proveedores el resto de las actividades.

HR, SCM, ERP, etc.: Son potenciales actividades que no son fundamentales del negocio y son candidatos a ser sujetos a incrementar las relaciones con terceros que provean estos servicios.

3.3.1 NEGOCIOS

Page 38: U3 - Selección de componentes para ensamble de equipos de cómputo

La globalización está cambiando el mundo y lo ha convertido en un ambiente sumamente competitivo, en el que no existen distancias ni fronteras y donde la información está al alcance de las manos. Esta situación ha provocado una enorme presión sobre las organizaciones, que deben flexibilizarse y encontrar nuevos mecanismos para afrontar las presiones, para innovar y en general para sobrevivir.

En este nuevo mundo, el outsourcing ha surgido como una herramienta que facilita la gestión empresarial y se ha convertido en un tema de actualidad. Sin embargo, más que una moda, outsourcing es una forma eficaz para apoyar a las organizaciones y asegurar su supervivencia y tiene su principal razón de ser en tres imperativos que deben considerar las organizaciones hoy en día:

Enfocarse en un negocio. Asegurarse el acceso a la experiencia técnica que es crítica para el negocio. Focalizarse en operaciones optimizadas, reduciendo y controlando los costos.

En el caso de Tecnología de Información, el impacto del outsourcing es enorme: Outsourcing es la principal fuente de crecimiento en el área de Servicios de Tecnología de Información (TI), y se ha convertido en un elemento central de las prácticas de negocios de las compañías actuales, sin importar el tamaño.

Empujados por la competencia de mercados, las empresas deben hacer un uso más intensivo de TI y esto genera una mayor gama de oportunidades para el outsourcing. Pero esta tendencia requiere también que los CIO y demás lideres de las organizaciones aprendan a manejar esta herramienta como un mecanismo que permita alinear las funciones de TI con la estrategia de la organización. Los CIO deben reconocer los límites de sus organizaciones para proveer los servicios estratégicos que requiere la organización e iniciar el desarrollo de las prácticas del outsourcing y sobre todo, manejar este mecanismo en forma efectiva.

Una consecuencia del outsourcing es que ha creado un nuevo modelo de relación cliente-proveedor, una relación que busca la cooperación intensa entre ambos, convirtiendo una relación meramente comercial en un alianza estratégica para compartir el conocimiento.

¿Qué es Outsourcing?

Outsourcing es una herramienta de gestión que combina la correcta determinación de la estrategia con las medidas adecuadas para llevarla a cabo de una manera operativamente eficaz.

Esto significa que no se trata solo de eficacia operativa orientada hacia la estrategia organizacional. Una organización puede tratar de ser más eficiente y eficaz y puede estar totalmente orientada al logro de sus objetivos. Esto implica normalmente un gran número de funciones que debe realizar, de las cuales, no todas están relacionadas directamente al logro de los objetivos estratégicos. Algunas tareas solo son de apoyo a soporte.

Page 39: U3 - Selección de componentes para ensamble de equipos de cómputo

Las organizaciones deben reconocer que es posible realizar todas estas tareas de forma eficiente y deben identificar cuales de sus funciones son críticas para el logro de los objetivos estratégicos y cuales son de apoyo. Una vez reconocidas y clasificadas las diversas funciones de esta forma, las organizaciones deben enfocarse en las tareas críticas, las funciones que establecen la diferencia, es decir, deben concentrarse en el NEGOCIO y deben considerar dar a terceros las funciones de soporte. Esto es Outsourcing.

3.3.2 INDUSTRIA

La “industrialización” de los Servicios de Tecnología de Información va a redefinir el mercado en términos de cómo las organizaciones evalúan, compran y seleccionan los servicios, y de cómo los vendedores desarrollan, establecen precios e implementan los servicios.

El aumento de la estandarización y la consecuente disminución en la customización es un proceso inevitable y es el resultado del tiempo y la experiencia en cualquier industria. La industria está en un proceso de transición y el impacto de este viraje ya se siente.

Dentro del ambiente de TI (Tecnología de Información), existe una estrategia doble, que incluye prácticas customizadas o estandarizadas. Los proveedores de outsourcing están respondiendo a este llamado de la estandarización, para aprovechar las economías de escala, pero en forma simultánea deben soportar una gran base instalada de ambientes desarrollados a la medida. Aunque los servicios de TI están en proceso de madurez, la madurez de la industria se ha incrementado en aspectos evidentes, como la forma en que los servicios son implementados y administrados.

Para lograr esta estandarización, se requiere un enfoque hacia soluciones “genéricas” y esto debe ser responsabilidad de los proveedores, que deben desarrollar, operar y administrar el resultado de estos genéricos de TI. Las métricas deben cambiar entonces, de la medida de capacidades técnicas a la medida en el impacto en los negocios, es decir, en los acuerdos de niveles de servicio.

La industria de las telecomunicaciones y sus tendencias

Las empresas proveedoras de servicio de telecomunicaciones en estos tiempos tienen un reto mayor, reducir los costos y paralelamente desarrollar iniciativas para crecer el negocio en un mercado tradicional que se vuelve cada vez menos atractivo económicamente hablando. El mercado de valores refleja una mejora muy considerable en el sector de los servicios de la industria de las telecomunicaciones, y de las empresas que ofrecen los servicios completos.

Para mejorar los rendimientos los expertos recomiendan como una forma de lograr mayores ahorros en los costos, tomar las siguientes medidas:

Page 40: U3 - Selección de componentes para ensamble de equipos de cómputo

1. Bajar los costos de operación automatizando e integrando los procesos del negocio.2. La utilización intensiva de los activos, por medio de la consolidación de las operaciones,

dotando a la empresa de una infraestructura escalable que le permita alcanzar los nuevos requerimientos rápidamente.

3. Hacer inversiones de capital eficientemente, como Gastos de Capital justo a Tiempo, analisis de costo/valor, una cadena de abastecimiento extendida y compras que les permita bajar los precios a mayores niveles.

4. Explotar las sinergias a través de las operaciones, esto es, Centros de Servicios compartido5. Administrar el riesgo y la incertidumbre, incorporando servicios administrados o mercerizados a través de la cadena de valor o dentro de segmentos especificos.

Por el otro lado para crear nuevo valor a la empresa y generar ingresos adicionales recomiendan a las empresas:

1. Apoyar los procesos e iniciativas de desarrollo de nuevos productos, que permita mejorar el tiempo de lanzamiento al mercado de nuevas fuentes de generación de ingresos.

2. Administrar e incorporar alianzas en toda la cadena de valor.3. Apoyar y soportar integraciones B2B (Negocio a Negocio) por medio de la adopción de

plataformas, sistemas y redes totalmente abiertas.4. Proveer mecanismos para mantener un amplio conocimiento del mercado y de la

empresa.

3.3.3 COMERCIO ELECTRÓNICO

El comercio electrónico consiste en la compra, venta, marketing y suministro de información complementaria para productos o servicios a través de redes informáticas. La industria de la tecnología de la información podría verlo como una aplicación informática dirigida a realizar transacciones comerciales.

Una definición alternativa la vería como la conducción de comunicaciones de negocios comerciales y su dirección a través de métodos electrónicos como intercambio electrónico de datos y sistemas automáticos de recolección de datos. El comercio electrónico también incluye la transferencia de información entre empresas.

Desarrollo histórico

El significado del término “comercio electrónico” ha cambiado a lo largo del tiempo. Originalmente, “comercio electrónico” significaba la facilitación de transacciones comerciales electrónicamente, normalmente utilizando tecnología como la Electronic Data Interchange (EDI,

Page 41: U3 - Selección de componentes para ensamble de equipos de cómputo

presentada finales de los años 70) para enviar electrónicamente documentos como pedidos de compra o facturas.

Más tarde paso a incluir actividades más precisamente denominadas “Comercio en la red”. La compra de bienes y servicios a través de la World Wide Web vía servidores seguros (véase HTTPS, un protocolo de servidor especial que encripta la realización confidencial de pedidos para la protección de los consumidores y los datos de la organización) con tarjetas de compra electrónica y con servicios de pago electrónico como autorizaciones para tarjeta de crédito.

Factores claves del éxito en el comercio electrónico

Varios factores han tenido un importante papel en el éxito de las empresas de comercio electrónico. Entre ellos se encuentran:

1. Proporcionar valor al cliente. Los vendedores pueden conseguirlo ofreciendo un producto o una línea de producto que atraiga clientes potenciales a un precio competitivo al igual que suceden en un entorno no electrónico.

2. Proporcionar servicio y ejecución. Ofrecimiento de una experiencia de compra amigable, interactiva tal como se podría alcanzar en una situación cara a cara.

3. Proporcionar una página Web atractiva. El uso de colores, gráficos, animación, fotografías, tipografías y espacio en blanco puede aumentar el éxito en este sentido.

4. Proporcionar un incentivo para los consumidores para comprar y devolver. Las promociones de ventas pueden incluir cupones, ofertas especiales y descuentos. Las Webs unidas por links y los programas de publicidad pueden ayudar en este aspecto.

5. Proporcionar atención personal. Webs personalizadas, sugerencias de compra y ofertas especiales personalizadas pueden allanar el camino de sustituir el contacto personal que se puede encontrar en un punto de venta tradicional.

6. Proporcionar un sentido de comunidad. Las áreas de chats, foros, registros como cliente, esquemas de fidelización y programas de afinidad puede ayudar.

7. Proporcionar confianza y seguridad. Servidores paralelos, redundancia de hardware, tecnología de seguridad en averías, encriptamiento de la información y cortafuegos pueden ampliar estos requisitos.

8. Proporcionar una visión de 360 grados de la relación con el consumidor, definida como la seguridad de que todos los empleados, proveedores y socios tienen una visión global e idéntica del consumidor. Sin embargo, los consumidores pueden no apreciar la experiencia de “gran hermano”.

9. Poseer la experiencia total del consumidor. Esto se consigue tratando con el consumidor como parte de una gran experiencia, lo que hace ver como sinónimo de la marca.

10. Optimizado los procesos de negocio, posiblemente a través de tecnologías de reingeniería de la información.

11. Dejando que los consumidores se ayuden así mismos. Proporcionando sistemas de autoayuda sin asistencia puede ayudar en este sentido.

Page 42: U3 - Selección de componentes para ensamble de equipos de cómputo

12. Ayudar a los consumidores a hacer el trabajo de consumir. Los vendedores pueden proporcionar esta ayuda ampliando la información comparativa y las búsquedas de producto. La provisión de información de componentes y comentarios de seguridad e higiene puede ayudar a los minoristas a definir el trabajo del comprador.

13. Construir un modelo de negocios sólido. Si este factor clave hubiera aparecido en los libros de texto en 2000 muchas compañías ‘punto com’ no habrían quebrado.

14. Crear una cadena de valor añadido en la que uno se orienta a un número ‘limitado’ de competencias claves. (Las tiendas electrónicas pueden presentarse bien como especialistas o como generalistas si se programan correctamente).

15. Operar en o cerca del límite de la tecnología y permanecer allí mientras la tecnología sigue cambiando (pero recordando que los principios fundamentales del comercio se mantienen indiferentes a la tecnología).

16. Construir una organización con suficiente agilidad y sistemas de alerta para responder rápidamente a los cambios en el entorno económico, social y físico.

Problemas del comercio electrónico

Incluso si el proveedor de productos en comercio electrónico sigue rigurosamente estos dieciséis “factores clave” para diseñar una estrategia ejemplar de comercio electrónico, los problemas pueden aparecer igualmente. Las causas de dichos problemas suelen ser:

1. No comprensión de los clientes, el por qué compran y cómo compran. Incluso un producto con una proposición sólida de valor puede fallar si los fabricantes y distribuidores no entienden los hábitos, expectativas y motivaciones de los consumidores. El comercio electrónico podría llegar a mitigar este problema potencial con una investigación de marketing preactiva y bien orientada tal como hacen los detallistas tradicionales.

2. No considerar el entorno competitivo. Uno puede tener la capacidad de construir un buen modelo de negocios de librería electrónica pero no tener el deseo de competir con Amazon.com.

3. No capacidad de predecir la reacción del entorno. ¿Qué harán los competidores? ¿Presentarán nuevas marcas o páginas Web competidoras? ¿Complementarán sus ofertas de servicio? ¿Tratarán de sabotear el portal de la competencia? ¿se desatará una guerra de precios? ¿Qué hará el estado? Una buena investigación de la competencia, fabricantes y mercados puede mitigar las consecuencias de esto, tal y como sucede en el comercio no electrónico.

4. Sobreestimar nuestros recursos ¿puede el personal, hardware, software, y nuestros procesos llevar a cabo la estrategia propuesta? ¿Han fallado los detallistas en desarrollar las capacidaes de los empleados y directivos? Estos puntos pueden motivar la planificación de recursos y la formación de los empleados.