sábado, 7 de julio de 2012

Unidad de disco Optico




Unidad De Disco Óptico      

File:Zone clv.jpg1. Laser y óptica
La parte más importante de una unidad de disco óptico es el camino óptico, ubicado en un pickup head (PUH), que consiste habitualmente de un láser semiconductor, un lente que guía el haz de láser, y fotodiodos que detectan la luz reflejada en la superficie del disco.
En los inicios, se usaban los lásers de CD con una longitud de onda de 780 nm, estando en el rango infrarrojo. Para los DVD, la longitud de onda fue reducida a 650 nm (color rojo), y la longitud de onda para el Blu-ray fue reducida a 405 nm (color violeta).
Se usan dos servomecanismos principales, el primero para mantener una distancia correcta entre el lente y el disco, y para asegurar que el haz de laser es enfocado en un punto de láser pequeño en el disco. El segundo servo mueve un cabezal a lo largo del radio del disco, manteniendo el haz sobre una estría, un camino de datos en espiral continúo.
Debido a que la profundidad de los surcos es aproximadamente la cuarta o sexta parte de la longitud de onda del láser, la fase del haz reflejado cambia en relación al haz entrante de lectura, causando una interferencia destructiva mutua y reduciendo la intensidad del haz reflejado. Esto es detectado por fotodiodos que emiten señales eléctricas.
Para medios regrabables como CD-RW, DVD-RW, DVD+RW, o BD-RE, el láser es usado para derretir una aleación de metal cristalina en la capa de grabación del disco. Dependiendo de la cantidad de energía aplicada, la sustancia puede volver a adoptar su forma cristalina original o quedar en una forma amorfa, permitiendo que sean creadas marcas de reflexividad variante.
Los medios de doble cara pueden ser usados, pero no son de fácil acceso con una unidad estándar, ya que deben ser volteados físicamente para acceder a los datos en la otra cara.
Los medios de doble capa (DL, double layer) tienen dos capas de datos independientes separadas por una capa semireflexiva. Ambas capas son accesibles por el mismo lado, pero necesitan que la óptica cambie el foco del láser.
La primera estría en espiral habitualmente comienza sobre el borde interior y se extiende hacia fuera, mientras que la segunda estría comienza en el borde exterior y se extiende hacia dentro.

2. Mecanismo de Rotación
El mecanismo de rotación de las unidades ópticas difiere significativamente del de los discos duros, en que el segundo mantiene una velocidad angular constante (VAC), en otras palabras un número constante de revoluciones por minuto (RPM). Con la VAC, usualmente en la zona exterior del disco se consigue un mejor throughput (rendimiento) en comparación con la zona interior.
Por otra parte, las unidades ópticas fueron desarrolladas con la idea de alcanzar un throughput constante, inicialmente en las unidades de CD igual a 150 KiB/s. Era una característica importante para hacer streaming de datos de audio, que siempre tiende a necesitar una tasa de bits (bit rate) constante. Pero para asegurar que no se desperdicia la capacidad del disco, un cabezal también tendría que transferir datos a una tasa lineal máxima todo el tiempo, sin detenerse en el borde exterior del disco.
Las unidades de CD más recientes mantenían el paradigma VLC, pero evolucionaron para alcanzar velocidades de rotación mayores, popularmente descritas en múltiplos de una velocidad base (150 KiB/s). Como resultado, una unidad de 4X, por ejemplo, rotaría a  800-2000 RPM, transfiriendo datos a 600 KiB/s continuamente, lo que es igual a 4 x 150 KiB/s.
La velocidad de base del DVD, o "velocidad 1x", es de 1,385 MB/s, igual a 1,32 MiB/s, aproximadamente 9 veces más rápido que la velocidad base del CD. La velocidad base de una unidad de Blu-ray es de 6,74 MB/s, igual a 6,43 MiB/s.
Existen límites mecánicos respecto a cuán rápido puede girar un disco. Después de una cierta de rotación, cerca de 10.000 RPM, el estrés centrífugo puede causar que el plástico del disco se arrastre y posiblemente se destruya. En el borde exterior de un CD, 10.000 RPM equivalen aproximadamente a una velocidad de 52x, pero en el borde interior solo a 20x. Algunas unidades disminuyen aún más su velocidad de lectura máxima a cerca de 40x argumentando que los discos vírgenes no tendrán peligro de daños estructurales, pero los discos insertados para leer pueden sí tenerlo. Sin las velocidades de rotación más altas, un mayor rendimiento de lectura puede conseguirse leyendo simultáneamente más de un punto en una estría de datos,  pero las unidades con tales mecanismos son más caras, menos compatibles, y muy raras.
Debido a que mantener una tasa de transferencia constante para el disco entero no es muy importante en la mayoría de los usos contemporáneos de los CD, para mantener la velocidad de rotación del disco a una cantidad baja segura a la vez que se maximiza la tasa de datos, el enfoque VLC puro debió ser abandonado. Algunas unidades trabajan con un esquema VLC parcial (VLCP), cambiando de VLC a VAC solo cuando se alcanza un límite de rotación. Pero cambiar a VAC requiere cambios significativos en el diseño del hardware, por eso en cambio la mayoría de las unidades usan el esquema de velocidad lineal constante por zonas (VLC-Z). Este esquema divide el disco en varias zonas, cada una con su propia velocidad lineal constante diferente.

3. Mecanismo de Carga
Las unidades ópticas actuales usan o un mecanismo de carga de bandeja, donde el disco es cargado en una bandeja motorizada u operada manualmente, o un mecanismo de carga de sócalo, donde el disco se desliza en un sócalo y es retraído hacia dentro por rodillos motorizados.
Las unidades de carga de sócalo tienen la desventaja de no ser compatibles con los discos más pequeños de 80mm o cualquier tamaño no estándar; sin embargo, la videoconsola Wii parece haber derrotado este problema, ya que es capaz de cargar DVD de tamaño estándar y discos de GameCube de 80 mm en la misma unidad con carga de sócalo.
Un menor número de modelos de unidades, la mayoría unidades portables compactas (como un Discman), tienen un mecanismo de carga superior (por arriba) en el cual la tapa de la unidad se abre hacia arriba y el disco es colocado directamente sobre el rotor.
Algunas de las primeras unidades de CD-ROM usaban un mecanismo en el cual los CD tenían que ser insertados en cartuchos o cajas especiales, similares en apariencia a un disquete de 3.5". Esto se hacía para proteger al disco de daños accidentales causados por introducirlos en cajas plásticas más duras, pero no ganó aceptación debido al costo adicional y los problemas de compatibilidad, como que las unidades necesitarían inconvenientemente que los discos fueran insertados en un cartucho antes de usarse.

4. Interfaces de computadora
La mayoría de las unidades internas para computadoras personalesservidores y estaciones de trabajo son diseñadas para encajar en una bahía de 5.25" y conectarse mediante una interfaz ATA o SATA. Las unidades externas usualmente se conectan mediante interfaces USB o FireWire. Algunas versiones portables para usar con laptops se alimentan mediante baterías o mediantes su bus de interfaz.
Cuando la unidad de disco óptico fue desarrollada por primera vez, no era fácil de añadir a las computadoras. Algunas computadores como la IBM PS/2 estaban estandarizadas para los disquetes de 3.5" y los discos duros de 3.5", y no incluían un lugar para un dispositivo interno más grande. Además las PC de IBM y sus clones al comienzo únicamente incluían una sola interfaz ATA, la cual para el momento en el que él se introducía CD, ya estaba siendo en uso para soportar dos discos duros.
Las primeras laptops no tenían incorporada una interfaz de alta velocidad para soportar un dispositivo de almacenamiento externo.
Esto fue resuelto mediante varias técnicas:
Las primeras tarjetas de sonido podían incluir una segunda interfaz ATA, si bien a menudo se limitaba a soportar una sola unidad óptica y ningún disco duro.
Se desarrolló una unidad externa de puerto paralelo que se conectaba entre la impresora y la computadora. Esto era lento pero una opción para las laptops.
También se desarrolló una interfaz de unidad óptica PCMCIA para laptops.
Se podía instalar una tarjeta SCSI en las PC de escritorio para incorporar una unidad SCSI externa, aunque SCSI era mucho más caro que las otras opciones.

5. Compatibilidad
Todas las grabadoras no graban todos los medios ópticos ni todas las lectoras leen todos.
La mayoría de las unidades ópticas son retro compatibles con sus modelos anteriores hasta el CD, si bien esto no es exigido por los estándares.
Comparado con una capa de 1.2 mm de policarbonato de un CD, el haz de laser de un DVD solo debe penetrar 0.6 mm para alcanzar la superficie de grabación. Esto permite a la unidad de DVD enfocar el haz en un punto de menor tamaño para leer surcos (pits) pequeños. Los lentes de DVD soportan un enfoque diferente para CD o DVD con el mismo láser.
Abajo se muestra una tabla con los distintos discos ópticos y lo que puede hacer cada hardware, tanto de grabación como de lectura, con ellos. En ésta observamos que el hardware para CD sólo se puede usar para ellos, el de DVD se puede usar para CD y DVD y no para BD y el de BD se puede utilizar para todos los formatos.
6. Rendimiento de Grabación
Las unidades ópticas de grabación indican tres velocidades. La primera velocidad es para las operaciones de grabación de una sola vez (R), la segunda para las operaciones de regrabación (RW o RE), y la última para operaciones de solo lectura (ROM). Por ejemplo una unidad de CD es capaz de grabar discos CD-R grabar discos CD-RW, y leer cualquier disco CD.
A finales de los años 1990, los subdesbordamientos de búfer (buffer underruns) se volvieron un problema muy común a medida que las grabadoras de CD de alta velocidad comenzaban a hacer su aparición en las computadoras hogareñas y de oficina, las cuales (por una variedad de razones) no podían mantener el flujo de datos de la grabadora constantemente alimentando. Entonces, la grabadora era obligada a detener el proceso de grabación, dejando una pista truncada que usualmente hacía inútil al disco.
En respuesta a esto, los fabricantes de grabadoras de CD comenzaron a distribuir unidades con "protección contra subdesbordamiento de búfer" (bajo varias marcas comerciales, como "BURN-Proof" de Sanyo y "Lossless Link" de Yamaha). Estas protecciones pueden suspender y resumir el proceso de grabación de tal manera que la brecha que la detención produce pueda ser correctamente tratada por la lógica de corrección de errores integrada en las unidades de CD-ROM y reproductores de CD.

7. Esquemas de Grabación
La grabación de CD en computadoras personales era originariamente una tarea orientada a batch en la que se necesitaba software de autoría especializado para crear una "imagen" de los datos a grabar, y para grabarla a un disco en una sesión. Esto era aceptable para fines de archivo, pero limitaba la conveniencia general de los discos CD-R y CD-RW como medios de almacenamiento removibles.
La escritura de paquetes (packet writing) es un esquema en el que la grabadora escribe incrementalmente en los discos en pequeñas ráfagas, o paquetes. La escritura de paquetes secuencial llena el disco con paquetes de abajo hacia arriba. Para hacerlo legible en unidades de CD-ROM y DVD-ROM, el disco debe ser cerrado en cualquier momento escribiendo una tabla de contenidos al comienzo del disco; tras la escritura de la tabla de contenidos, ya no se podrán añadir más paquetes al disco.
La escritura de paquetes de tamaño fijo (en los medios CD-RW y DVD-RW) divide el disco en paquetes acolchados (de mayor tamaño) de tamaño fijo. Este acolchonamiento reduce la capacidad del disco, pero le permite a la grabadora iniciar y detener la grabación en un paquete individual sin afectar a sus vecinos. Esto se asemeja tanto al acceso de escritura de bloque ofrecido por medios magnéticos que muchos sistemas de archivo funcionarán de igual manera. No obstante, tales discos no son legibles por la mayoría de las unidades de CD-ROM y DVD-ROM o en la mayoría de los sistemas operativos sin drivers adicionales.
El formato de disco DVD+RW va más allá mediante la introducción de indicaciones de temporización más precisas en las estría de datos del disco permitiendo así que bloques de datos individuales sean reemplazados sin afectar la retro compatibilidad (una característica denominada "vinculación sin pérdida" [lossless linking]). El formato en sí fue diseñado para tratar con grabaciones discontinuas debido a que se esperaba que fuera ampliamente usado en grabadores de video digital (en inglés digital video recorders o DVR). Muchos de estos grabadores usan esquemas de compresión de video de tasas variables que requieren que la grabación se realice en pequeñas ráfagas; algunos permiten reproducir y grabar al mismo tiempo, grabando rápidamente de forma alternada en la cola del disco mientras se lee desde otro lugar.
Mount Rainier intenta hacer que los discos CD-RW y DVD+RW escritos por paquetes sean tan convenientes para usar como los medios magnéticos removibles haciendo que el firmware dé formato a nuevos discos en segundo plano y gestione los defectos de medios (mapeando automáticamente las partes del disco que han sido desgastadas mediante ciclos de borrado para reservar espacio en otra parte del disco). Hacia febrero de 2007, Windows Vista ofrece soporte nativo para Mount Rainier. Todas las versiones anteriores de Windows necesitan de una solución ajena, al igual que Mac OS X.

8. Identificador único de Grabadora
Debido a la presión ejercida por la industria de la música, representada por la IFPI y la RIAA, Philips desarrolló el Recorder Identification Code o RID (en español código de identificación de grabadora) para permitir que los medios sean asociados de forma singular con la grabadora que los escribió. Este estándar está contenido en los Rainbow Books. El RID es el opuesto al Source Identification Code o SID (en español "código de identificación de fuente"), un código de proveedor de ocho caracteres que es colocado en cada CD-ROM.
El RID consiste de un código de proveedor (por ejemplo "PHI" para Philips), un número de modelo y el ID único de la grabadora.
            




Microprocesador


Microprocesador
1 Historia de los microprocesadores:
El microprocesador es un producto de la computadora y con tecnología semiconductora. Se eslabona desde la mitad de los años 50's; estas tecnologías se fusionaron a principios de los años 70”s produjeron llamado micro procesador.

La computadora digital hace cálculos bajo el control de un programa. La manera general en que los cálculos se han hecho es llamada la arquitectura  de la computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el microprocesador es un circuito con transistores o microcircuito LSI (grande escala de integración), para ser más preciso. 

El mapa de la figura, mostrada al final de esta sección, muestra los sucesos importantes de éstas dos tecnologías que se desarrollaron en las últimas cinco décadas. Las dos tecnologías iniciaron su desarrollo desde la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras especialmente para uso militar. Después de la guerra, a mediados del año de 1940 la computadora digital fue desarrollada para propósitos científicos y civiles.

1.1La evolución de los microprocesadores

En los años 50's, aparecen las primeras computadoras digitales de propósito general. Éstas usaban tubos al vacío (bulbos) como componentes electrónicos activos.
La construcción de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El principal paso tomado en la computadora fue hacer que el dato fuera almacenado en memoria como una forma de palabra digital.
El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su empleo en terminales informáticos.
Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores.
A principios de los años 60's, el arte de la construcción de computadoras de estado sólido se incrementó y surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).

A mediados de los años 60's se producen las familias de lógica digital, dispositivos en escala SSI y MSI que corresponden a pequeña y mediana escala de integración de componentes en los circuitos de fabricación.

A finales de los años 60's y principios de los años 70's surgieron los LSI (gran escala de integración). La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado.

Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando un circuito que fue llamado el microprocesador. 

El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época.

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su empleo en terminales informáticos, el primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo.

1.2 Breve  Historia
1971: MICROPROCESADOR 4004
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos animados así como la computadora personal.

1972: MICROPROCESADOR i8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal
Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con las expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.

1974: MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M.

1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías.

1982: MICROPROCESADOR 286
El 286, también conocido como el 80286, era el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de su introducción, había un estimado de 15 millones de 286 basados en computadoras personales instalados alrededor del mundo.

1985: EL MICROPROCESADOR INTEL 386
El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.

1989: EL DX CPU MICROPROCESADOR INTEL 486
La generación 486 realmente significó que el usuario contaba con una computadora con muchas opciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj.

1991: AMD AMx86
Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.

1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). 

1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.

1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. MD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. 

1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste.

1996: AMD K6 Y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar.

1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.

1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.

1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.

1999: PROCESADOR PENTIUM III
El procesador Pentium III ofrece 70 nuevas instrucciones (Internet Streaming, las extensiones de SIMD las cuales refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (llenas de gráficas) como las de los museos online, tiendas virtuales y transmitir archivos video de alta calidad. El procesador incorpora 9,5 millones de transistores, y se introdujo usando en él la tecnología 250 nanómetros.

1999: EL PROCESADOR PENTIUM III XEON
El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidor y añade una actuación mejorada en las aplicaciones del comercio electrónico y la informática comercial avanzada. Los procesadores incorporan tecnología que refuerzan los multimedios y las aplicaciones de video. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando la actuación significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.

2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Petium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2001: ATHLON XP
Cuando Intel sacó el Penyium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon XP. Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird podemos mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T  por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64 , que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,

2006: INTEL CORE Y CORE 2 DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento.

2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio.

2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos.

2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB.

2010: INTEL CORE SANDY BRIDGE

Los próximos procesadores de Intel de la familia core

2011: AMD BULLDOZER
Los próximos procesadores de AMD de la familia Fusión

2. Funcionamiento del Microprocesador

Básicamente un procesador realiza comparaciones lógicas y operaciones básicas sobre datos que se pueden encontrar en la Memoria RAM, Caché, registros de CPU, etc. Utilizando compuertas lógicas, registros y las instrucciones o Flips Flops.

El microprocesador ejecuta instrucciones almacenadas como números binarios en la memoria principal. La ejecución se puede realizar en varias fases:
PreFetch, Pre lectura de la instrucción desde la memoria principal.
Fetch, envio de la instrucción al decodificador (una parte de la CPU).
De codificación de instrucción, es decir determinar que instrucción es y por tanto que se debe hacer.
Lectura de operandos (si los hay).
Ejecución de la microinstrucción.
Escritura de los resultados, primero en el registro acumulador y después en la memoria RAM si fuera necesario.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (en un solo ciclo) de mayor tiempo.

3. Rendimiento
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. De todas maneras, una forma fiable de medir la potencia de un procesador es mediante la obtención de las Instrucciones por ciclo.
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido.
Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché.
La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software.

4. Arquitectura 
El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital ayuda a entender el microprocesador. El hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador se puede diferenciar diversas partes:
Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base.
Memoria cache: es una memoria ultrarrápida que emplea el micro para tener a alcance directo ciertos datos que «predeciblemente» serán utilizados en las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para adquisición de datos. Todos los micros compatibles con PC poseen la llamada cache interna de primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3.
Coprocesador matemático: unidad de coma flotante. Es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte esta considerada como una parte «lógica» junto con los registros, la unidad de control, memoria y bus de datos.
Registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros esta diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y dos registros.
Memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las accede desde allí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso.
Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un «número de puerto» que el procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes especiales.

5. Fabricación
El proceso de fabricación es llevado a cabo en los llamados laboratorios blancos, se los llama así porque el laboratorio debe estar completamente libre de cualquier posible espora de polvo, lo cual podría provocar millones de dólares de pérdidas, pero esto ya lo desarrollare mas adelante. Se estima que una de estas fábricas, pueden llegar a valer algo de 0.2 billones de euros, algo de 200.000.000.000 millones de euros. Por eso mismo son contadas, solo hay una en los EEUU, otra en Alemania, y otra en Japón.

5.1 Procesadores de silicio
El silicio es el material primordial en todo este proceso, actualmente se lo extrae de la arena pero es muy complicado obtener silicio completamente puro, en Barcelona se descubrió una nueva fuente de este valioso elemento y esta fuente son las cascaras de arroz, al parecer esta, tras ser convertida en ceniza, un importante porcentaje de silicio. Al quemar la cáscara de arroz se obtiene un 18% de ceniza, que contiene un 92% de silicio.


Óxido de silicio, la utilidad de este elemento se describirá en el siguiente punto.
Sierra de diamante.
Maquinaria especializada generadora de radiación ultravioleta.
Alambre conductor, generalmente de oro.
Etileno para elaborar las capsulas protectoras.
Trajes estériles para manipular los elementos.
Por último se debe estar en un clean room o ambiente limpio.
De aquí en adelante, comienza el proceso del «dibujado» de los transistores que conformarán a cada microprocesador.
 A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo «bocadillo» que contiene todos los circuitos interconectados del microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las máscaras utilizadas durante la fabricación.
File:Etchedwafer.jpg
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo.
Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos

La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea o simplemente con características desactivadas, tales como núcleos. Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Estas conexiones se realizan utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es provista de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como los que equipan a los computadores.

5.2 Otros materiales
Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se puede omitir la utilización de otros materiales tales como el germanio; tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado con materiales de características especiales como el grafeno o la molibdenita

 6. Empaquetados
.File:80486dx2-large.jpg
Empaquetado de un procesador Intel 80486 en un empaque de cerámica.
Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epóxidos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.

File:XPC7450.jpg

En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un zócalo de CPU o una placa base.<4>
Antiguamente las conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor.

6.1 Disipación de calor
Un disipador es un instrumento que se utiliza para bajar la temperatura de algunos componentes electrónicos.
Su funcionamiento se basa en la segunda ley de la termodinámica, transfiriendo el calor de la parte caliente que se desea disipar al aire. Este proceso se propicia aumentando la superficie de contacto con el aire permitiendo una eliminación más rápida del calor excedente.

7. Conexión con el exterior
Un disipador extrae el calor del componente que refrigera y lo evacua al exterior, normalmente al aire. Para ello es necesaria una conducción de calor a través del mismo, por lo que se suelen fabricar de aluminio por su ligereza, pero también de cobre, mejor conductor de calor.

7.1 Bus del procesador
Un bus no es cosa que una trayectoria común a través de la cual pueden viajar los datos dentro de una computadora: esta trayectoria se emplea para comunicaciones y puede establecerse entre dos ó más elementos de la computadora. Una PC tiene muchas clases de buses, incluyendo los siguientes:
Bus del procesador
- Bus de direcciones
- Bus de memoria
- Bus de E/S
El bus del procesador es la trayectoria de comunicaciones entre la CPU y los chips de soporte inmediatos, que se conoce como conjunto de chips. Este bus se usa, por ejemplo, para transferir datos entre la CPU y el bus principal del sistema, o entre la CPU y el caché de memoria externa.
Ya que la finalidad del bus del procesador es la de obtener información hacia y desde la CPU a la mayor velocidad posible, este bus opera a una frecuencia mucho más rápida que cualquier otro bus en su sistema; aquí no existe ningún cuello de botella. El bus consiste de circuitos eléctricos para datos, direcciones y para fines de control.
El bus del procesador opera a la misma velocidad de reloj a la que lo hace la CPU en forma externa. Esto puede resultar engañoso, ya que la mayoría de las CPUs actuales operan internamente a una velocidad superior a como la hacen en forma externa.

Monitor



El monitor es el principal periférico de salida de una computadora.
Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.
La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.
2. TECNOLOGIAs
2.1 monitores analogicos
3. parametros de una pantalla
Píxel: unidad mínima representable en un monitor. Los monitores pueden presentar píxeles muertos o atascados.
Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. un monitor de 14 pulgadas suele tener un tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En LCD y en CRT de apertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para CAD o en general para diseño, lo ideal sería de 0,25mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.
Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.
Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que se degrade demasiado la imagen. Se mide en grados.
Luminancia: es la medida de luminosidad, medida en Candela.
Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo.
Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el monitor.
Consumo: cantidad de energía consumida por el monitor, se mide en Vatio.
Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de mostrar imágenes estables en la pantalla.
Hz o frecuencia de refresco horizontal: similar al anterior pero en sentido horizontal, para dibujar cada una de las líneas de la pantalla.
Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metálica en contacto con tierra o masa.
Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.
Líneas de tensión: son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.

1. TAMAÑO de la pantalla y proporcion
El tamaño de la pantalla es la distancia en diagonal de un vértice de la pantalla al opuesto, que puede ser distinto del área visible cuando hablamos de CRT , mientras que la proporción o relación de aspecto es una medida de proporción entre el ancho y el alto de la pantalla, así por ejemplo una proporción de 4:3 ( Cuatro tercios ) significa que por cada 4 píxeles de ancho tenemos 3 de alto, una resolución de 800x600 tiene una relación de aspecto 4:3, sin embargo estamos hablando de la proporción del monitor.
Estas dos medidas describen el tamaño de lo que se muestra por la pantalla, históricamente hasta no hace mucho tiempo y al igual que las televisiones los monitores de ordenador tenían un proporción de 4:3. Posteriormente se desarrollaron estándares para pantallas de aspecto panorámico 16:9 (a veces también de 16:10 o 15:9) que hasta entonces solo veíamos en el cine.

3.1.1. medición del tamaño de la pantalla
Las medidas de tamaño de pantalla son diferentes cuando se habla de monitores CRT y monitores LCD .
Para monitores CRT la medida en pulgadas de la pantalla toma como referencia los extremos del monitor teniendo en cuenta el borde, mientras que el área visible es más pequeña.
Para monitores LCD la medida de tamaño de pantalla se hace de punta a punta de la pantalla sin contar los bordes.
Los tamaños comunes de pantalla suelen ser de 15, 17, 19, 21 pulgadas. La correspondencia entre las pulgadas de CRT y LCD en cuanto a zona visible se refiere, suele ser de una escala inferior para los CRT , es decir una pantalla LCD de 17 pulgadas equivale en zona visible a una pantalla de 19 pulgadas del monitor CRT (aproximadamente).

3.2 RESOLUCIÓN MÁXIMA
Es el número máximo de píxeles que pueden ser mostrados en cada dimensión, es representada en filas por columnas. Está relacionada con el tamaño de la pantalla y la proporción.
Los monitores LCD solo tienen una resolución nativa posible, por lo que si se hacen trabajar a una resolución distinta, se escalará a la resolución nativa, lo que suele producir artefactos en la imagen.
Las resoluciones más Usadas son:
Estándar
Nombre
Ancho
Alto
 % de usuarios de Steam
XGA
eXtended Graphics Array
1024
768
15,37%
WXGA
Widescreen eXtended Graphics Array
1280
800
7,35%
SXGA
Super eXtended Graphics Array
1280
1024
21,01%
WSXGA
Widescreen Super eXtended Graphics Array
1440
900
11,12%
WSXGA+
Widescreen Super eXtended Graphics Array Plus
1680
1050
18,48%


3.3 COLORES
Cada píxel de la pantalla tiene interiormente 3 subpíxeles, uno rojo, uno verde y otro azul; dependiendo del brillo de cada uno de los subpíxeles, el píxel adquiere un color u otro de forma semejante a la composición de colores RGB.
La manera de organizar los subpíxeles de un monitor varía entre los dispositivos. Se suelen organizar en líneas verticales, aunque algunos CRT los organizan en puntos formando triángulos. Para mejorar la sensación de movimiento, es mejor organizarlos en diagonal o en triángulos. El conocimiento del tipo de organización de píxeles, puede ser utilizado para mejorar la visualización de imágenes de mapas de bit usando renderizado de subpíxels.
La mayor parte de los monitores tienen una profundidad 8 bits por color (24 bits en total), es decir, pueden representar aproximadamente 16,8 millones de colores distintos.

4. VENTAJAS Y DESVENTAJAS
Monitores LCD
Ventajas:
El grosor es inferior por lo que pueden utilizarse en portátiles.
Cada punto se encarga de dejar o no pasar la luz.
La geometría es siempre perfecta, lo determina el tamaño del píxel.

Desventajas:
Sólo pueden reproducir fielmente la resolución nativa, con el resto, se ve un borde negro, o se ve difuminado por no poder reproducir medios píxeles.
Por sí solas no producen luz, necesitan una fuente externa.
Si no se mira dentro del cono de visibilidad adecuado, desvirtúan los colores.
El ADC y el DAC de un monitor LCD para reproducir colores limita la cantidad de colores representable.
El ADC (Convertidor Analógico a Digital) en la entrada de vídeo analógica (cantidad de colores a representar).
El DAC (Convertidor Digital a Analógico) dentro de cada píxel (cantidad de posibles colores representables).
En los CRT es la tarjeta gráfica la encargada de realizar esto, el monitor no influye en la cantidad de colores representables, salvo en los primeros modelos de monitores que tenían entradas digitales TTL en lugar de entradas analógicas.
4.2 MONITORES CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.

Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y magnéticas.
Alto peso y tamaño.

4.3 DATOSTECNICOS, COMPARATIVOS ENTRE SI

En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los LCD no siempre es la que se le manda.
Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro método de representación.
En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza para la sujeción del tubo, en los LCD es prácticamente lo que ocupa el LCD por sí mismo.
El peso de un LCD se ve incrementado por la peana para darle estabilidad, pero el monitor en sí no pesa prácticamente nada.
Los LCD suelen necesitar de un transformador externo al monitor, en los CRT toda la electrónica va dentro del monitor.
En los LCD el consumo es menor, y la tensión de utilización por parte de la electrónica también.
En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla, esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra "insert coin" en las recreativas, en los LCD los problemas pueden ser de píxeles muertos (siempre encendido o, siempre apagado), aparte de otros daños.
El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada píxel en un CRT y LCD respectivamente, que mitigan este defecto.
Con alta velocidad de refresco y un tiempo grande de persistencia del fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el refresco es bajo, se produce este problema. Sin embargo esto puede causar un efecto de desvanecimiento o visión borrosa, al permanecer aún encendido un punto, en el siguiente refresco de la pantalla.

4.4 EN BREVE
En hardware, un monitor es un periférico de salida que muestra la información de forma gráfica de una computadora.
Los monitores se conectan a la computadora a través de una tarjeta gráfica (o adaptador o tarjeta de video).
Un monitor puede clasificarse, según la tecnología empleada para formar las imágenes en: LCD, CRT, plasma o TFT.
En tanto, según el estándar, un monitor puede clasificarse en: Monitor numérico, MDA, CGA, EGA, analógico, VGA, SVGA, entro otros.
En cuanto a los colores que usan los monitores pueden ser monocromáticos o policromáticos.
Existen algunos conceptos cuantificables relacionados a los monitores y sirven para medir su calidad, estos son: píxel, paso (dot pitch), resolución, tasa de refresco, dimensión del tubo, tamaño de punto, área útil.
En software, un monitor de un programa es toda aquella herramienta que viene con un programa que sirve para controlar alguna situación. Por ejemplo el monitor de un antivirus, encargado de monitorear continuamente la computadora para verificar que no se ejecute ningún virus.

5. PRINCIPALES FABRIANTES
ViewSonic