miércoles, 7 de noviembre de 2012



Mantenimiento preventivo
En las operaciones de mantenimiento, el mantenimiento preventivo es el destinado a la conservación de equipos o instalaciones mediante realización de revisiones y reparaciones que garanticen su buen funcionamiento y fiabilidad, el mantenimiento preventivo se realiza en equipos en condiciones de funcionamiento, por oposición al mantenimiento correctivo que repara o pone en condiciones de funcionamiento aquellos que dejaron de funcionar o están dañados.
El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.
Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.
Tipos de mantenimiento preventivo
El mantenimiento preventivo se puede realizar según distintos criterios:
El mantenimiento programado, donde las revisiones se realizan por tiempo, kilometraje, horas de funcionamiento, etc. Así si ponemos por ejemplo un automóvil, y determinamos un mantenimiento programado, la presión de las ruedas se revisa cada quince días, el aceite del motor se cambia cada 10.000km, y la cadena de distribución cada 50.000km.
El mantenimiento predictivo, trata de determinar el momento en el cual se deben efectuar las reparaciones mediante un seguimiento que determine el periodo máximo de utilización antes de ser reparado, en el ejemplo del automóvil si sabemos que el dibujo de las ruedas debe tener 2mm como mínimo, y las ruedas de nuestro automóvil tiene 4mm y se desgasta 0,5mm cada 8.000km podemos predecir el momento en el cual tendremos que cambiar las ruedas.
El mantenimiento de oportunidad es el que se realiza aprovechando los periodos de no utilización, evitando de este modo parar los equipos o las instalaciones cuando están en uso. Volviendo al ejemplo de nuestro automóvil, si utilizamos el auto solo unos días a la semana y pretendemos hacer un viaje largo con él, es lógico realizar las revisiones y posibles reparaciones en los días en los que no necesitamos el coche, antes de iniciar el viaje, garantizando de este modo su buen funcionamiento durante el mismo.


Mantenimiento correctivo
Dentro de las operaciones de mantenimiento, se denomina mantenimiento correctivo, a aquel que corrige los defectos observados en los equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste en localizar averías o defectos y corregirlos o repararlos.
Históricamente es el primer concepto de mantenimiento que se planteo, y el único hasta la primera guerra mundial, dada la simplicidad de las maquinas, equipamientos e instalaciones de la época, mantenimiento era sinónimo de reparar aquello que estaba averiado. Posteriormente se planteo que el mantenimiento no solo tenia que corregir las averías, sino que tenia que adelantarse a ellas garantizando el correcto funcionamiento de las maquinas, evitando el retraso producido por las averías y sus consecuencia, dando lugar a lo que se denomino: mantenimiento preventivo que es el que se hace, preventivamente en equipo en funcionamiento, en evicción de posteriores averías, garantizando un periodo de uso fiable.


Memoria de acceso aleatorio

La memoria de acceso aleatoriose utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.
Tecnologías de memoria
La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.
Tipos de DIMMs según su cantidad de Contactos o Pines:
§  72-pin SO-DIMM (not the same as a 72-pin SIMM), usadospor FPM DRAM y EDO DRAM
§  100-pin DIMM, usados por printer SDRAM
§  144-pin SO-DIMM, usados por SDR SDRAM
§  168-pin DIMM, usadospor SDR SDRAM (less frequently for FPM/EDO DRAM in workstations/servers)
§  172-pin MicroDIMM, usados por DDR SDRAM
§  184-pin DIMM, usados por DDR SDRAM
§  200-pin SO-DIMM, usados por DDR SDRAM y DDR2 SDRAM
§  204-pin SO-DIMM, usados por DDR3 SDRAM
§  240-pin DIMM, usados por DDR2 SDRAM, DDR3 SDRAM y FB-DIMM DRAM
§  244-pin MiniDIMM, usados por DDR2 SDRAM

Disco duro
En informática, un disco duro o disco rígido  es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC yservidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando unainterfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidoresestaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 500 GB.
Las unidades de estado sólido tienen el mismo uso que los discos duros y emplean las mismas interfaces, pero no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.
Características de un disco duro
Las características que se deben tener en cuenta en un disco duro son:
§  Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
§  Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
§  Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
§  Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
§  Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
§  Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

Tipos de conexión

Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA,IDE, SCSI o SAS:
§  IDE: Integrated Drive Electronics ("Dispositivo electrónico integrado") o ATA (AdvancedTechnologyAttachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (AdvancedTechnologyAttachmentPacket Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.
§  SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.
§  SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
§  SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATApueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.
Definición de Cable IDE

El cable IDE es un tipo de cable, generalmente gris, que se utiliza para conectar un conector IDE de la placa madre hacia un dispositivo de almacenamiento (especialmente discos duros y unidades de discos ópticos).  Generalmente cada cable IDE permite conectar dos dispositivos, el problema es que sólo un dispositivo puede estar transfiriendo información a la vez.  



Definición de SATA
      Sistema controlador de discos sustituye al P-ATA (conocido simplemente como IDE/ATA o ATA Paralelo). S-ATA proporciona mayor velocidad, además de mejorar el rendimiento si hay varios discos rígidos conectados. Además permite conectar discos cuando la computadora está encendida.  Con respecto al ATA Paralelo, una ventaja es que sus cables son más delgados y pueden medir hasta un metro de largo.






Microprocesador
El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento(CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas; desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicassimples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, unaunidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeraciónque consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre oaluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el ventilador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de video.



TIPOS DE MICROPROCESADORES

1971: MICROPROCESADOR 4004
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.
1972: MICROPROCESADOR i8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativa de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.



1974: MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales. 
1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta. 




1991: AMD AMx86
Procesadores lanzados por 
AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586







1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.


1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 
32 bits
, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.




1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. 
AMDsacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fue retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.



1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 
16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar vídeo a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano




1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.


1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.



1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de 
coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática. 






2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la 
arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE
.

2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de 
caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T
 por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.


2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones 
AMD64
, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.
2006: INTEL CORE DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.




2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología 
HyperTransport y unidades de coma flotante
 de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.


2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel
x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading
 fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.



2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.



2010: INTEL CORE SANDY BRIDGE
Los procesadores Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Gxxx; próximamente en el mercado.



2011: AMD FUSIÓN
Zambezi, Llano, Ontaro y Bulldozer; aún no han salido al mercado
























No hay comentarios:

Publicar un comentario