Mantenimiento
preventivo
En las operaciones
de mantenimiento, el mantenimiento
preventivo es el destinado a la conservación de equipos o
instalaciones mediante realización de revisiones y reparaciones que garanticen
su buen funcionamiento y fiabilidad, el mantenimiento preventivo se realiza en
equipos en condiciones de funcionamiento, por oposición al mantenimiento
correctivo que repara o pone en condiciones de
funcionamiento aquellos que dejaron de funcionar o están dañados.
El primer objetivo del
mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo,
logrando prevenir las incidencias antes de que estas ocurran. Las tareas de
mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas,
cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar
los fallos en el equipo antes de que estos ocurran.
Algunos de los métodos
más habituales para determinar que procesos de mantenimiento preventivo deben
llevarse a cabo son las recomendaciones de los fabricantes, la legislación
vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre
activos similares.
Tipos de
mantenimiento preventivo
El mantenimiento
preventivo se puede realizar según distintos criterios:
El mantenimiento
programado, donde las revisiones se realizan por tiempo, kilometraje, horas
de funcionamiento, etc. Así si ponemos por ejemplo un automóvil, y determinamos
un mantenimiento programado, la presión de las ruedas se revisa cada quince
días, el aceite del motor se cambia cada 10.000km, y la cadena de distribución
cada 50.000km.
El mantenimiento
predictivo, trata de determinar el momento en el cual se deben efectuar las
reparaciones mediante un seguimiento que determine el periodo máximo de
utilización antes de ser reparado, en el ejemplo del automóvil si sabemos que
el dibujo de las ruedas debe tener 2mm como mínimo, y las ruedas de nuestro
automóvil tiene 4mm y se desgasta 0,5mm cada 8.000km podemos predecir el
momento en el cual tendremos que cambiar las ruedas.
El mantenimiento
de oportunidad es el que se realiza aprovechando los periodos de no
utilización, evitando de este modo parar los equipos o las instalaciones cuando
están en uso. Volviendo al ejemplo de nuestro automóvil, si utilizamos el auto
solo unos días a la semana y pretendemos hacer un viaje largo con él, es lógico
realizar las revisiones y posibles reparaciones en los días en los que no
necesitamos el coche, antes de iniciar el viaje, garantizando de este modo su
buen funcionamiento durante el mismo.
Mantenimiento
correctivo
Dentro de las
operaciones de mantenimiento, se denomina mantenimiento
correctivo, a aquel que corrige los defectos observados en los
equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste
en localizar averías o defectos y corregirlos o repararlos.
Históricamente es el
primer concepto de mantenimiento que se planteo, y el único hasta la primera
guerra mundial, dada la simplicidad de las maquinas, equipamientos e
instalaciones de la época, mantenimiento era sinónimo de reparar aquello que
estaba averiado. Posteriormente se planteo que el mantenimiento no solo tenia
que corregir las averías, sino que tenia que adelantarse a ellas garantizando
el correcto funcionamiento de las maquinas, evitando el retraso producido por
las averías y sus consecuencia, dando lugar a lo que se denomino: mantenimiento
preventivo que es el que se hace, preventivamente en equipo
en funcionamiento, en evicción de posteriores averías, garantizando un periodo
de uso fiable.
Memoria
de acceso aleatorio
La memoria de acceso aleatoriose
utiliza como memoria de trabajo para el sistema operativo, los programas y la
mayoría del software. Es allí donde se cargan todas las instrucciones que
ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una
posición de memoria con un tiempo de espera igual para cualquier posición, no
siendo necesario seguir un orden para acceder a la información de la manera más
rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén
conectados de manera correcta. En el caso que no existan o no se detecten los
módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican
la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria
RAM indicando fallos mayores en la misma.
Tecnologías
de memoria
La tecnología de memoria actual
usa una señal de sincronización para realizar las funciones de
lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las
antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la
industria se decantó por las tecnologías síncronas, ya que permiten construir
integrados que funcionen a una frecuencia superior a 66 MHz.
Tipos de DIMMs según su cantidad
de Contactos o Pines:
§ 72-pin SO-DIMM (not the same as a 72-pin SIMM), usadospor FPM DRAM y EDO DRAM
§ 100-pin
DIMM, usados por printer SDRAM
§ 144-pin
SO-DIMM, usados por SDR SDRAM
§ 168-pin DIMM, usadospor SDR SDRAM (less frequently for
FPM/EDO DRAM in workstations/servers)
§ 184-pin
DIMM, usados por DDR SDRAM
§ 200-pin
SO-DIMM, usados por DDR SDRAM y DDR2 SDRAM
§ 204-pin
SO-DIMM, usados por DDR3 SDRAM
§ 240-pin
DIMM, usados por DDR2 SDRAM, DDR3 SDRAM y FB-DIMM DRAM
§ 244-pin
MiniDIMM, usados por DDR2 SDRAM
Disco
duro
El primer disco duro fue
inventado por IBM en 1956. A lo
largo de los años, los discos duros han disminuido su precio al mismo tiempo
que han multiplicado su capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición
en los años 60.1 Los discos duros han mantenido su
posición dominante gracias a los constantes incrementos en la densidad de
grabación, que se ha mantenido a la par de las necesidades de almacenamiento
secundario.1
Para poder utilizar un
disco duro, un sistema operativo debe aplicar
un formato de bajo nivel que defina una o
más particiones. La operación de
formateo requiere el uso de una fracción del espacio disponible en el disco,
que dependerá del formato empleado. Además, los fabricantes
de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad
de los mismos usando prefijos
SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en
lugar de los prefijos binarios clásicos de
la IEEE, que emplean múltiplos
de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en
algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y
por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en
algunos sistemas operativos sea representado como 465 GiB (Según la IEC
Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 500 GB.
Las unidades de
estado sólido tienen el mismo uso que los discos
duros y emplean las mismas interfaces, pero no están formadas por discos
mecánicos, sino por memorias de circuitos integrados para almacenar la
información. El uso de esta clase de dispositivos anteriormente se limitaba a
las supercomputadoras, por su elevado precio,
aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.
Características
de un disco duro
Las características que se deben
tener en cuenta en un disco duro son:
§ Tiempo
medio de acceso: Tiempo medio que tarda la aguja en situarse
en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia
media (situarse en el
sector).
§ Tiempo
medio de búsqueda: Tiempo medio que tarda la aguja en situarse
en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde
la pista más periférica hasta la más central del disco.
§ Tiempo
de lectura/escritura: Tiempo medio que tarda el disco
en leer o escribir nueva información: Depende de la cantidad de información que
se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el
tiempo por vuelta y la cantidad de sectores por pista.
§ Latencia
media: Tiempo medio que tarda la aguja en situarse en el sector
deseado; es la mitad del tiempo empleado en una rotación completa del disco.
§ Velocidad
de rotación: Revoluciones por minuto de los platos. A mayor velocidad de
rotación, menor latencia media.
§ Tasa
de transferencia: Velocidad a la que puede transferir la
información a la computadora una vez
la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de
pico.
Tipos de
conexión
Si hablamos de disco duro podemos
citar los distintos tipos de conexión que poseen los mismos con la placa base,
es decir pueden ser SATA,IDE, SCSI o SAS:
§ IDE: Integrated
Drive Electronics ("Dispositivo
electrónico integrado") o ATA (AdvancedTechnologyAttachment), controla los
dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI
(AdvancedTechnologyAttachmentPacket Interface) Hasta aproximadamente el 2004,
el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y
alargados.
§ SCSI:
Son interfaces preparadas para discos duros de gran capacidad de almacenamiento
y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar
(Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI).
Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de
transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en
los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los
discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7
discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita
(daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente
con relación al microprocesador, lo que posibilita una mayor velocidad de
transferencia.
§ SATA (Serial
ATA): El más novedoso de los estándares de
conexión, utiliza un bus serie para la transmisión de datos. Notablemente más
rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de
transferencia de hasta 150 MB/s (hoy
día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la
actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a
hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los
IDE, además de permitir conexión en caliente.
§ SAS (Serial Attached SCSI):
Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo,
aunque sigue utilizando comandos SCSI para
interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la
conexión y desconexión en caliente. Una de las principales características es
que aumenta la velocidad de transferencia al aumentar el número de dispositivos
conectados, es decir, puede gestionar una tasa de transferencia constante para
cada dispositivo conectado, además de terminar con la limitación de 16
dispositivos existente en SCSI,
es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite
utilizar estos discos duros, para aplicaciones con menos necesidad de
velocidad, ahorrando costes. Por lo tanto, las unidades SATApueden ser utilizadas por controladoras
SAS pero no a la inversa, una controladora SATA no
reconoce discos SAS.
Definición de Cable IDE
El cable IDE es un tipo de cable, generalmente gris, que se utiliza para
conectar un conector IDE de la placa madre hacia un dispositivo de
almacenamiento (especialmente discos duros y unidades de discos ópticos). Generalmente cada cable IDE permite conectar
dos dispositivos, el problema es que sólo un dispositivo puede estar
transfiriendo información a la vez.
Definición de SATA
Sistema controlador de discos sustituye al P-ATA
(conocido simplemente como IDE/ATA o ATA Paralelo). S-ATA proporciona mayor
velocidad, además de mejorar el rendimiento si hay varios discos rígidos
conectados. Además permite conectar discos cuando la computadora está
encendida. Con respecto al ATA Paralelo,
una ventaja es que sus cables son más delgados y pueden medir hasta un metro de
largo.
Microprocesador
La
medición del rendimiento de un microprocesador es una tarea compleja, dado que
existen diferentes tipos de "cargas" que pueden ser procesadas con
diferente efectividad por procesadores de la misma gama. Una métrica del
rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de
la misma familia, siendo este un indicador muy limitado dada la gran variedad
de diseños con los cuales se comercializan los procesadores de una misma marca
y referencia. Un sistema informático de alto rendimiento puede estar equipado
con varios microprocesadores trabajando en paralelo, y un microprocesador
puede, a su vez, estar constituido por varios núcleos
físicos o lógicos. Un núcleo físico se refiere a una porción interna del
microprocesador cuasi-independiente que realiza todas las actividades de una
CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de
repartir de manera más eficiente el procesamiento. Existe una tendencia de
integrar el mayor número de elementos dentro del propio procesador, aumentando
así la eficiencia energética y la miniaturización. Entre los elementos
integrados están las unidades de punto flotante, controladores de la memoria RAM,
controladores de buses y procesadores dedicados de video.

TIPOS DE MICROPROCESADORES
1971: MICROPROCESADOR
4004
El 4004 fue el primer microprocesador de Intel. Este
descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para
integrar inteligencia en objetos inanimados así como la computadora personal.
1972: MICROPROCESADOR i8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal
Corporation para usarlo en su terminal programable Datapoint 2200, pero debido
a que Intel terminó el proyecto tarde y a que no cumplía con la expectativa de
Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200.
Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008
pudiera ser vendido a otros clientes.
1974:
MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en
base a un destino de la Nave Espacial "Starship" del programa de
televisión Viaje a las Estrellas, y el IMSAI 8080,
formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las
computadoras podían comprar un equipo Altair por un precio (en aquel momento)
de $395. En un periodo de pocos meses, vendió decenas de miles de estas
computadoras personales.
1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de
IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo
producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la
lista de las 500 mejores compañías de la prestigiosa revista Fortune,
y la revista nombró la compañía como uno de Los triunfos comerciales de los
sesenta.
1991: AMD AMx86
Procesadores lanzados por AMD 100% compatible con los
códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar
incluso la frecuencia de reloj de los procesadores de Intel a precios
significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y
Am586

1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos
operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno,
uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un
bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el
procesador seguía manteniendo compatibilidad de 32 bits para las operaciones
internas y los registros también eran de 32 bits). Las versiones que incluían
instrucciones MMX no únicamente brindaban al usuario un mejor manejo de
aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino
que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200
MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se
mencionó en las historietas y en charlas de la televisión a diario, en realidad
se volvió una palabra muy popular poco después de su introducción.
1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña
con una arquitectura de 32 bits, su uso en servidores,
los programas y aplicaciones para estaciones de trabajo (redes) impulsan
rápidamente su integración en las computadoras. El rendimiento del código de 32
bits era excelente, pero el Pentium Pro a menudo iba más despacio que un
Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada
procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.

1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a
Intel. AMDsacó al
mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura
RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que
a la del Pentium. El K5 es internamente un procesador RISC con
una Unidad x86- decodificadora que transforma todos los comandos x86 de la
aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs
x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía
poca experiencia en el desarrollo de microprocesadores y los diferentes hitos
de producción marcados se fueron superando sin éxito y fue retrasado 1 año de
su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores
a la competencia y por tanto, los fabricantes de PC dieron por hecho que era
peor.

1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los
cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en
la ejecución de código de 16 bits, añadir
el conjunto de instrucciones MMX y
eliminar la memoria caché de segundo nivel del núcleo del procesador,
colocándola en una tarjeta de circuito impreso junto
a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden
capturar, pueden revisar y pueden compartir fotografías digitales con amigos y
familia vía Internet; revisar y agregar texto, música y otros; con una línea
telefónica, el enviar vídeo a través de las líneas normales del teléfono
mediante el Internet se convierte en algo cotidiano

1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de
desempeño en computadoras de medio-rango, servidores más potentes y estaciones
de trabajo (workstations). Consistente con la estrategia de Intel para diseñar
productos de procesadores con el objetivo de llenar segmentos de los mercados
específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas
diseñadas para las estaciones de trabajo (workstations) y servidores que
utilizan aplicaciones comerciales exigentes como servicios de Internet,
almacenaje de datos corporativo, creaciones digitales y otros. Pueden
configurarse sistemas basados en el procesador para integrar de cuatro o ocho
procesadores y más allá de este número.

1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los
segmentos del mercado específicos, el procesador Intel Celeron es el nombre que
lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder,
mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium,
de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del
mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo
coste, y entregó un desempeño destacado para usos como juegos y el software
educativo.

1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un
rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora
son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le
aumentó la memoria caché de
primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones).
Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el
procesador x86 más
potente del momento
El procesador Athlon con núcleo Thunderbird apareció como la evolución del
Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura
x86 y usa el bus EV6. El proceso de fabricación usado para todos estos
microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD
como la segunda mayor compañía de fabricación de microprocesadores, ya que
gracias a su excelente rendimiento (superando siempre al Pentium III y a los
primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la
hicieron muy popular tanto entre los entendidos como en los iniciados en la
informática.

2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador
con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras
considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada
ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora
en las instrucciones SSE.

2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4
denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de
fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores
es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los
Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading
mejorado, instrucciones SSE3, manejo de instrucciones
AMD64, de 64 bits creadas por AMD, pero
denominadas EM64T por Intel, sin embargo
por graves problemas de temperatura y consumo, resultaron un fracaso frente a
los Athlon 64.

2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa
el conjunto de instrucciones AMD64, que fueron introducidas con
el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el
propio circuito integrado del microprocesador y otras mejoras de arquitectura
que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando
a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon
64 también presenta una tecnología de reducción de la velocidad del procesador
llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que
requieren poco uso del procesador, la velocidad del mismo y su tensión se
reducen.

2006: INTEL CORE DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo
Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado
en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a
velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de
velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2
La microarquitectura Core provee etapas de decodificación, unidades de
ejecución, caché y buses más eficientes, reduciendo el consumo de energía de
CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de
Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad
de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas
de disipación de energía del CPU. Esta gama de procesadores fueron fabricados
de 65 a 45 nanómetros.

2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera
generación de procesadores de tres y cuatro núcleos basados en la
microarquitectura K10. Como característica común todos los Phenom tienen
tecnología de 65 nanómetros lograda a través de tecnología de fabricación
Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando
mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los
procesadores Phenom están diseñados para facilitar el uso inteligente de
energía y recursos del sistema, listos para la virtualización, generando un
óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como
controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para
incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La
arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo
acceso al controlador integrado de memoria, logrando un ancho de banda de 16
Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología
HyperTransport, de manera que las escalas de rendimiento mejoren con el número
de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y
así no depender tanto de la propia latencia de la RAM), además de
compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir
un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a
igualar el rendimiento de la serie Core 2 Duo.
2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro núcleos de la
arquitectura Intelx86-64. Los Core i7 son los primeros procesadores que usan la
microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB
es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido
a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e
implementando puertos PCI Express directamente. Memoria de tres canales (ancho
de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3.
Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM
en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres,
no dos. El Hyperthreading fue reimplementado
creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y
posee 731 millones de transistores su versión más potente. Se volvió a usar
frecuencias altas, aunque a contrapartida los consumos se dispararon.
2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs
multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original
y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm,
es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó
de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

2010: INTEL CORE SANDY BRIDGE
Los procesadores Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y
Gxxx; próximamente en el mercado.
2011: AMD FUSIÓN
Zambezi, Llano, Ontaro y Bulldozer; aún no han salido al mercado