Mantenimiento
preventivo
En las operaciones
de mantenimiento, el mantenimiento
preventivo es el destinado a la conservación de equipos o
instalaciones mediante realización de revisiones y reparaciones que garanticen
su buen funcionamiento y fiabilidad, el mantenimiento preventivo se realiza en
equipos en condiciones de funcionamiento, por oposición al mantenimiento
correctivo que repara o pone en condiciones de
funcionamiento aquellos que dejaron de funcionar o están dañados.
El primer objetivo del
mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo,
logrando prevenir las incidencias antes de que estas ocurran. Las tareas de
mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas,
cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar
los fallos en el equipo antes de que estos ocurran.
Algunos de los métodos
más habituales para determinar que procesos de mantenimiento preventivo deben
llevarse a cabo son las recomendaciones de los fabricantes, la legislación
vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre
activos similares.
Tipos de
mantenimiento preventivo
El mantenimiento
preventivo se puede realizar según distintos criterios:
El mantenimiento
programado, donde las revisiones se realizan por tiempo, kilometraje, horas
de funcionamiento, etc. Así si ponemos por ejemplo un automóvil, y determinamos
un mantenimiento programado, la presión de las ruedas se revisa cada quince
días, el aceite del motor se cambia cada 10.000km, y la cadena de distribución
cada 50.000km.
El mantenimiento
predictivo, trata de determinar el momento en el cual se deben efectuar las
reparaciones mediante un seguimiento que determine el periodo máximo de
utilización antes de ser reparado, en el ejemplo del automóvil si sabemos que
el dibujo de las ruedas debe tener 2mm como mínimo, y las ruedas de nuestro
automóvil tiene 4mm y se desgasta 0,5mm cada 8.000km podemos predecir el
momento en el cual tendremos que cambiar las ruedas.
El mantenimiento
de oportunidad es el que se realiza aprovechando los periodos de no
utilización, evitando de este modo parar los equipos o las instalaciones cuando
están en uso. Volviendo al ejemplo de nuestro automóvil, si utilizamos el auto
solo unos días a la semana y pretendemos hacer un viaje largo con él, es lógico
realizar las revisiones y posibles reparaciones en los días en los que no
necesitamos el coche, antes de iniciar el viaje, garantizando de este modo su
buen funcionamiento durante el mismo.
Mantenimiento
correctivo
Dentro de las
operaciones de mantenimiento, se denomina mantenimiento
correctivo, a aquel que corrige los defectos observados en los
equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste
en localizar averías o defectos y corregirlos o repararlos.
Históricamente es el
primer concepto de mantenimiento que se planteo, y el único hasta la primera
guerra mundial, dada la simplicidad de las maquinas, equipamientos e
instalaciones de la época, mantenimiento era sinónimo de reparar aquello que
estaba averiado. Posteriormente se planteo que el mantenimiento no solo tenia
que corregir las averías, sino que tenia que adelantarse a ellas garantizando
el correcto funcionamiento de las maquinas, evitando el retraso producido por
las averías y sus consecuencia, dando lugar a lo que se denomino: mantenimiento
preventivo que es el que se hace, preventivamente en equipo
en funcionamiento, en evicción de posteriores averías, garantizando un periodo
de uso fiable.
Memoria
de acceso aleatorio
La memoria de acceso aleatoriose
utiliza como memoria de trabajo para el sistema operativo, los programas y la
mayoría del software. Es allí donde se cargan todas las instrucciones que
ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una
posición de memoria con un tiempo de espera igual para cualquier posición, no
siendo necesario seguir un orden para acceder a la información de la manera más
rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén
conectados de manera correcta. En el caso que no existan o no se detecten los
módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican
la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria
RAM indicando fallos mayores en la misma.
Tecnologías
de memoria
La tecnología de memoria actual
usa una señal de sincronización para realizar las funciones de
lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las
antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la
industria se decantó por las tecnologías síncronas, ya que permiten construir
integrados que funcionen a una frecuencia superior a 66 MHz.
Tipos de DIMMs según su cantidad
de Contactos o Pines:
§ 100-pin
DIMM, usados por printer SDRAM
§ 144-pin
SO-DIMM, usados por SDR SDRAM
§ 168-pin DIMM, usadospor SDR SDRAM (less frequently for
FPM/EDO DRAM in workstations/servers)
§ 184-pin
DIMM, usados por DDR SDRAM
§ 200-pin
SO-DIMM, usados por DDR SDRAM y DDR2 SDRAM
§ 204-pin
SO-DIMM, usados por DDR3 SDRAM
§ 244-pin
MiniDIMM, usados por DDR2 SDRAM
Disco
duro
En informática, un disco duro o disco
rígido es
un dispositivo de almacenamiento de datos no volátil que
emplea un sistema de grabación
magnética para almacenar datos digitales.
Se compone de uno o más platos o
discos rígidos, unidos por un mismo eje que
gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y
en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota
sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue
inventado por IBM en 1956. A lo
largo de los años, los discos duros han disminuido su precio al mismo tiempo
que han multiplicado su capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición
en los años 60.1 Los discos duros han mantenido su
posición dominante gracias a los constantes incrementos en la densidad de
grabación, que se ha mantenido a la par de las necesidades de almacenamiento
secundario.1
Los tamaños también han
variado mucho, desde los primeros discos IBM hasta los formatos
estandarizados actualmente: 3,5" los modelos para PC yservidores, 2,5" los modelos
para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando unainterfaz estandarizado. Los
más comunes hasta los años 2000 han sido IDE (también llamado
ATA o PATA), SCSI (generalmente
usado en servidoresy estaciones de trabajo). Desde el 2000 en
adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado
exclusivamente en servidores).
Para poder utilizar un
disco duro, un sistema operativo debe aplicar
un formato de bajo nivel que defina una o
más particiones. La operación de
formateo requiere el uso de una fracción del espacio disponible en el disco,
que dependerá del formato empleado. Además, los fabricantes
de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad
de los mismos usando prefijos
SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en
lugar de los prefijos binarios clásicos de
la IEEE, que emplean múltiplos
de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en
algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y
por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en
algunos sistemas operativos sea representado como 465 GiB (Según la IEC
Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 500 GB.
Las unidades de
estado sólido tienen el mismo uso que los discos
duros y emplean las mismas interfaces, pero no están formadas por discos
mecánicos, sino por memorias de circuitos integrados para almacenar la
información. El uso de esta clase de dispositivos anteriormente se limitaba a
las supercomputadoras, por su elevado precio,
aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.
Características
de un disco duro
Las características que se deben
tener en cuenta en un disco duro son:
§ Tiempo
medio de acceso: Tiempo medio que tarda la aguja en situarse
en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia
media (situarse en el
sector).
§ Tiempo
medio de búsqueda: Tiempo medio que tarda la aguja en situarse
en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde
la pista más periférica hasta la más central del disco.
§ Tiempo
de lectura/escritura: Tiempo medio que tarda el disco
en leer o escribir nueva información: Depende de la cantidad de información que
se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el
tiempo por vuelta y la cantidad de sectores por pista.
§ Latencia
media: Tiempo medio que tarda la aguja en situarse en el sector
deseado; es la mitad del tiempo empleado en una rotación completa del disco.
§ Velocidad
de rotación: Revoluciones por minuto de los platos. A mayor velocidad de
rotación, menor latencia media.
§ Tasa
de transferencia: Velocidad a la que puede transferir la
información a la computadora una vez
la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de
pico.
Tipos de
conexión
Si hablamos de disco duro podemos
citar los distintos tipos de conexión que poseen los mismos con la placa base,
es decir pueden ser SATA,IDE, SCSI o SAS:
§ IDE: Integrated
Drive Electronics ("Dispositivo
electrónico integrado") o ATA (AdvancedTechnologyAttachment), controla los
dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI
(AdvancedTechnologyAttachmentPacket Interface) Hasta aproximadamente el 2004,
el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y
alargados.
§ SCSI:
Son interfaces preparadas para discos duros de gran capacidad de almacenamiento
y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar
(Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI).
Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de
transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en
los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los
discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7
discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita
(daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente
con relación al microprocesador, lo que posibilita una mayor velocidad de
transferencia.
§ SATA (Serial
ATA): El más novedoso de los estándares de
conexión, utiliza un bus serie para la transmisión de datos. Notablemente más
rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de
transferencia de hasta 150 MB/s (hoy
día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la
actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a
hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los
IDE, además de permitir conexión en caliente.
§ SAS (Serial Attached SCSI):
Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo,
aunque sigue utilizando comandos SCSI para
interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la
conexión y desconexión en caliente. Una de las principales características es
que aumenta la velocidad de transferencia al aumentar el número de dispositivos
conectados, es decir, puede gestionar una tasa de transferencia constante para
cada dispositivo conectado, además de terminar con la limitación de 16
dispositivos existente en SCSI,
es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite
utilizar estos discos duros, para aplicaciones con menos necesidad de
velocidad, ahorrando costes. Por lo tanto, las unidades SATApueden ser utilizadas por controladoras
SAS pero no a la inversa, una controladora SATA no
reconoce discos SAS.
Definición de Cable IDE
El cable IDE es un tipo de cable, generalmente gris, que se utiliza para
conectar un conector IDE de la placa madre hacia un dispositivo de
almacenamiento (especialmente discos duros y unidades de discos ópticos). Generalmente cada cable IDE permite conectar
dos dispositivos, el problema es que sólo un dispositivo puede estar
transfiriendo información a la vez.
Definición de SATA
Sistema controlador de discos sustituye al P-ATA
(conocido simplemente como IDE/ATA o ATA Paralelo). S-ATA proporciona mayor
velocidad, además de mejorar el rendimiento si hay varios discos rígidos
conectados. Además permite conectar discos cuando la computadora está
encendida. Con respecto al ATA Paralelo,
una ventaja es que sus cables son más delgados y pueden medir hasta un metro de
largo.
Microprocesador
El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de
ilustración, se le suele llamar por analogía el «cerebro» de un computador.
Es un circuito integrado conformado por millones de componentes
electrónicos. Constituye la unidad central de procesamiento(CPU)
de un PC catalogado
como microcomputador.
Es
el encargado de ejecutar los programas; desde el sistema
operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando
operaciones aritméticas y lógicassimples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y
accesos a memoria.
Esta
unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de
control, unaunidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida
antiguamente como «co-procesador matemático»).
El
microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su
correcto y estable funcionamiento, se le incorpora un sistema de refrigeraciónque consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre oaluminio, y de uno o más ventiladores que eliminan el exceso del calor
absorbido por el disipador. Entre el ventilador y la cápsula del
microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del
calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque
estas técnicas se utilizan casi exclusivamente para aplicaciones especiales,
tales como en las prácticas de overclocking.
La
medición del rendimiento de un microprocesador es una tarea compleja, dado que
existen diferentes tipos de "cargas" que pueden ser procesadas con
diferente efectividad por procesadores de la misma gama. Una métrica del
rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de
la misma familia, siendo este un indicador muy limitado dada la gran variedad
de diseños con los cuales se comercializan los procesadores de una misma marca
y referencia. Un sistema informático de alto rendimiento puede estar equipado
con varios microprocesadores trabajando en paralelo, y un microprocesador
puede, a su vez, estar constituido por varios núcleos
físicos o lógicos. Un núcleo físico se refiere a una porción interna del
microprocesador cuasi-independiente que realiza todas las actividades de una
CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de
repartir de manera más eficiente el procesamiento. Existe una tendencia de
integrar el mayor número de elementos dentro del propio procesador, aumentando
así la eficiencia energética y la miniaturización. Entre los elementos
integrados están las unidades de punto flotante, controladores de la memoria RAM,
controladores de buses y procesadores dedicados de video.
TIPOS DE MICROPROCESADORES
1971: MICROPROCESADOR
4004
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.
1972: MICROPROCESADOR i8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal
Corporation para usarlo en su terminal programable Datapoint 2200, pero debido
a que Intel terminó el proyecto tarde y a que no cumplía con la expectativa de
Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200.
Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008
pudiera ser vendido a otros clientes.
1974:
MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.
1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta.
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta.
1991: AMD AMx86
Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586
Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586

El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.
1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.

1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. AMDsacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fue retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.

1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar vídeo a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano
1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.

1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.

1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.

2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.

El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.

2006: INTEL CORE DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intelx86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intelx86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

2010: INTEL CORE SANDY BRIDGE
Los procesadores Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Gxxx; próximamente en el mercado.
Los procesadores Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Gxxx; próximamente en el mercado.
No hay comentarios:
Publicar un comentario