miércoles, 28 de noviembre de 2012

Driver/Controladores

Driver/Controladores

Un Driver, o controlador, es un programa que controla un dispositivo. Cada dispositivo, ya sea una impresora, un teclado, etc., debe tener un programa controlador.
Muchos controladores, como el controlador del teclado, vienen con el sistema operativo. Para otros dispositivos, puedes tener que instalar el nuevo controlador cuando conectas el dispositivo al ordenador. En Windows, los controladores normalmente tienen la extensión .drv.
Un controlador actúa como un traductor entre el dispositivo y los programas que utilizan el dispositivo. Cada dispositivo tiene su propio sistema de coman
dos especializados que solamente conoce su controlador, sin embargo, la mayoría de los programas tienen acceso a los dispositivos usando comandos genéricos. El controlador, por lo tanto, acepta comandos genéricos de un programa y después los traduce a los comandos especializados para el dispositivo.
Dispositivo
un dispositivo es un aparato o mecanismo que desarrolla determinadas acciones. Su nombre está                            

 vinculado a que  dicho artificio está dispuesto para cumplir con su objetivo. Por ejemplo: “Me regalaron

 una cafetera espresso, pero aún no entiendo cómo funciona el dispositivo”“Un especialista me 

recomendó instalar un dispositivo que regula la intensidad de la luz”“Esta estufa tiene un dispositivo 

que permite programar el horario de encendido y apagado”.

La noción de dispositivo es muy popular en la computación y la informática, ya que dicho término se utiliza para nombrar a los periféricos y otros sistemas vinculados al funcionamiento de las computadoras.


Equipo Administraciòn 

SISTEMAS ADMINISTRATIVOS
En la sección anterior hemos considerado distinta definiciones del vocablo sistema
en su sentido amplio y en la presente analizaremos en forma concreta la
aplicación de ese concepto en las actividades administrativas. Nuestro propósito
será demostrar a través de sucesivas elaboraciones cómo las organizaciones
modernas deben actuar bajo la forma de sistema para lograr el máximo de
eficiencia. Comentaremos por lo tanto, algunas definiciones especializadas.
Definimos a los sistemas administrativos como la red de procedimientos
relacionados de acuerdo a un esquema integrado tendientes al logro de los fines
de una organización. Esto quiere decir que un conjunto de procedimientos
relacionados y dentro de determinadas condiciones, constituyen un sistema. Así,
el sistema de control de producción, por ejemplo, consiste en un conjunto de
procedimientos de pedidos de materiales, procedimientos de despacho o ruteo,
procedimientos de control, etcétera. Obsérvese la condición de “relación” como
elemento indispensable para que un conjunto de partes configuren un sistema. En
toda definición de sistema aparece siempre ese factor como común denominador
que transforma la individualidad de cada componente de tal modo que ya no tiene
sentido sino dentro de un conjunto.
Los profundos cambios experimentados en los últimos años en el ambiente
socio/político/económico en que se desarrolla la empresa moderna, unido esto a
los avances de la tecnología, obligan a encara urgentemente la necesidad de su
remodelación y adecuación al concepto de sistema. Es indudable que en la
gestión empresarial sobreviven aquéllos que utilizan los mejores procedimientos y
emplean los mejores medios (léase tecnología y conocimiento) para alcanzar sus
objetivos.


Las opciones de soporte de fabricante de los equipos informáticos


Una de las cuestiones que nos suelen ofrecer cuando compramos un equipo informático es una solución de garantía extendida o soporte técnico extendido sobre el mismo. Estas opciones las suelen ofrecer marcas como HP o Dell, por poner dos ejemplos, pero también nos la ofrecen en las tiendas donde compramos los equipos. Vamos a ver en qué consisten las opciones de soporte de fabricante de los equipos informáticos.
En primer lugar, tenemos que tener en cuenta el tipo de equipo que adquirimos y la importancia que tiene para nuestro negocio. Si estamos hablando de un servidor, entendemos que el servicio es crítico para el funcionamiento de nuestra empresa, puesto que un fallo supone que nuestro negocio está parado. Si hablamos de una estación de trabajo o un portátil, el nivel de importancia es mucho menor. Nuestra empresa seguirá trabajando, se resiente la productividad, pero seguirá trabajando con el resto de equipos que tengamos.
En este sentido, no es lo mismo el portátil de un autónomo, que viene a ser como el servidor de una pyme, que el portátil de una empresa que dispone de 100 equipos de estas características. El mismo fallo no tiene la misma importancia para uno que para otro, así que la decisión también dependerá de a qué nivel nos afecta un fallo de un equipo. Las empresas nos suelen ofrecer soporte extendidos que mejoran el nivel de asistencia de las garantías. Vamos a tomar como referencia el servicio de Dell, para mi gusto uno de los mejores del sector.
  • Dell ProSuport: es la opción de asistencia de mayor cobertura, donde podremos elegir el tipo de asistencia que deseamos. El soporte es 24×7, es decir, disponible todos los días del año a cualquier hora. Por lo tanto se recomienda para equipos esenciales en nuestro negocio. Podemos elegir la opción de asistencia técnica el mismo día, en la cual un técnico en un plazo máximo de 4 horas. Dispone de otras opciones interesantes como el sistema de búsqueda y recuperación de portátiles o el servicio de protección de daños accidentales. Según vamos añadiendo opciones irá, lógicamente, aumentando el precio del soporte.
  • Servicio de asistencia básica sobre hardware que cuenta con soporte 24×7 telefónico y asistencia técnica in situ al día siguiente. Tiene muchas menos opciones para contratar que el servicio pro, y quizás es más adecuado para servicios o puestos informáticos que no sean esenciales en nuestro negocio. Lo compensan también con un precio mucho menor.
  • Garantía ampliada que nos ayudará a tener una mejor cobertura de los problemas que pueda tener nuestros equipos en el momento de algún problema. En equipos portátiles es una opción muy recomendable si hacemos un uso intensivo de los mismos para no tener problemas pasado el año inicial de garantía.
En definitiva nos ofrecen una serie de servicios básicos para empresas que carecen de servicio técnico o que necesitan un soporte para servicio esenciales que su propio servicio técnico no puede proporcionar. Respeto de los precios, siempre tendremos que comparar el soporte que nos proporcionan, con nuestras necesidades y el servicio que nos ofrecen otras empresas, como puede se Telefónica con su puesto informático o distintas empresas dedicadas al soporte informático que operan en nuestra ciudad.
Tener en cuenta estas opciones de soporte técnico a la hora de elegir un equipo informático es importante conocer que tipo de soluciones nos ofrecen las propias marcas. Por otro lado, debemos tener en cuenta que la probabilidad de que se estropeen los equipos en los tres primeros añosde funcionamiento será mucho menor que en los siguientes. ¿Nos merece entonces la pena contratar estos servicios? Si evaluamos el coste de tener una par de días parada la empresa y vemos el coste que esto nos supone encontraremos la respuesta.
Cortafuego o Firewall
Un cortafuegos o firewall es un sistema que previene el uso y el acceso desautorizados a tu ordenador.
Los cortafuegos pueden ser software, hardware, o una combinación de ambos. Se utilizan con frecuencia para evitar que los usuarios desautorizados de Internet tengan acceso a las redes privadas conectadas con Internet, especialmente intranets.
Todos los mensajes que entran o salen de la Intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea los que no cumplen los criterios de seguridad especificados.
Es importante recordar que un cortafuegos no elimina problemas de virus del ordenador, sino que cuando se utiliza conjuntamente con actualizaciones regulares del sistema operativo y un buen software antivirus, añadirá cierta seguridad y protección adicionales para tu ordenador o red.

Cortafuegos de hardware

Los cortafuegos de hardware proporcionan una fuerte protección contra la mayoría de las formas de ataque que vienen del mundo exterior y se pueden comprar como producto independiente o en routers de banda ancha.
Desafortunadamente, luchando contra virus, gusanos y Troyanos, un cortafuegos de hardware puede ser menos eficaz que un cortafuegos de software, pues podría no detectar gusanos en emails.

Cortafuegos de software

Para usuarios particulares, el cortafuegos más utilizado es un cortafuego de software. Un buen cortafuegos de software protegerá tu ordenador contra intentos de controlar o acceder a tu ordenador desde el exterior, y generalmente proporciona protección adicional contra los troyanos o gusanos de E-mail más comunes.
La desventaja de los cortafuegos de software es que protegen solamente al ordenador en el que están instalados y no protegen una red.

Hay varios tipos de técnicas cortafuegos

  • Packet filter: mira cada paquete que entra o sale de la red y lo acepta o rechaza basándose en reglas definidas por el usario. La filtración del paquete es bastante eficaz y transparente a los usuarios, pero es difícil de configurar. Además, es susceptible al IP spoofing.
  • Application gateway: Aplica mecanismos de seguridad a ciertas aplicaciones, tales como servidores ftp y servidores telnet. Esto es muy eficaz, pero puede producir una disminución de las prestaciones.
  • Circuit-level gateway: Aplica mecanismos de seguridad cuando se establece una conexión TCP o UDP. Una vez que se haya hecho la conexión, los paquetes pueden fluir entre los anfitriones sin más comprobaciones.
  • Proxy server: Intercepta todos los mensajes que entran y salen de la red. El servidor proxy oculta con eficacia las direcciones de red verdaderas.
En la práctica, muchos cortafuegos utilizan dos o más de estas técnicas a la vez.
Un cortafuegos se considera la primera línea de defensa en la protección de la información privada. Para mayor seguridad, los datos pueden ser cifrados.

viernes, 23 de noviembre de 2012

Formateo/Particiones


Que es formatiar?
El formato de disco en informática es el resultado del proceso de preparación (formateado) de un disco duro o de un medio externo para el vaciado del sistema de archivos. Aunque hay dos tipos de formato (el físico y el lógico), habitualmente los usuarios sólo utilizan el lógico.

No se puede formatear como FAT un dispositivo de almacenamiento extraíble de más de 2 GB en Mi PC


SÌNTOMAS

Al intentar formatear un dispositivo de almacenamiento extraíble de más de 2 gigabytes (GB) en Mi PC para utilizar el sistema de archivos Tabla de asignación de archivos (FAT), la opción FAT no aparece en el cuadro Sistema de archivos. Sólo están disponibles los sistemas de archivos NTFS y FAT32.
CAUSAS
Este comportamiento ocurre porque Windows XP no proporciona compatibilidad para esta función en Mi PC.

Formatear de FAT32 a NTFS (Solucionado)

Son particiones independientes y para Windows es como si fueran discos diferentes, o sea, NO vas a perder absolutamente nada.

Solo seleccionas la unidad, le das botón derecho, formatear y le indicas que lo haga en NTFS.

Otra opción es que desde CMD escribas el siguiente comando:
convert d: /FS:NTFS.

Con eso, simplemente convierte esa unidad en NTFS sin necesidad de formatearlo.

Una herramienta que tiene Windows 7 permite hacer particiones del Disco Duro, sin tener que formatear el de sistema. Voy a explicarles como lo he hecho. 

1.- Vamos al Panel de Control y allí selecionamos Herramientas Administrativas. Hacemos doble click en Administracion de Equipos. 
2.- Hacemos click en el menu izquierdo en Administración de Discos, y nos muestra los Discos que tenemos en la PC incluido el CD/DVD, con las particiones, las letras, el formato (NTSC o FAT), la capacidad, si es de sistema, si esta correcto, si contiene el archivo de paginación, etc. 
3.- Haciendo click en el disco donde nos interese hacer la partición (el disco C en mi caso) y haciendo click de nuevo con el botón derecho del ratón, aparece un menu que nos permite trabajar en el disco. Hacer click en Reducir Volumen y el sistema revisara el espacio disponible para la reducción de esta partición. 
Luego nos muestra un cuadro con la disponibilidad de espacio en este volumen. Nos informa del espacio antes de la reducción, espacio para reducir, y tamaño posterior si escogemos la reducción que aparece por defecto. 
4.- Seleccionamos el tamaño que daremos a este nuevo disco en Mb. Ahora hacemos click en el botón Reducir y ahora aparecera esta particion con la leyenda: No asignado. Haciendo click dentro de esta partición (aparece rayada) y haciendo de nuevo click con el botón derecho del ratón, aparece un menú, y haciendo click en Nuevo volumen simple, aparece una ventana con un ayudante que nos permite dar el tamaño que queramos a la particion (observar que podriamos crear más particiones en este espacio). Luego nos permite asigna la letra del volumen que vamos a crear (podemos seleccionarla entre las disponibles). 
5.- Hacemos click en Siguiente y nos muestra otra ventana con el formato que queremos dar a esta partición (NTSC o FAT 32) y formateo rápido de la partición y la etiqueta de volumen (New volumen, por defecto) que queremos dar a la nueva partición. Hacemos click en Siguiente y aparece una ventana resumen, con los datos del volumen a crear. Hacemos click en Finalizar y el volumen se crea y formatea según nuestra selección. Sobra decir que podremos borrar la partión y reasignar los volumenes siguiendo los pasos con esta herramienta de gestion de discos..... 
Y... ya esta, disponemos de una nueva particion, para el uso que queramos darle. 

Las particiones del disco duro.


Uno de los principales problemas a la hora de instalar una distribución Linux, o cualquier sistema operativo, que quiera convivir con otro es la convivencia dentro de los discos duros.
La gran capacidad de los discos duros actuales hacen que sea necesario la partición de los mismos, palabra que asusta a más de uno, sobre todo si se inicia en esto de cambiar de sistema operativo.
En este artículo pretendo ayudar a la gente que tenga dudas sobre este tema, así que está abierto a cualquier tipo de aclaración.
En primer luar debemos definir que es una partición del disco. Imaginemos que tenemos un disco duro de una capacidad determinada (320Gb) y queremos dividir el mismo en porciones más pequeñas.
Particionar un disco consiste precisamente en eso, en dividir un disco en varias partes, las cuales actúan y son tratadas por el sistema como discos independientes. Así de un disco de 320 Gb podemos obtener “virtualmente” 4 de 80 Gb, que son más manejables. En Windows se representan por las diferentes letras (C, D, E, etc), en Linx serán carpetas dentro de /dev, pero ahora esto no nos interesa.
Cada partición puede tener sus sistema de archivos independiente, por ejemplo, Windows emplea NTFS o Fat, en Linux podemos emplear ext3ext2FAT32ReiserFS o  Reiser4. Esta es la razón por la cual podemos tener un disco duro con dos Sistemas Operativos.
Hasta aquí todo claro.
Este primer tipo de particiones que podemos crear y poner un sistema operativo se las conoce como primarias(originales, ¿no?) y en un disco duro físico podemos crear 4 como máximo.
Eso está bien, pero insuficiente en el caso de los más puristas que desean una partición para cada cosa (documentos, musica, imágnes, aplicaciones,copias de seguridad, etc). En ese caso deberemos crear otro tipo de particiones (extendidas) con las que podemos crear más particiones dentro de ellas (lógicas).
CUANTAS PARTICIOES PUEDE TENER UN DISCO?
Puede tener 4 particiones primarias como máximo.

¿Que es una particion del disco duro?¿Para que sirve?¿Y como la puedo hacer?

Imaginate que tienes un disco duro en tu pc de 100gb 
pues particionar el dico duro es simplemente dividirlo en dos o mas partes del tamaño q tu consires por ejemplo tus 100gb de disco duro los vas a dividir en 60gb y 40gb o si quieres en 5 de20gb como tu quieras el punto es q para abrir el dico duro en mi pc lo vas a tener en dos unidades o las q le ayas asignado. esto sirve para ordenar mejor tu equipo osea en un disco metes toda tu musik juegos y videos y en otra el windows .. recuerda q si particionas el disco ya no va a ser uno si no dos q suman el total de uno . en mi caso tengo un disco de 149gb particionado en 100 y 49 porque y tube un erro al instalar el windows en la de 49 ya que me quede sin espacio en la unidad principal(donde esta instalado el eindows) es algo muy facil de hacer y yo use para esto Norton PartitionMagic 8.0 pero no es gratis aunque hay muchos mas programas.. en resumen quedas con dos discos duros mas pequeños pero no con mas ni menos memoria.

SEPUEDE PARTICIONAR UN A MEMORIA?

SI SE PUEDE PARTICIONAR.

miércoles, 14 de noviembre de 2012

Tarjeta madre


Ta
rjeta madre y sus componentes

Tarjeta madre y sus componentes

Introducción

Como ya sabemos en el mercado de las computadoras  tenemos un gran mundo de hardware, que si elegimos  muy bien al momento de adquirir un buen hardware  le daremos mucha más vida útil a nuestro computador.
Gracias a sus arquitectura modular  , una computadora se puede actualizar  en su capacidad  de procesos y así poder instalar nuevas versiones de los programas , ampliar la memoria RAM , el Procesador , capacidad del Disco Duro y Tarjeta madre por nombrar algunas.
Como la evolución de las computadoras  es tan rápido, que si compramos una hace dos años o incluso  un años atrás , en estos momentos puede parecer vieja  si , así  es, ya que la evolución de estos aparatos es tan rápida el mejorar su capacidad y su diseños con nuevas tecnologías , para ejecutar nuevos software mas avanzados .
 Componentes internos
Lo primero que se tiene que hacer es chequear los componentes internos del gabinete de la computadora:

Què es fuente de poder?

¿Qué hace una fuente de poder o una fuente de alimentación en un Pc?
Una fuente de poder cambia la corriente alterna (AC) proveniente de un tomacorriente a corriente directa (Dc), que es la que utiliza el computador (computadora u ordenador). ¿Cómo saber cuándo necesito reemplazar la fuente de alimentación de un pc? Las fuente de poder (alimentación), tienden a ser altamente confiables y por lo general funcionan muchos años sin ningún problema. Algunos síntomas de la fuente de poder o de alimentación defectuosa pueden ser el entrabamiento repetido del computador (a) u ordenador o fallas constantes en otros componentes. Antes de remplazar una fuente de alimentación para pc, asegúrese de que los problemas que sufre no sean causados por otros componentes. Algunos fallos que se cree se deben a un componente, pueden ser causados por el mal funcionamiento del disco duro. Precauciones. Antes de desconectar la fuente de poder del tomacorriente en su pared, nunca remueva la cubierta de una fuente que está remplazando. Aun cuando no esté conectada a un tomacorriente, puede contener energía. Tenga en cuenta al sustituir una fuente de poder, el voltaje de la misma; generalmente una con 250 voltios de capacidad es más que suficiente para un pc promedio. Algunas fuentes de alimentación tienen un pequeño interruptor que les permite cambiar entre sistemas eléctricos de 110 y 220 voltios. ¿Cómo prolongar la vida de mi fuente de poder? La ubicación de su ordenador o computadora puede influir en el desempeño de la fuente de poder. Manténgala en un ambiente frío, libre de polvo, para ayudar a prolongar la vida de la fuente de poder y asegurar que el abanico tenga aire limpio y frío moviéndose a través de la caja. ¡Ah! y no olvide que la fuente de poder necesita limpieza, sobre todo quitar el polvo en la abertura del abanico y en la parte trasera de la fuente de alimentación. Algunos usan dispositivos como aspiradoras, otros un pincel. pero tenga cuidado. nunca cubra la abertura trasera por aquello de evitar que se acumule polvo: puede ocasionar que la fuente de poder se recaliente y se apague el computador.



Microprocesador 

El microprocesador es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja.
En los equipos actuales se habla fundamentalmente de los procesadores Pentium D o Core 2 Duo de Intel y Athlon 64 y Athlon 64 X2 de AMD. Además, están muy extendidos procesadores no tan novedosos, como los Pentium 4 de Intel y los chips Athlon XP de AMD.



¿ Qué es... la memoria RAM?
La memoria principal o RAM (Random Access Memory, Memoria de Acceso Aleatorio) es donde el computador guarda los datos que está utilizando en el momento presente. El almacenamiento es considerado temporal por que los datos y programas permanecen en ella mientras que la computadora este encendida o no sea reiniciada.
Se le llama RAM por que es posible acceder a cualquier ubicación de ella aleatoria y rápidamente
Definición de Tarjeta de video
(tarjeta gráfica, tarjeta de video, tarjeta aceleradora de gráficos o adaptador de pantalla, video card, graphics accelerator card, display adapter, graphics card).

Tipo de tarjeta de expansión  para el procesamiento de datos que provienen del CPU  para transformarlos en salida hacia un dispositivo como un monitor  o un televisor.

Algunas tarjetas de video ofrecen características adicionales como sintonizadoras de TV, decodificación MPEG, conectore FireWire para el mousejoystick o lápiz óptico, captura de video, etc.




Unidades de Disco Optico


En informática, una unidad de disco óptico es una unidad de disco que usa una luz láser u ondas electromagnéticas cercanas al espectro de la luz como parte del proceso de lectura o escritura de datos desde o a discos ópticos. Algunas unidades solo pueden leer discos, pero las unidades más recientes usualmente son tanto lectoras como grabadoras. Para referirse a las unidades con ambas capacidades se suele usar el término lectograbadora. Los discos compactos (CD),DVD, y Blu-ray Disc son los tipos de medios ópticos más comunes que pueden ser leídos y grabados por estas unidades.

Las unidades de discos ópticos son una parte integrante de los aparatos de consumo autónomos como los reproductores de CDreproductores de DVD ygrabadoras de DVD. También son usados muy comúnmente en las computadoras para leer software y medios de consumo distribuidos en formato de disco, y para grabar discos para el intercambio y archivo de datos. Las unidades de discos ópticos (junto a las memorias flash) han desplazado a las disqueteras y a lasunidades de cintas magnéticas para este propósito debido al bajo coste de los medios ópticos y la casi ubicuidad de las unidades de discos ópticos en las computadoras y en hardware de entretenimiento de consumo.

Disco Duro

En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema degrabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.

El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores).





Què es una tarjeta de red?

Las tarjetas de red (también denominadas adaptadores de redtarjetas de interfaz de red o NIC) actúan como la interfaz entre un ordenador y el cable de red. La función de la tarjeta de red es la de preparar, enviar y controlar los datos en la red. 






Què es socket?
Un socket (enchufe), es un método para la comunicación entre un programa del cliente y un programa del servidor en una red. Un socket se define como el punto final en una conexión. Los sockets se crean y se utilizan con un sistema de peticiones o de llamadas de función a veces llamados interfaz de programación de aplicación de sockets (API, application programming interface).











miércoles, 7 de noviembre de 2012



Mantenimiento preventivo
En las operaciones de mantenimiento, el mantenimiento preventivo es el destinado a la conservación de equipos o instalaciones mediante realización de revisiones y reparaciones que garanticen su buen funcionamiento y fiabilidad, el mantenimiento preventivo se realiza en equipos en condiciones de funcionamiento, por oposición al mantenimiento correctivo que repara o pone en condiciones de funcionamiento aquellos que dejaron de funcionar o están dañados.
El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.
Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.
Tipos de mantenimiento preventivo
El mantenimiento preventivo se puede realizar según distintos criterios:
El mantenimiento programado, donde las revisiones se realizan por tiempo, kilometraje, horas de funcionamiento, etc. Así si ponemos por ejemplo un automóvil, y determinamos un mantenimiento programado, la presión de las ruedas se revisa cada quince días, el aceite del motor se cambia cada 10.000km, y la cadena de distribución cada 50.000km.
El mantenimiento predictivo, trata de determinar el momento en el cual se deben efectuar las reparaciones mediante un seguimiento que determine el periodo máximo de utilización antes de ser reparado, en el ejemplo del automóvil si sabemos que el dibujo de las ruedas debe tener 2mm como mínimo, y las ruedas de nuestro automóvil tiene 4mm y se desgasta 0,5mm cada 8.000km podemos predecir el momento en el cual tendremos que cambiar las ruedas.
El mantenimiento de oportunidad es el que se realiza aprovechando los periodos de no utilización, evitando de este modo parar los equipos o las instalaciones cuando están en uso. Volviendo al ejemplo de nuestro automóvil, si utilizamos el auto solo unos días a la semana y pretendemos hacer un viaje largo con él, es lógico realizar las revisiones y posibles reparaciones en los días en los que no necesitamos el coche, antes de iniciar el viaje, garantizando de este modo su buen funcionamiento durante el mismo.


Mantenimiento correctivo
Dentro de las operaciones de mantenimiento, se denomina mantenimiento correctivo, a aquel que corrige los defectos observados en los equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste en localizar averías o defectos y corregirlos o repararlos.
Históricamente es el primer concepto de mantenimiento que se planteo, y el único hasta la primera guerra mundial, dada la simplicidad de las maquinas, equipamientos e instalaciones de la época, mantenimiento era sinónimo de reparar aquello que estaba averiado. Posteriormente se planteo que el mantenimiento no solo tenia que corregir las averías, sino que tenia que adelantarse a ellas garantizando el correcto funcionamiento de las maquinas, evitando el retraso producido por las averías y sus consecuencia, dando lugar a lo que se denomino: mantenimiento preventivo que es el que se hace, preventivamente en equipo en funcionamiento, en evicción de posteriores averías, garantizando un periodo de uso fiable.


Memoria de acceso aleatorio

La memoria de acceso aleatoriose utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.
Tecnologías de memoria
La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.
Tipos de DIMMs según su cantidad de Contactos o Pines:
§  72-pin SO-DIMM (not the same as a 72-pin SIMM), usadospor FPM DRAM y EDO DRAM
§  100-pin DIMM, usados por printer SDRAM
§  144-pin SO-DIMM, usados por SDR SDRAM
§  168-pin DIMM, usadospor SDR SDRAM (less frequently for FPM/EDO DRAM in workstations/servers)
§  172-pin MicroDIMM, usados por DDR SDRAM
§  184-pin DIMM, usados por DDR SDRAM
§  200-pin SO-DIMM, usados por DDR SDRAM y DDR2 SDRAM
§  204-pin SO-DIMM, usados por DDR3 SDRAM
§  240-pin DIMM, usados por DDR2 SDRAM, DDR3 SDRAM y FB-DIMM DRAM
§  244-pin MiniDIMM, usados por DDR2 SDRAM

Disco duro
En informática, un disco duro o disco rígido  es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC yservidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando unainterfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidoresestaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 500 GB.
Las unidades de estado sólido tienen el mismo uso que los discos duros y emplean las mismas interfaces, pero no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.
Características de un disco duro
Las características que se deben tener en cuenta en un disco duro son:
§  Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
§  Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
§  Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
§  Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
§  Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
§  Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

Tipos de conexión

Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA,IDE, SCSI o SAS:
§  IDE: Integrated Drive Electronics ("Dispositivo electrónico integrado") o ATA (AdvancedTechnologyAttachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (AdvancedTechnologyAttachmentPacket Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.
§  SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.
§  SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
§  SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATApueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.
Definición de Cable IDE

El cable IDE es un tipo de cable, generalmente gris, que se utiliza para conectar un conector IDE de la placa madre hacia un dispositivo de almacenamiento (especialmente discos duros y unidades de discos ópticos).  Generalmente cada cable IDE permite conectar dos dispositivos, el problema es que sólo un dispositivo puede estar transfiriendo información a la vez.  



Definición de SATA
      Sistema controlador de discos sustituye al P-ATA (conocido simplemente como IDE/ATA o ATA Paralelo). S-ATA proporciona mayor velocidad, además de mejorar el rendimiento si hay varios discos rígidos conectados. Además permite conectar discos cuando la computadora está encendida.  Con respecto al ATA Paralelo, una ventaja es que sus cables son más delgados y pueden medir hasta un metro de largo.






Microprocesador
El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento(CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas; desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicassimples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, unaunidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeraciónque consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre oaluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el ventilador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de video.



TIPOS DE MICROPROCESADORES

1971: MICROPROCESADOR 4004
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.
1972: MICROPROCESADOR i8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativa de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.



1974: MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales. 
1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta. 




1991: AMD AMx86
Procesadores lanzados por 
AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586







1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.


1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 
32 bits
, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.




1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. 
AMDsacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fue retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.



1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 
16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar vídeo a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano




1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.


1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.



1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de 
coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática. 






2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la 
arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE
.

2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de 
caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T
 por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.


2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones 
AMD64
, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.
2006: INTEL CORE DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.




2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología 
HyperTransport y unidades de coma flotante
 de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.


2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel
x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading
 fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.



2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.



2010: INTEL CORE SANDY BRIDGE
Los procesadores Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Gxxx; próximamente en el mercado.



2011: AMD FUSIÓN
Zambezi, Llano, Ontaro y Bulldozer; aún no han salido al mercado