Foro de elhacker.net

Informática => Tutoriales - Documentación => Mensaje iniciado por: templar en 12 Diciembre 2004, 22:09 pm



Título: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:09 pm
Disco Duro

Estructura interna de un disco duro

Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de  aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.

Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).

La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.


Algunos conceptos
(http://www.duiops.net/hardware/discosd/barracuda36.gif)
Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero  es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal.

Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.

Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).

Citar
Tamaño de clúster y espacio disponible

Un cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que subsana esta limitación, además de otros problemas.

Interfaces: ST506, MFM y RLL

Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera.

Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora.

La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la trasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm.

En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL

Citar
Algunas curiosidades:

El estándar IDE surgió a raíz de un encargo que la firma Compaq le hizo a la compañía Western Digital. Compaq necesitaba una controladora compatible con el estándar ST506, pero debido a la falta de espacio en el interior de los equipos a los que iba dirigida, ésta debía implementar la circuitería de control en el propio disco duro. Está claro que la necesidad es la madre de la inventiva, ¿verdad?

En antiguos discos duros (sobre todo MFM) era imprescindible, antes de apagar el equipo para moverlo de sitio, ejecutar una utilidad especial para "aparcar" las cabezas de la unidad. Con esta operación se depositaban los cabezales en una zona segura del disco, de forma que no pudieran dañar la superficie del disco en caso de movimientos o vibraciones. En la actualidad este proceso lo realiza la unidad de forma automática al ser desconectada (podéis comprobar cómo al apagar el PC, durante un segundo se ilumina el led del disco duro), y no se concibe un disco duro que no incluya esta característica.

Formatear un disco duro IDE a bajo nivel puede ser perjudicial para el mismo. Durante el proceso, que el fabricante realiza en sus instalaciones antes de sacarlo al público, se graban en él las marcas de direcciones y los números de sector. Volver a realizar este proceso en circunstancias o con software no apropiados, puede dañar definitivamente la unidad, hacerla más lenta o generarle sectores defectuosos e irrecuperables. En realidad, el formateo a bajo nivel sólo está justificado en casos muy concretos, como la aparición progresiva de errores a nivel lógico, y nunca por infección de virus (el caso más frecuente). Ciertamente, algunos vicios de la época MFM son bastante difíciles de ser desterrados...

Algunos modelos de discos duros, de diversos fabricantes, sufrían una anomalía con cierta frecuencia, consistente en la paralización del motor que da giro al eje del disco (especialmente tras varios días de falta de uso del equipo por parte del usuario, o también por acumulación de humedad); el resultado era la imposibilidad de iniciar el sistema desde el disco duro. La solución, no demasiado "científica", por cierto, era sacar el disco y propinarle un par de buenos golpes (no demasiado fuertes, claro); y mano de santo. Lo que no podemos describir aquí es el cambio de color en la cara del dueño del ordenador, al ser testigo de semejante "reparación".

Enhanced IDE


La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.

Modos de transferencia

(http://www.duiops.net/hardware/discosd/elite9l.gif)
Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo.

Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base.

Otros términos

EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos, como ISA.

Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre son sostenidas, es decir, que suelen ser “picos” de transferencia.

Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.

(http://espacioforos.miarroba.com/561507/disco%20duro.JPG)


Buffer y caché

Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché amplio en un disco duro es absolutamente imprescindible.

Más de 520 Megas... ¿por qué no?

Seguro que muchos de vosotros habéis vivido el caso (o al menos habéis sido testigos de él) de ir a instalar un disco duro de alta capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis 528 Megas. Se trata de una nefasta limitación, que curiosamente no está impuesta ni por la BIOS (Basic Input/Output System) ni por el estándar IDE (ni por el DOS, como alguna gente piensa); en realidad, viene dada.... ¡por ambos!

La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número de cabezas y número de cilindros (notación CHS); el estándar IDE soporte 65.536 cilindros, 16 cabezas y 255 sectores por pista, lo que nos da una capacidad bestial, alrededor de 137 Gigas.

Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63 sectores; ya que ambos deben funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capacidad definitiva, que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63 sectores (máximo de la BIOS), lo que nos va a dar un total de 528 Megas.

Para superar esta traba, la BIOS debe implementar el modo de trabajo conocido como LBA (Logical Block Adreesing), que traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente transparente al sistema operativo y al software en general, y aporta la evidente ventaja de poseer acceder a todo el espacio disponible del disco duro del ordenador.

Cuando una BIOS no soporta esta técnica, es preciso emularla por software; para ello, el fabricante de la unidad suele poner a disposición del usuario utilidades especiales que, en forma de driver residente, logran engañar al sistema y obtener el mismo efecto que el LBA por BIOS.

La norma SCSI

Hasta el momento hemos estado comentando los estándares ST506, MFM, RLL, IDE y EIDE, pero nos hemos saltado uno que, tan veterano como los anteriores, ha ido evolucionando (hasta hace poco en otros segmentos de mercado) de forma paralela a ellos. Nos referimos, por supuesto, a SCSI; demos un breve paseo por sus características.

La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y entornos de ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para empezar, SCSI es una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones propias del bus del PC. Además, en su versión más sencilla esta norma permite conectar hasta 7 dispositivos SCSI (serían 8 pero uno de ellos ha de ser la propia controladora) en el equipo; y las ventajas no se reducen al número de periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo (escáneres, impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma.

Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que podemos conectar nuestro disco duro o CD-ROM (o lo que sea) a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un detalle a resaltar que todos los periféricos SCSI son inteligentes; es decir, cada uno posee su propia ROM donde almacena sus parámetros de funcionamiento. En especial, es la controladora el dispositivo más importante de la cadena SCSI, que al poseer su propia BIOS puede sobrepasar limitaciones de la ROM BIOS del sistema.

Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante superior a IDE al no depender del bus del sistema; no obstante, no todo iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las ocasiones, más complejo de configurar, aunque esto último es cada vez menos problemáticos, ya que es preciso resaltar que la norma SCSI también ha evolucionado y mejorado; citaremos a continuación sus diferentes modalidades.

(http://www.duiops.net/hardware/discosd/cheetah_18.gif)

El surtido SCSI

La primera norma, SCSI-1, lograba un máximo de 3 Megas por segundo de transferencia, a una anchura de 8 bits en el bus de datos. La posterior SCSI-2 introdujo mejoras en el control de los dispositivos, inclusión de mejoras de caché y otras, subiendo a 5 Megas de ratio, con la misma anchura de bits que su predecesora. Luego se presentó la variante Fast SCSI-2, que lograba los 10 Megas por segundo, manteniendo esos 8 bits en el bus de datos. El modo Wide se unió después al Fast, resultando el Fast/Wide SCSI-2, con el que se amplió a 16 bits el ancho de banda del bus de datos, lográndose hasta 20 Megas/s de transferencia y permitiendo un soporte de hasta 15 dispositivos en cadena.

Lo último ha sido el Ultra SCSI, con el que se ha conseguido llegar a 40 Megas por segundo a 16 bits y 20 Megas a 8 bits, aunque no debemos pasar por alto la inclusión de la norma SCAM (SCSI Configured Automatically), alo parecido al Plug & Play, que nos libera de la clásica dificultad de configuración de las cadenas SCSI, aunque para ello los dispositivos también deben contemplar el SCAM. Por diversos motivos, SCSI siempre ha sido la alternativa profesional, pero cada vez podemos verla con más frecuencia en el ámbito doméstico; no hay que olvidar que periféricos como unidades Zip o Jaz, magneto-ópticos y escáneres vienen cada vez de forma más frecuente en SCSI, así como el progresivo abaratamiento al que se ven sometidos este tipo de componentes.

(http://espacioforos.miarroba.com/561507/disco%20duro%202.JPG)

Otras formas de usar un disco duro

Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular, imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el resultado puede ser catastrófico.

Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el concepto de mantener tanto la integridad de los datos cómo el correcto funcionamiento del sistema, en el caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de implementación forman las llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información totalmente intacta.

Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software; podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los diferentes discos intalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector erróneo.

Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con dispositivos IDE.

(http://espacioforos.miarroba.com/561507/disco%20duro%203.JPG)

Un poco de historia

Aparte del clarísimo crecimiento que se puede observar a lo largo de todas estas tecnologías, el avance evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa, podemos citar un “calendario” muy especial: durante el año 1992 y principios del 93, los discos duros implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas.

1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de 620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. Hoy día, a finales de 1999, se instalan discos de 8, 12 y 15 Gb.

En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debido a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá frenada por un disco IDE estándar y viceversa.

Por otro lado, la relación precio/Megabyte sigue más o menos la onda de otros componentes informáticos; más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio.

IEEE 1394 Firewire

Este es el nuevo bus de discos duros que se utilizará dentro de unos meses en adelante, por lo que ahora no está a la venta. Sin embargo, es bueno conocerlo, ya que esto se trata de una guía.

El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador.

Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CD-ROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras DV, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras digitales y de DV sin la necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos.

Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras PCI. Para más información, mira el articulo (http://www.duiops.net/hardware/articulo/ie31394f.htm) sobre IEEE 1394 Firewire.

Elegir el disco duro. IDE vs. SCSI

Como la función principal del disco duro es la de actuar como almacén de datos a largo plazo, la capacidad es una consideración fundamental. Hay que buscar un disco duro de entre 4 y 12 Gb, dependiendo del tipo de datos que piense almacenar en el disco duro. Otras consideraciones son la velocidad de acceso (busquemos una velocidad mínima de 10 a 12 milisegundos, y si llega a 8 o 6, mejor), el buffer (recomendado de 256 Kb), rpm (revoluciones por minuto, busquemos 7.200) y el tamaño de la caché del disco duro. También es importante considerar el tipo de datos que piensa almacenar en su disco duro. Los formatos de datos actuales (video, sonido y gráficos) pueden requerir varios megabytes de espacio para almacenamiento.

De todas las tecnologías comentadas, cuando pienses comprar un disco duro tendrás dos opciones a elegir: IDE o SCSI. Los discos duros SCSI requieren hardware adicional y son más adecuados para tipos de operaciones de entrada/salida como servidores de archivos. Las unidades de disco duro IDE o EIDE (Enhanced IDE, o IDE mejorado) no requieren hardware adicional y los de la variante UDMA/33 o DMA/66 son casi igual o más veloces que los discos duros SCSI (los SCSI-2 concretamete). Para la mayoría de los usos de alto rendimiento, un disco duro EIDE suele ser el más apropiado y económico.

Otro punto es que el IDE admite en la actualidad cuatro dispositivos (que pueden ser discos duros, CD-ROMs, y algún tipo de disco removible), el SCSI 1 y 2 admite 7 dispositivos (discos duros, CD-ROMs, escáneres y discos removibles) y el Ultra SCSI) admite 15 (el Ultra2 SCSI LVD admite ¡30!). La cantidad de dispositivos que vamos a necesitar es otro factor de elección.

Y por último, informaros bien de las características técnicas del disco duro que tengáis en mente adquirir; si en el establecimiento no pueden informaros bien, solicitad un manual de la unidad, en ellos se suelen detallar todas sus especificaciones técnicas. Aquí tienes algunas páginas:

Seagate Technology:

http://www.seagate.com/ (http://www.seagate.com/)

Maxtor:
http://www.maxtor.com/ (http://www.maxtor.com/)

Western Digital:
http://www.wdc.com/ (http://www.wdc.com/)

Quantum:
http://www.quantum.com/ (http://www.quantum.com/)

Cuando tengas montada la unidad, comprueba si está particionada, pues la mayoría incluyen el software de gestión comentado anteriormente en una pequeña partición del disco, debiendo ser extraída a disquete con alguna utilidad incluida. De modo que no se te ocurra directamente coger el disco duro, y tras instalarlo, formatearlo. Con ello sólo conseguirás perder los datos del fabricante, que son con los únicos con los que se puede realizar esta labor con seguridad. De lo contrario, corres el riesgo de no acceder a toda la información de la unidad, o dañarlo de forma permanente. Aunque lo mejor es adquirir un disco duro que tenga su capacidad normal y corriente, es decir, que con el FORMAT.EXE se pueda formatear desde un primer momento y que no venga ni con programitas ni con chorradas.

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:10 pm
Los MicroProcesadores

Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla fundamentalmente de los procesadores Pentium4 de Intel y Athlon XP de AMD. Además, están muy extendidos procesadores no tan novedosos, como los Pentium MMX y Pentium II/III de Intel y los chips de AMD (familias K6 y los primeros K7/Athlon).
(http://www.duiops.net/hardware/micros/BS01019_.gif)

 
Tipos de conexión

El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas:

    * Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Hay de diferentes tipos:
          o Socket  423 y 478. En ellos se insertan los nuevos Pentiums 4 de Intel. El primero hace referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la tecnología de 0,13 micras (Northwood). También hay algunos de 478 con nucleo Willamete. El tamaño de micras mencionado hace referencia al tamaño de cada transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele estar relacionada con una reducción del calor generado y con un menor consumo de energía. En el zócalo 478 también se insertan micros Celeron de Intel de ultimísima generación similares a los p4 pero más económicos
          o Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se insertan los procesadores Athlon en sus versiones más nuevas:
                + Athlon Duron (versión reducida, con sólo 64 Kb de memoria caché, para configuraciones económicas)
                + Athlon Thunderbird (versión normal, con un tamaño variable de la memoria caché, normalmente 256 Kb)
                + Athlon XP (con el núcleo Palomino fabricado en 0,18 micras o Thoroughbred fabricado en 0,13 micras) es un Thunderbird con una arquitectura totalmente remodelada con un rendimiento ligeramente superior a la misma frecuencia (MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde el K6-2. o con el nucleo T).
                + Ahlon MP (micro que utiliza el núcleo Palomino al igual que el XP, con la salvedad que éste accede gestiona de forma diferente el acceso a la memoria al hora de tener que compartirla con otros micros, lo cual le hace idóneo para configuraciones multiprocesador.
          o Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel.
          o Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para código en 32 bits que sentaría las bases de lo que conocemos hoy día.
          o Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros.
          o Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive.
    * Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los procesadores Athlon antiguos de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base.
    * En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve en lo referente a los microprocesadores de PC.

 
Valoración del rendimiento de un microprocesador

El microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica que es absurdo poner el último procesador hasta los topes de Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o un sistema de almacenamiento (disco duro) lento y escaso. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que evitarlo, dejándonos aconsejar por usuarios experimentados o bien repasarse bien esta Web, donde se puede obtener información se sobra de cómo hacer una correcta compra. Además del microprocesador, la velocidad general del sistema se verá muy influenciada debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de componente en particular para más información.

Hoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, siempre y cuando utilicemos las versiones Windows 95, Word 95 y Excel 95 de cuando el 486 estaba vigente. Sin embargo, según sean más complejos y nuevos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento medianamente óptimo). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Por ello es necesaria la compra de una tarjeta gráfica relativamente potente, dependiendo del presupuesto y las necesidades. Huye de tarjetas muy económicas que el rendimiento puede ser hasta 10 veces inferior el de una tarjeta que cueste el doble.

El uso de los últimos micros que sobrepasan la mítica barrera del GHz se justifica por los nuevos sistemas operativos (el nuevo WindowsXP por ejemplo utiliza muchos recursos de la máquina, mucho más que otros Windows anteriores), los nuevos formatos de audio o vídeo comprimido (DivX y MP3, a diferencia de videos y archivos de sonido normales, estos se descomprimen en tiempo real ,tarea llevada completamente a cabo por el micro), realizar más trabajo en menos tiempo, como compresiones de archivos, renderizado de dibujos en 3D.... o el simple hecho de cargar un programa como Word o el mismo Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy día que mejor PC en términos generales requieren.

 
Conclusiones

Como conclusión, veamos los procesadores que os recomendamos hoy día:

    * Athlon XP. El nuevo procesador de AMD es según nuestra opinión la mejor alternativa sin ninguna duda, sobre todo en relación calidad/precio. Además, con la mayoría del software actual son los micros más rápidos en comparación con los Intel Pentium4 de Intel. A la hora de comprar un micro de este tipo, conviene prestar muchísima atención a la placa base (recomendamos chipsets KT333 y KT400 de Via, nForce2 de nVidia o chipsets de SiS de última generación), a la memoria RAM (siempre con memoria "DDR", olvida placas que utilicen aún SDRAM) y a la tarjeta gráfica especialmente si vas a usar el PC para jugar o para disfrutar de altas resoluciones con altos refrescos en un monitor alto de gama y de gran tamaño.
    * Pentium4. Micro sobre el papel más avanzado que el AthlonXP pero que a la hora de la verdad viene a tener un rendimiento similar. El Pentium4 se caracteriza por su alto número de Mhz, pero fíjate que ejecuta 6 instrucciones por cada ciclo de reloj mientras que el AthlonXP que funciona a menos Mhz ejecuta 9 instrucciones. Normalmente, el micro de Intel de por ejemplo 2200 Mhz va a costar más que el AthlonXP equivalente, en este caso el 2200+ (que en realidad funciona a 1800 Mhz), como puedes ver en la tabla de más abajo. El Pentium4 tiene ventajas como una menor generación de calor, por lo que tendremos en ese aspecto muchos menos problemas que el Athlon. E inconvenientes, principalmente el coste. Podríamos dar muchas más diferencias entre AMD e Intel, pero no tenemos la intención de iniciar ahora una discusión sobre el tema.
    * Multiprocesador AMD, 2 Athlones MP. Mejor esto que un multiprocesador de 2 Pentiums4 Xeon, ya que el precio de esto último se va por las nubes. En caso de disponer de un presupuesto muy generoso puedes ir a este campo, siempre y cuando tengas un sistema operativo preparado para soportar 2 procesadores, tal como cualquier versión de Windows NT, Windows 2000, Windows XP SOLO VERSIÓN PROFESIONAL o por supuesto Linux / Unix y derivados. Con esto puedes distribuir las tareas, como liberar un procesador para que lo utilice sólo un determinado programa, o bien disfrutar del proceso en paralelo, ejecutar más trabajo en menos tiempo. Sólo hay algunos inconvenientes, como el hecho de tener que disponer de, lógicamente, una placa con dos zócalos preparada para dos micros, y de memoria RAM ECC/registrada, que viene a costar 5 veces la memoria que ponemos en nuestros PCs normalmente.
    * Soluciones más económicas, Duron de AMD, Celeron de Intel e incluso Pentium III de Intel. Recomendable si disponemos de muy poco presupuesto o queremos adquirir un segundo equipo para diversas funciones, como por ejemplo hacer un servidor para administrar impresoras, un FTP o páginas Web.

 
(http://www.duiops.net/hardware/micros/image021.gif)

xtraído de Tomshardware.com. El Pentium4 usando placa con chipset Intel 850E con memoria RAMBUS PC1066 y el Athlon XP usando placa con nForce2 y memoria DDR PC3200.

Lo que hay en los paréntesis viene a significar: (Velocidad real en MHz del micro / Velocidad en Mhz del FSB, es decir, de la memoria RAM y otros componentes de la placa mediante la aplicación de divisores / Velocidad externa del micro, con la que se comunica el chipset de la placa base)

source: http://www.duiops.net/


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:12 pm
Chipsets


Chipsets

NOTA: Esta descripción de chipsets es sólo válida para micros Pentium, Pentium MMX, Pentium II, Pentium III, AMD K5, AMD K6, AMD K6-2, AMD K6-3 y AMD K7 clásico. Aún no hemos colocado información sobre chipset modernos.


El conjunto de chips, o chipset, es un elemento formado por un determinado número de circuitos integrados en el que se han incluido la mayoría de los componentes que dotan a un ordenador de compatibilidad PC/AT a nivel hardware como, por ejemplo, el controlador de interrupciones, los controladores DMA, el chip temporizador, controladoras de disco duro, etc. Mediante este elemento se han integrado en unos pocos componentes los que antes se encontraban un número de chips independientes relativamente elevado.

Con el paso del tiempo, en el chipset se han ido incluyendo algunos nuevos tipos de dispositivos que han surgido con el avance tecnológico, como es el caso de las controladores de bus USB, el bus AGP, el bus PCI, funciones de administración de energía, etc. Este proceso de integración va a continuar en el futuro, por lo que durante el presente año aparecerán en el mercado conjuntos de chips que incluirán también a la tarjeta gráfica. Tanto Intel, como VIA Technologies y SIS están trabajando en productos de este tipo para microprocesadores tanto de tipo socket 7 como Slot 1 o socket 370.

 
CONJUNTO DE CHIPS PARA SOCKET 7

Si bien en el pasado Intel era la empresa líder en la fabricación de chipsets para microprocesadores de tipo Pentium, en la actualidad ha abandonado el diseño y fabricación de este tipo de productos, habiéndose centrado en la producción de productos de este tipo para sus procesadores basados en la microarquitectura P6 (Pentium II, Pentium III y Celeron). Este hecho ha convenido a este mercado en un campo abierto para los fabricantes asiáticos de este tipo de productos, si bien en el camino algunas empresas relativamente conocidas, como por ejemplo Opti, también han abandonado este mercado.

Sólo VIA Technologies, Acer Labs y SiS producen conjuntos de chips para microprocesadores para socket 7 o super socket 7, por lo que cualquier lector interesado en adquirir, por ejemplo, un procesador de este tipo que use un bus del sistema a 100 MHz deberá utilizar una placa base que emplee un chipset de uno de estos fabricantes.

ALI Aladdin V

Este chipset es otro de los que soporta velocidad de bus de 100 MHz que utilizan los microprocesadores K6-2 y K6-3 de AMD. Al igual que los productos más recientes de VIA Technologies, el Aladdin V soporta el modo x2 de bus AGP y el uso de memoria de tipo SDRAM. A diferencia de lo que ocurre con el MVP3 de VIA, la memoria tag de la caché de segundo nivel está irtegrada en el propio chipset, lo que si bien ayuda a reducir el precio final de las placas base limita ligeramente la flexibilidad de diseño a los fabricantes de este tipo de productos.

Como es lógico, este conjunto de chips incluye el hardware necesario para implementar las controladoras que normalmente se incluyen en todos los ordenadores actuales: un par de canales IDE con soporte del protocolo Ultra DM, un par de puertos USB, puerto para teclado estándar o de tipo PS/2 y conexión para ratón de tipo PS/2. Este conjunto de chips puede manejar tamaños de memoria caché de segundo nivel comprendidos entres 256 KB y 1 MB, cantidad algo inferior a los 2 MB que pueden gestionar los chipset de VIA Technologies o los SiS. El hardware necesario para implementar los puertos serie, paralelo y la controladora de disquetes se encuentra integrado en el propio conjunto de chips, a diferencia de lo que sucede con productos de otros fabricantes en los que es necesario añadir un circuito integrado que añada dicha funcionalidad.

SiS 530

Este es el conjunto de chips más reciente del fabricante SiS para sistema de tipo socket 7 y super socket 7, soportándose prácticamente todos los microprocesadores de este tipo existentes en el mercado. El controlador de memoria caché de segundo nivel puede gestionar hasta un máximo de 2 MB, si bien el tamaño máximo de RAM que puede aprovechar la presencia de la memoria caché es de 256 MB. La cantidad máxima de RAM que se puede gestionar es de 1,5 GB, soportándose el uso de módulos de memoria de tipo SDRAM.

Este chipset es una solución integrada que incluye también un sencillo acelerador gráfico que dispone de funciones de aceleración de gráficos 2D y 3D. Mediante la BIOS de los sistemas basados en este conjunto de chips es posible indicar al hardware que use 2, 4 ó 8 MB de la RAM del ordenador para emplearlos como memoria de vídeo. Para mejorar el rendimiento general del sistema también es posible realizar configuraciones que dispongan de 2, 4 ó 8 MB de memoria SDRAM o SGRAM para utilizarlos exclusivamente como buffer de vídeo. El hardware gráfico también integra una interfaz para realizar la conexión del sistema a pantallas planas de tipo TFT. El producto incluye el resto de prestaciones estándar, como por ejemplo dos controladoras IDE con soporte Ultra DMA, un par de puertos USB, conexiones para teclado y ratón tanto de tipo estándar como PS/2, compatibilidad con el estándar ACPI de gestión de energía, etc.

VIA VP3

Este producto fue el primer conjunto de chips disponible para placas base de tipo socket 7 y super socket 7 que soportaba el bus AGP, aunque lamentablemente este primer producto sólo soportaba el modo xi de dicho bus. El chipset está fabricado con tecnología de 0,5 micras y oficialmente sólo soporta la velocidad de bus de 66 MHz. Comparte con el chipset VIA MVP3 el chip VT82C5868, el cual implementa el puente entre el bus PCI y el ISA. Las placas base equipadas con este producto pueden disponer de una caché de segundo nivel comprendida entre 256 KB y 2 MB, si bien lo más normal es encontrar placas que disponen de 512 KB. La cantidad máxima de memoria RAM que se puede gestionar es de 1 GB.

El resto de la funcionalidad del conjunto de chips se encuentra implementada en el chip VT82C597, el cual integra dos controladoras IDE con soporte de Ultra DMA, un par de puertos USB, controlador de teclado estándar y de tipo PS/2, controlador para ratón PS/2 y reloj CMOS de tiempo real. El controlador de memoria implementado en dicho chip soporta memorias de tipo Fast Page Mode, EDO RAM y SDRAM. En la actualidad se trata de un producto ligeramente desfasado que ha sido sustituido en el mercado por el más avanzado VIA MVP3.

VIA MVP3

Este chipset de VIA Technologies es la segunda solución de este fabricante para microprocesadores de tipo socket 7 o super socket 7 que ofrece soporte de bus AGP, si bien, a diferencia de lo que sucedía con el anterior VP3, en este caso se soporta el modo x2 de dicho bus. El conjunto de chips está formado por dos circuitos integrados, cuyas referencias son VT82C598 y VT82C5868.

El primero de estos chips es el más importante, ya que es el encargado de implementar la interfaz con el microprocesador del sistema. Dicho componente soporta la velocidad de bus de l00 MHz, por lo que en las placas base que integran este conjunto de chips es posible utilizar los procesadores K6-2 y, mediante una actualización de la BIOS del sistema, el nuevo K6-3 de AMD. El chip vT82c598 también implementa el puente entre el bus del sistema y el bus PCI, así como el controlador de memoria. Precisamente este último bloque de este chip es uno de los más interesantes, ya que además de ofrecer soporte para RAM de tipo EDO y SDRAM ofrece la posibilidad de utilizar memoria de tipo DDR SDRAM (Double Data Rate SDRAM), así como una característica que permite que el bus de acceso a la caché de segundo nivel y el de acceso a la RAM del sistema funcionen de modo asíncrono. Esta última prestación hace posible que el procesador del sistema acceda a la caché de segundo nivel a 100 MHz mientras que los accesos a la RAM del sistema pueden efectuarse a 66 ó 100 MHz, lo que hace posible reutilizar en las placas base equipada con el chipset MVP3 módulos SDRAM antiguos de 66 MHz e incluso en algunos modelos módulos SIMM de tipo EDO RAM. Por su parte el chip vT82c5868 es el encargado de efectuar el puente entre el bus PCI y el ISA.

Este conjunto de chips integra un par de controladoras IDE con soporte de Ultra DMA, así como un par de puertos USB, controlador de teclado estándar y de tipo PS/2, controlador de ratón PS/2 y reloj CMOS de tiempo real. El producto también es compatible con la tecnología ACPI de administración avanzada de energía. La versión que actualmente se comercializa del producto está fabricada con tecnología de 0,35 micras.

VIA MVP4


Este conjunto de chips añade a la funcionalidad del anterior MVP3 un acelerador gráfico 2D/3D con soporte de la tecnología AGP, hardware de sonido de 16 bits y las funciones de entrada/salida (puertos sede y paralelo, así como controladora de disquetes) que normalmente están presentes en un chip adicional a los dos que suelen formar un chipset actual. El producto soporta las siguientes velocidades de bus: 66, 75, 83, 95 y 100 MHz. Esta característica hace que las placas base que emplean este chipset puedan utilizar cualquier microprocesador de tipo socket 7 o super socket 7.

Se incluye el hardware necesario para incluir en las placas base un par de controladoras IDE con soporte Ultra DMA, dos puertos USB, puerto de teclado estándar y de tipo PS/2, así como controladora para ratón PS/2. Actualmente no conocemos ninguna placa base que esté disponible con este conjunto de chips.

 
CONJUNTOS DE CHIPS PARA SLOT 1, SLOT 2 Y SOCKET 370

Hasta hace prácticamente un par de meses sólo Intel podía comercializar de forma completamente legal chipsets para microprocesadores de tipo P6 (Pentium II, Pentium III y Celeron) debido a que dicho fabricante posee una serie de patentes y derechos de propiedad intelectual sobre el bus GTL+ de dichos procesadores. Sin embargo, recientemente las empresas VIA Technologies y SiS han firmado con Intel cuerdos de licencia y de cruce de patentes que permiten a ambos fabricantes comercializar conjuntos de chips compatibles con el bus GIL+ sin temor a posibles represalias legales de Intel. Comentar que tanto VIA Technologies como SiS deberán pagar un royaltie a Intel por cada chipset de tipo P6 que vendan. El otro fabricante importante de este tipo de productos, Acer Labs, parece estar en conversaciones con Intel para alcanzar un acuerdo similar, ya que esta empresa tiene anunciada la disponibilidad de un producto de este tipo que sin embargo aún no se ha comercializado.

Acer Labs Aladdin Pro

Este fabricante asiático tiene anunciado desde hace ya algún tiempo un conjunto de chips, denominado Aladdin Pro, compatible con los microprocesadores Pentium II, Pentium III y Celeron de Intel. La disponibilidad de este chipset está probablemente supeditada a la firma de un acuerdo de licencia con Intel que proporcione acceso a Acer Labs a las patentes relacionadas con el bus GTL+, por lo que de momento no existe en el mercado ninguna placa base que disponga de este conjunto de chips.

Intel 440LX, 440EX y 440ZX-66


El conjunto de chips 440LX fue el primer producto de este tipo que ofrecía soporte para la tecnología AGP y era capaz de utilizar módulos DIMM de memoria SDRAM. Este chipset disponía de soporte biprocesador, por lo que existen placas base con dicho conjunto de chips que pueden aceptar la instalación simultánea de dos microprocesadores Pentium II. La velocidad de bus que oficialmente soporta el producto es la estándar de 66 MHz, por lo que hace posible usar todos los microprocesadores Pentium II que usan dicha velocidad de bus y todos los procesadores Celeron que se comercializan actualmente.

El chipset denominado 440EX es una versión reducida del clásico 440LX, al que se le han recortado algunas características para hacer posible la fabricación de placas base de bajo precio destinadas a la creación de sitemas económicos basados en la gama de procesadores Celeron. Las restricciones que tiene este conjunto de chips hacen referencia a la cantidad de memoria RAM que es posible direccionar, el número de zócalos DIMM que es posible colocar en la placa base, el número de ranuras PCI e ISA que se pueden gestionar y, además, no se soportan configuraciones biprocesador. Se trata por lo tanto de un producto recomendable para los usuarios que deseen adquirir sistemas Celeron de bajo coste y con posibilidades de expansión limitadas o equipos Pentium II económicos que no se vayan a ampliar en exceso en el futuro. El 4402X-66 es una versión del nuevo 4402X que, sin embargo, sólo soporta el bus de 66 MHz que usan los procesadores Celeron y los Pentium II con velocidades de reloj comprendidas entre 233 y 333 MHz. Las características de este chipset son similares a las que ofrece el 440EX, si bien dispone de las optimizaciones que Intel ha efectuado sobre el núcleo del 440BX para crear el nuevo 440ZX de bajo coste.

Intel 44OBX, 44OGX y 44OZX

El modelo 440BX fue el primer conjunto de chips para microprocesadores Pentium II que soportaba el bus a 100 MHz empleado en los procesadores que funcionan a 350 MHz y velocidades superiores. Otra de las características que se ha añadido a este chipset, respecto al anterior 440LX, es un soporte más amplio de las funciones ACPI de gestión de energía y la introducción de una versión específica para la creación de ordenadores portátiles basados en procesadores Pentium II. Al igual que sucedía con el 440LX, el 440BX soporta configuraciones biprocesador.

El chipset 440GX es prácticamente idéntico al anterior 440BX, si bien es el encargado de ofrecer la conexión con el resto del sistema a los microprocesadores de tipo Xeon, ya que dichas CPU emplean Slot 2 en lugar de Slot 1. Entre otras mejoras respecto a sus predecesores, cabe destacar la posibilidad de direccionar una mayor cantidad de memoria RAM, característica fundamental en el mercado de estaciones de trabajo al que van dirigidos los ordenadores equipados con procesadores de tipo Xeon.

El 4402X es una versión reducida del hoy popular 440BX, por lo que también soporta la velocidad de bus de 100 MHz. Lamentablemente Intel no ha dado mucha publicidad a este chipset, situación que ha llegado hasta el punto de que en el web de dicho fabricante existe muy poca información técnica sobre dicho producto. En el momento de escribir este artículo no existía en el mercado ninguna placa base que empleara dicho conjunto de chips.

Intel 450NX

Este es el conjunto de chips diseñado por Intel para soportar configuraciones multiprocesador con hasta cuatro microprocesadores de tipo Xeon. Este es el primer chipset que ha creado Intel capaz de soportar configuraciones con multiproceso simétrico con más de dos procesadores, ya que las soluciones anteriores de este fabricante soportaban como mucho dos CPU. Sólo un conjunto de chips que Intel diseñó para su venerable Pentium Pro soportaba sistemas con cuatro de estos procesadores. Actualmente el gigante de la microelectrónica está desarrollando un nuevo producto que hará posible fabricar ordenadores equipados con hasta ocho microprocesadores de tipo Xeon.

Otra característica de este chipset es su soporte del bus de direcciones de 36 bits que pueden utilizar tanto los procesadores Xeon como los Pentium II y Pentium III convencionales, si bien es necesario que el kernel del sistema operativo active dicha posibilidad mediante ciertos bits de algunos registros de configuración del procesador. Este producto también ofrece soporte de la extensión que permite usar a los sistemas operativos páginas con un tamaño de 2 MB. Asimismo se ha incluido una nueva característica que hace posible la conexión de varias máquinas basadas en procesadores Xeon que crea un bus de conexión propietario entre los sistemas mediante el que uno de los ordenadores puede realizar peticiones de acceso a la memoria del otro sistema. Mediante esta tecnología también es posible realizar configuraciones de tipo cluster.

SiS 5600

Este fabricante era bastante conocido en el mercado conjuntos de chips para procesadores de tipo socket y recientemente ha firmado un acuerdo de licencia con Intel que le permite comercializar esta clase de productos para microprocesadores de tipo P6. El SiS 5600 es el primer conjunto de chips para procesadores de tipo P6 que este fabricante lanzó al mercado, si bien soporta tanto el bus a 66 como a 100 MHz.

Este producto es capaz de manejar tamaños de memoria de hasta 1,5 GB, usando RAM de tipo EDO, Fast Page Mode o SDRAM con corrección de errores Ecc. También se integra en el chipset la habitual combinación de controladoras y puertos: dos canales IDE compatibles Ultra DMA, puertos USB y conexiones para teclado y ratón tanto estándar como PS/2. La documentación que hemos podido encontrar sobre este producto es bastante escasa, si bien parece ser que el SiS 5600 no soporta configuraciones de tipo biprocesador.

SiS 600/620

Estos dos productos son sendos chipset para procesadores de tipo P6 que se diferencian en que concretamente el modelo 620 integra un adaptador gráfico compatible con el bus AGP. Ambos productos son capaces de emplear tanto la velocidad de bus de 66 como la de 100 MHz. Ambos conjuntos de chips
integran sendas controladoras IDE con soporte Ultra DMA, un par de puertos USB y la combinación convencional de puertos de teclado y ratón tanto estándar como de tipo PS/2. La cantidad máxima de memoria RAM que se puede direccionar es de 1,5 GB. El bus PCI que se puede implementar con estos
conjuntos de chips es compatible con la versión 2.2 de la especificación PCI, siendo posible diseñar sistemas con un máximo de cuatro dispositivos PCI maestros.

Al igual que cualquier otro producto moderno de este tipo, este chipset soporta la tecnología AGP, tanto el modo x1 como x2. Sin embargo, este conjunto de chips tiene el elemento diferenciador de integrar un adaptador gráfico dotado de funciones de aceleración de gráficos 2D y 3D. El acelerador gráfico es capaz de trabajar tanto en modo UMA (Unified Memory Architecture, Arquitectura de memoria unificada) como en modo convencional. En el modo UMA el conjunto de chips puede utilizar hasta un máximo de 8 MB de memoria del sistema para almacenar el buffer de vídeo, mientras que al usar el modo de funcionamiento convencional es posible gestionar hasta 8 MB de memoria SDRAM o SGRAM que funciona como memoria de vídeo.

VIA Apollo Pro y Apollo Pro Plus

Hace ya bastante tiempo VIA Technologies anunció la disponibilidad del conjunto de chips Apollo Pro, el cual era compatible con el procesador Pentium Pro de Intel. Debido a los posibles problemas de patentes y licencias con Intel, ningún fabricante de placas base comercializó productos que utilizaran dicho chipset. Con la aparición de los Pentium II y de la tecnología AGP, VIA Technologies decidió actualizar las características del Apollo Pro original, lo que originó la aparición del Apollo Pro Plus actual utilizado en placas base de fabricantes como por ejemplo FIC. Actualmente VIA Technologies dispone de una licencia de Intel que le permite comercializar conjuntos de chips para microprocesadores basados en la microarquitectura P6 (Celeron, Pentium II y Pentium III) a cambio del pago de una cantidad económica por la venta de cada chipset. En la actualidad las placas base para procesadores de tipo P6 que usan conjuntos de chips de VIA Technologies, emplean el modelo Apollo Pro Plus debido a su soporte del bus del sistema a 100 MHz y del bus AGP. como es lógico estos productos también integran controladoras IDE compatibles con el protocolo Ultra DMA, un par de puertos USB y la combinación estándar de puertos para teclado y ratón tanto estándar como de tipo PS/2.


source: http://www.duiops.net/


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:13 pm
Tarjetas de Sonido

Tarjetas de sonido
Así funcionan

Las dos funciones principales de estas tarjetas son la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).

En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.

Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta 28 Megas de RAM (cuanta más, mejor).

Efectos

Una tarjeta de sonido también es capaz de manipular las formas de onda definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal Avanzado), que amplía considerablemente la complejidad de los efectos.Por lo que a mayor variedad de efectos, más posibilidades ofrecerá la tarjeta.

Polifonía

¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos refiriendo a la polifonía, es decir, el número de instrumentos o sonidos que la tarjeta es capaz de emitir al mismo tiempo. Las más sencillas suelen disponer de 20 voces, normalmente proporcionadas por el sintetizador FM, pero hoy en día no debemos conformarnos con menos de 32 voces. Las tarjetas más avanzadas logran incluso 64 voces mediante sofisticados procesadores, convirtiéndolas en el llamado segmento de la gama alta.

MIDI

La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se trata de un estándar creado por varios fabricantes, que permite la conexión de cualquier instrumento, que cumpla con esta norma, al ordenador, e intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados secuenciadores MIDI.

En este apartado hay poco que comentar. Simplemente, si vamos a emplear algún instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya los conectores DIN apropiados para engancharla al instrumento en cuestión, y el software secuenciador adecuado, que también suele regalarse con el periférico.

Un detalle que conviene comentar en este artículo, es que en el mismo puerto MIDI se puede conectar un Joystick, algo muy de agradecer por el usuario, puesto que normalmente los conocidos equipos Pentium no incorporan de fábrica dicho conector, algo habitual, por otra parte, en sus inmediatos antecesores, los ordenadores 486.
Frecuencia de muestreo

Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para que el ordenador pueda tratar el sonido, debe convertirlo de su estado original (analógico) al formato que él entiende, binario (digital). En este proceso se realiza lo que se denomina muestreo, que es recoger la información y cuantificarla, es decir, medir la altura o amplitud de la onda. El proceso se realiza a una velocidad fija, llamada frecuencia de muestreo; cuanto mayor sea esta, más calidad tendrá el sonido, porque más continua será la adquisición del mismo.

Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo es la que marcará la calidad de la grabación; por tanto, es preciso saber que la frecuencia mínima recomendable es de 44.1 KHz, con la que podemos obtener una calidad comparable a la de un disco compacto.

Otras consideraciones

Existen otros factores que se deben tener en cuenta: por ejemplo, mucha gente prefiere controlar el volumen de la tarjeta de forma manual, mediante la típica ruedecilla en la parte exterior de la misma. Sin embargo, la tendencia normal es incluir este control (además de otros, como graves, agudos, etc.) por software, así que debe ser tenido en cuenta este detalle si es importante para nosotros.

La popularización de Internet ha propiciado la aparición de un nuevo uso para las tarjetas de sonido: la telefonía a través de la red de redes. Efectivamente, con un micrófono y el software adecuado, podemos utilizar la tarjeta para hablar con cualquier persona del planeta (que posea el mismo equipamiento, claro) a precio de llamada local.

Sin embargo, la calidad de la conversación dependerá de dos conceptos: half-duplex y full-duplex. Resumiendo un poco, full-duplex permite enviar y recibir información al mismo tiempo, mientras que half-duplex sólo puede realizar una de las dos operaciones en cada momento. Traduciendo esto a una conversación, tenemos que el half-duplex nos obliga a hablar como si utilizáramos un walkie-talkie; es decir, hay que esperar a que uno diga algo para poder responder, mientras que el full-duplex nos ofrece bi-direccionalidad, es decir, mantener una conversación normal como si fuera un teléfono.

En algunos casos, el fabricante posee controladores que añaden funcionalidad full-duplex a tarjetas que no implementan esta forma de trabajo, por lo que puede ser una buena idea ir a la página Web del fabricante en cuestión.

Por último, y aunque sea de pasada, puesto que se trata de un requisito casi obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al cien por cien con la normativa Plug and Play; seguro que muchos lo agradecerán.
Pros y contras del puerto IDE

Un gran porcentaje de tarjetas de sonido incluye conexión IDE. ¿Es realmente útil este puerto adicional? En principio, sí que lo es; normalmente, cuando se adquiere una tarjeta de sonido, es casi seguro que el comprador ya posee, o poseerá, un lector de CD-ROM, si es que no compra las dos cosas al mismo tiempo. Los CD-ROM más difundidos implementan la conexión IDE por ser barata y eficaz.

En los ordenadores Pentium se incluyen dos puertos IDE, por lo que no suele haber problemas; ahora bien, si el PC es un 486 o inferior (todavía existe un parque muy elevado de estas máquinas) es bastante posible que el equipo sólo tenga un puerto IDE. Si la tarjeta de sonido incluye su propia conexión, la labor se hará más sencilla, ya que podemos enganchar ahí nuestro lector.

Por otro lado, un puerto IDE adicional consumirá una interrupción más en el sistema (normalmente IRQ 11), y además Windows 95 no se lleva bien con puertos IDE terciarios y cuaternarios, traduciéndose esto en el temible símbolo de admiración amarillo en la lista de dispositivos. A pesar de todo, y vista la situación, la balanza se inclina hacia el lado positivo, ¿no creéis?.

La compatibilidad

Indudablemente, en estos momentos, el mercado de las tarjetas de sonido tiene un nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que se precie debe mantener una total compatibilidad con el estándar impuesto por la compañía Creative Labs; existen otros, como el pionero Adlib o el Windows Sound System de Microsoft. Pero todos los juegos y programas que utilizan sonido exigen el uso de una tarjeta compatible Sound Blaster, así que sobre este tema no hay mucho más que comentar.

Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por hardware. La compatibilidad vía soft puede tener algunas limitaciones; principalmente, puede ser fuente de problemas con programas que accedan a bajo nivel o de forma especial a las funciones de la tarjeta. Asimismo, los controladores de emulación deben estar bien diseñados, optimizados y comprobados, para no caer en incompatibilidades, justo lo contrario de lo que se desea alcanzar. Por tanto, es preferible la emulación por hardware.

Sonido 3D

El sonido 3D consiste en añadir un efecto dimensional a las ondas generadas por la tarjeta; estas técnicas permiten ampliar el campo estéreo, y aportan una mayor profundidad al sonido habitual. Normalmente, estos efectos se consiguen realizando mezclas específicas para los canales derecho e izquierdo, para simular sensaciones de hueco y direccionalidad.

Seguro que os suenan nombres como SRS (Surround Sound), Dolby Prologic o Q-Sound; estas técnicas son capaces de ubicar fuentes de sonido en el espacio, y desplazarlas alrededor del asombrado usuario. Y decimos asombrado, porque el efecto conseguido es realmente fantástico, y aporta nuevas e insospechadas posibilidades al software multimedia y, en especial, a los juegos. Es fácil hacer una recomendación en este tema: ¡No renunciéis al sonido 3D!

Conclusiones

El criterio más inteligente es tener claro para qué la vamos a utilizar: si vamos a pasar la mayor parte del tiempo jugando, podemos prescindir de elementos avanzados, más enfocados a profesionales del sonido. En cualquier caso, ya sabéis: la elección es vuestra.

source:  http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:15 pm
Altavoces

Altavoces

Si el sonido del PC es pésimo, no hablemos del altavoz que lleva. Más de uno ha llegado a desconectar esa chicharra que pita sólo cuando nos equivocamos y que tímidamente se atreve a interpretar una raquítica musiquilla en algunos juegos.

Es fácil saber cuándo un sistema de altavoces no suena bien. A menos que estemos sordos podemos distinguir cuándo el sonido es de calidad y cuándo no.

Dentro del campo de los altavoces para ordenador existe una pequeña controversia. Siempre intentamos comprar un ordenador gastándonos lo mínimo en cada componente, y ello incluye, por tanto, a los altavoces. Esa es única explicación que nosotros damos a la adquisición de los altavocillos de ordenador que se venden en las tiendas, que, por mucho que digan que los están mejorando, suenan horrible. Da pena ir a una tienda y ver cómo decepciona el sonido de los altavoces de un ordenador en exposición, el cual lleva un cartón pegado alrededor del monitor diciendo: "3D Speakers, Digital Surround Sound..." Y luego lo pones y suenan mucho peor que los de una pequeña televisión de 14 pulgadas.

Los altavoces para ordenador están autoamplificados (el amplificador lo lleva uno de los dos, el altavoz activo, que también alimenta al otro, el altavoz pasivo) con conexión a la red eléctrica y control de graves, agudos y volumen. Además de utilizarlos con el ordenador (conectados a la salida "spk-out" de la tarjeta de sonido) también se pueden usar con un Walkman o un Discman conectados a la salida "line-out".

Una observación acerca de los altavoces de ordenador es la potencia en watios. Más de uno que habrá dado cuenta que en las propagandas de unas tiendas anuncian altavoces de 240w y en otras de 15w. Obviamente, se tratan de los mismos altavoces pero con distintas mediciones. El mayor corresponde a la potencia de pico (a lo que puede llegar el altavoz) y el otro es la potencia continua. Además, también depende la resistencia o impedancia: 15w a 8 ohmios es lo mismo que 30w a 4 ohmios.

Y algo muy importante que debéis saber es que los altavoces tienen que estar aislados magnéticamente, si no no sería posible colocarlos al lado del ordenador y sobre todo del monitor, sobre el cual interfieren distorsionado la imagen y los colores, pudiendo magnetizar el tubo, con lo que no nos quedará más remedio que llevarlo a reparar. Por norma general los altavoces de los equipos de música no están aislados. Mantenedlos lo más alejados posible del ordenador, monitor y cualquier aparato de televisión.

source:  http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:16 pm
Monitores

(http://www.duiops.net/hardware/monitores/pc081poporta09.jpg)
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.

La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes:

Tamaño


Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels.

Resoluclón

Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajáis con Windows la resolución ampliada es fundamental, podréis tener más iconos en pantalla, podréis tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambiéis a ellas, etc.

La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones ampliadas os recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels.

Entrelazado

Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procurad que vuestro monitor sea no-entrelazado.

Frecuencia de barrido vertical

El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el númeto de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable.

Tamaño del punto (Dot Pltch)

Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels.

Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc.

Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.

Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).

Filtros para el monitor

Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática.

En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.

 
La alternativa LCD

Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de especio (LCD posibilita la fabricación de pantalla extraplanas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe...

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:21 pm
Impresoras

(http://www.duiops.net/hardware/impresor/BS00136_.gif)
Cuando se realiza un trabajo en un ordenador, no importa su naturaleza, tarde o temprano surge la necesidad de plasmar los resultados en papel, elemento éste que no creemos que desaparezca totalmente en favor de la llamada "oficina sin papeles".

Muy al contrario, como hemos citado, en la mayoría de las veces es imprescindible llevar al papel el resultado de nuestro trabajo, seamos diseñadores, contables o programadores. Por ello abordaremos en este artículo los puntos a tener en cuenta a la hora de adquirir una impresora.

Impresoras matriciales

Se puede decir que este es el escalón básico en la oferta de impresoras; muchos os preguntaréis, ¿quién puede querer una impresora de agujas? La respuesta es: mucha gente. Para empezar, son imprescindibles en trabajos donde haya que imprimir sobre papel de copia, es decir, con más de una hoja; esto engloba todo tipo de oficinas y centros, públicos o privados, que empleen ese tipo de papel. También los programadores saben apreciar su valor, ya que para imprimir un gran listado de un programa no vamos a utilizar una máquina láser o de inyección.

Su funcionamiento es simple, un cabezal dotado de una serie de diminutas agujas recibe impulsos que hacen golpear dichas agujas sobre el papel, que a su vez se desplaza por un rodillo sólido. Los modelos más frecuentes son los de 9 y 24 agujas, haciendo referencia al número que de este componente se dota al cabezal; este parámetro también se utiliza para medir su calidad de impresión, lógicamente a mayor número de agujas, mayor nitidez se obtendrá en la impresión.

Como iremos viendo, en realidad no puede hablarse de inconvenientes de un tipo u otro de impresoras, simplemente cada uno tiene una orientación (a un tipo de trabajo) diferente de otro. En el caso de las matriciales, resulta evidente que no sirven para imprimir gráficos, y que su funcionamiento no es precisamente silencioso.

Impresoras de inyección

Sin duda el segmento de más éxito en el campo de las impresoras es el de la inyección o chorro de tinta; su funcionamiento también se basa en un cabezal, en este caso inyector, dotado de una serie de boquillas que expulsan la tinta según los impulsos recibidos. Aunque al principio únicamente se podía imprimir en blanco y negro, el color se popularizó rápidamente, y se puede decir que ahora la inmensa mayoría de usuarios domésticos adquiere una impresora de inyección en color junto con su PC.

Aquí el parámetro de calidad lo da la resolución de la imagen impresa, expresada en puntos por pulgada; aunque con 300 ppp basta para imprimir texto, para fotografías es recomendable al menos 600 ppp. Dada su relación precio/calidad, son las impresoras más utilizadas para trabajos domésticos y semi-profesionales.

Como inconveniente se puede citar lo delicado de su mecánica y también su mantenimiento, ya que los cartuchos no suelen ser baratos.

Impresoras láser

Aunque el coste de una láser ya no tira para atrás como en otros tiempos, lo cierto es que siguen orientadas al ámbito profesional. En estas máquinas, un tambor, abreviado OPC (Optical Photo Conductor), o dicho comúnmente "fotoconductor", cargado de electricidad estática es recorrido por un pequeño rayo láser, cuyo haz actúa invirtiendo la carga en el tambor y atrayendo hacia éste el tóner (la "tinta" de las impresoras láser).

Este tóner se "pega" al papel por la acción de la corona o rodillo de transferencia, que invierte la polaridad del OPC atrayendo hacia sí las partículas de tóner. Como entre la corona de transferencia y el OPC está el papel, es en este en donde se queda el tóner, osea, lo que al fin y al cabo vamos a imprimir, ya sea texto o gráfico. Ahora bien, esa imagen no está "fijada" en el papel, de hecho, si le pasamos un dedo por encima antes de pasar por el último rodillo (fusor), el tóner "se corre". Gracias la acción del fusor, que son dos rodillos, uno de calor y otro de presión, ya sí se fija definitivamente la imagen.

Aquí se tiene en cuenta tanto la resolución, también expresada en ppp (lo mínimo aconsejable es 600 ppp) como la rapidez de impresión dada en páginas por minuto.

¿Inconvenientes? Son máquinas todavía caras, y aunque los consumibles no se cambian con la frecuencia que en las impresoras de inyección, cuando hay que hacerlo el bolsillo puede resentirse. Pero su rapidez y calidad de impresión las hacen destacar sobre el resto.
Detalles comunes: memoria

Prácticamente todas las impresoras, independientemente de la tecnología empleada, incluyen una memoria RAM. En las matriciales puede ser de unos pocos bytes (8 Kb, 16 Kb, etc.), y no mucho más en las de inyección. Por el contrario, en las láser sí que es imprescindible una buena cantidad de memoria, que no suele bajar de 512 Kb, aunque la verdad es que lo mínimo admisible debe ser, al menos, 1 Mega.

¿Color o blanco y negro?

Normalmente la respuesta a esta pregunta está muy clara en todos los casos, porque además no hay mucha alternativa; debido a la orientación de las impresoras matriciales y a la baja calidad que ofrecen cuando se intenta imprimir en color con ellas, es un segmento condenado al blanco y negro.

En las de inyección de tinta ocurre algo curioso, y es que será bastante difícil encontrar una impresora de este tipo, de sobremesa únicamente en blanco y negro, ya que el color se ha abaratado y perfeccionado tanto, que es algo que ya se incluye "de serie".

Por último, en las impresoras láser se imponen criterios económicos y de necesidad; ¿puedes gastarte un dineral en una impresora láser a color? ¿Realmente necesitas tanta calidad?

Consumibles

En las impresoras matriciales, el mantenimiento es sencillo y normalmente barato, ya que únicamente será preciso cambiar la cinta, que suele durar bastante. El cabezal también se suele considerar como consumible, pero no es algo que se estropee con frecuencia, teniendo una media de vida del orden de años.

En las de inyección, lo que más cambiaremos serán los cartuchos de negro y/o color; el cabezal inyector no suele estropearse, y la mayoría de impresoras implementan sistemas de limpieza y calibrado que permiten ajustar el funcionamiento de las mismas.

Por último, en las impresoras láser el consumible por excelencia es el cartucho de tóner (es decir, la tinta), pero tampoco es extraño tener que cambiar la unidad fotoconductora o el tambor (en algunas máquinas estas dos piezas se engloban en una sola) cada cierto tiempo, siempre según la carga de trabajo que soporte la máquina.

Displays y controles

La tendencia a la simplificación y reducción de tamaño que siguen las impresoras ha dado lugar a la aparición de modelos que sólo poseen un led y un botón de selección, cuando antes eran numerosos los controles.

En general, se tiende a que sea el software quien gestione todas las operaciones con la impresora, por lo que los fabricantes incluyen drivers y controladores. Pero esto también puede ser un inconveniente, ya que obliga a tener cargado software residente que de otra forma no necesitaríamos (por ejemplo bajo DOS), además de limitar a muchos usuarios que prefieren manipular manualmente los controles de la impresora. Pero esta es la tendencia, y es preciso habituarse a ella.

Puerto EPP/ECP, imprescindible


Si bien en las matriciales no es necesario, a la hora de adquirir una impresora de inyección o láser es prácticamente imprescindible que el puerto paralelo de nuestro ordenador sea bidireccional. Esto es así debido a que estas impresoras no sólo reciben datos del PC, sino que también pueden enviarle información, en forma de notificación de errores o situaciones anómalas, respuestas a códigos de control, etc. De hecho, el funcionamiento de los drivers y paneles de control vía software de estas máquinas se basa en esa premisa, e incluso algunos modelos ni siquiera instalarán su software de control si no detectan una conexión bidireccional. En ordenadores que son relativamente recientes, ya se incluye de fábrica el puerto paralelo ECP/EPP (Enhanced Parallel Port), y únicamente hay que verificar si está activada dicha característica en el Setup. Sin embargo, en máquinas más antiguas no se implementan estos puertos, así que conviene asegurarse para evitar sorpresas de última hora.

Emulaciones

Decimos que una impresora "emula" cuando admite códigos y modos de funcionamiento de otros modelos o marcas del mercado. Normalmente las de inyección no suelen implementar emulación, ya que dada su orientación basta con el driver que se incluye. Pero en una matricial, la emulación puede llegar a ser importantísima, en especial en aplicaciones hechas a medida o basadas en DOS; una impresora matricial se puede considerar completa si incluye modos IBM Proprinter y Epson, los dos grupos de códigos estándar.

En las impresoras láser sucede como con las de inyección, el driver incluido suele ser suficiente debido al segmento al que van dirigidas, pero no vienen mal un par de modos de emulación en cualquier impresora láser.

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:22 pm
Modems

Indudablemente, la explosión experimentada por el mercado de los modems sólo tiene un protagonista: Internet. La popularidad de la omnipresente Red, ayudada por el servicio InfoVía proporcionado por Telefónica en nuestro país, está haciendo que los usuarios se familiaricen con las comunicaciones y se planteen seriamente la adquisición de uno de estos dispositivos. Así que, si eres uno de estos usuarios, esto te interesa.

Un modem es un dispositivo que permite la transmisión y recepción de información binaria (es decir, datos de ordenador) a través de un medio analógico (o sea, la línea telefónica); para poder realizar este proceso, es necesario convertir la señal digital en analógica, y viceversa, y esa es la función del modem.

 
La importancia de la UART

Posiblemente, el componente más importante de un modem es el chip UART (Universal Asynchronous Receiver/Transmitter), encargado de transmitir los datos; existen varios modelos de UART, el más básico de los cuales es el 8250A, empleado en ordenadores 286 y 386 y ya obsoleto. Su diseño le impedía trabajar a velocidades superiores a 9.600 bps, algo aceptable en otros tiempos pero no en este momento.

Posteriormente, fueron apareciendo modelos más avanzados, hasta llegar al más común empleado en la actualidad, el 16550 (del que existen 3 variantes, 16550A, AF y AFN, casi idénticas entre ellas). Este chip incorpora un buffer FIFO (First In, First Out) de 16 bytes, lo que le permite incrementar notablemente su rendimiento; asimismo, su capacidad de transmisión se eleva hasta 115 Kbps, por lo que podemos decir que es totalmente imprescindible la inclusión de este modelo de UART en cualquier modem actual.

Protocolos

Casi tan importante como la UART es el conjunto de protocolos o normas de comunicación que el modem es capaz de soportar; estas normas, establecidas por la ITU (Unión Internacional de Telecomunicaciones), definen los procedimientos estándar para la transmisión de datos. Su denominación suele ser siempre un número precedido por la letra V. Así, tenemos los antiguos V.21, V.22 y V.22bis (que soportan transmisiones a 300, 1200 y 2400 bps), los posteriores V.32 y V.32bis (transmisiones a 9.600 y a 14.400 bps) y los últimos V.34 y V.34+ (velocidades de 28.800 y 33.600 bps). Evidentemente, se recomienda la máxima velocidad posible, por el momento 33.600, accesible mediante el protocolo V.34+.

De esta manera, es más que recomendable la adquisición de un modem que soporte compresión y corrección de errores en tiempo real; para ello, son imprescindibles las normas V.42, V.42bis y MNP5. Se trata de protocolos que permiten corregir los posibles errores durante la transmisión y al mismo tiempo comprimir los paquetes de datos, para incrementar el rendimiento del dispositivo.

 
Mejor con Flash Rom

Los modems incorporan una memoria ROM en la que almacenan parámetros, comandos y el código correspondiente a las diferentes normas y protocolos soportados por el aparato. Es muy deseable que la ROM del modem que vayamos a adquirir sea del tipo flash, ya que de esta forma sería posible actualizar el dispositivo, mediante software facilitado por el fabricante, por ejemplo, para implementar nuevos protocolos que incrementen su rendimiento. Es lo mismo que ocurre con las BIOS de las placas base: se busca el poder actualizar sin tener que cambiar el chip.

Otros detalles


Es importante no confundir la velocidad de comunicación entre el modem y el ordenador con la velocidad de conexión con el exterior. La primera normalmente debe ser de unos 115.200 bps, e indica el ratio de transferencia entre el modem y la CPU a través del bus de expansión.

La segunda velocidad sirve de medida para diferenciar el rendimiento de los modems; en un modelo de 33.600, lo más alto que podremos llegar será a unos 31.200 bps. Ya que el estado de las líneas no suele ser el óptimo, y el ruido hace descender frecuentemente la velocidad. Podemos incluso bajar hasta unos 26.400 bps, según el estado de la línea.

Por otro lado, hay que tener en cuenta que para llegar a 33.600 bps, el modem con que nos vayamos a conectar también debe ser capaz de llegar a esta velocidad; por ejemplo, si nuestro proveedor de Internet sólo tiene modems a 28.800 bps, únicamente podremos enganchar a esta velocidad, ya que la conexión se establece a la velocidad del modem más lento.

Otros factores como las capacidades de voz o el software incluido con el modem, deben ser evaluados; respecto a éste último, la oferta suele consistir en un paquete de comunicaciones, fax y funciones de contestador automático en caso de modems con voz.

¿Interno o externo?

Existe una clásica controversia: ¿es mejor un modem externo o un modelo interno? Puesto que existen ventajas y desventajas en cada caso, nosotros nos vamos a limitar a exponerlas, sin llegar a recomendar ninguno de ellos.

Un modelo externo nos obliga a tener una fuente de alimentación independiente, y añade 2 cables más a la habitual maraña que cuelga del equipo; esto lo evitamos con un modelo interno. Ahora bien, en un modem externo tenemos a la vista todos los leds que indican el funcionamiento del mismo, algo vital a la hora de detectar problemas de conexión. En un modelo interno no tenemos a la vista esa información. Por otro lado, la opción externa depende totalmente del tipo de UART instalada en el PC; y si estamos trabajando en una máquina relativamente desfasada, puede ser que no obtengamos el rendimiento esperado. En un modem interno, la UART viene ya incorporada, y ese problema no existe. Por el contrario, un modelo externo aprovecha uno de los dos puertos COM del PC no usado normalmente, y la opción interna implica añadir un puerto serie adicional, surgiendo conflictos.

 
El futuro

Ya se está oyendo hablar de los modems que funcionan a 56 Kbps; se trata de una nueva tecnología que aprovecha las ventajas de las centralitas digitales y que permite conseguir esta alta velocidad de conexión. Sin embargo, todavía no está del todo madura, y debe ser aprobado por la ITU para convertirse en un estándar. Un posible obstáculo estriba en que existen dos grupos luchando por imponer su visión de la tecnología 56K; por un lado, US Robotics, fabricante de gran prestigio, y por el otro, el resto de sus competidores, con Rockwell Semiconductor a la cabeza. Por tanto, de momento habrá que conformarse con los modelos actuales a 33.600, pero conviene buscar siempre posibilidades de ampliación. Nunca se sabe.

Los modelos externos de modems ocupan espacio en el escritorio y nos obligan a tener una fuente de alimentación independiente.En el caso de un portátil hay pocas opciones: en general debe optarse por un modelo PCMCIA. Los modems externos son muy recomendables para equipos con pocas ranuras internas de expansión

La RDSI

La RDSI (Red Digital de Servicios Integrados) o ISDN, como se la conoce fuera de nuestro país, es un sistema de conexión digital que permite alcanzar altas tasas de transferencia; es la opción ideal para, por ejemplo, realizar videoconferencia a nivel profesional. Sin embargo, y hablando desde el punto de vista del usuario de a pie, tiene una desventaja muy importante: el precio. Necesitaremos una tarjeta RDSI, y tendremos que solicitar la instalación de la línea digital en nuestro domicilio. Si vamos a conectarnos a Internet, habrá que contratar con el proveedor el acceso mediante RDSI. Todo esto supone una importante inversión, que no merece la pena si no vamos a emplearlo de forma profesional, por lo que no nos parece una opción a considerar por la mayoría de los usuarios.Algunos modems externos pueden colocarse en vertical para ahorrar espacio en la mesa de trabajo.
Plug and Play muy recomendable

En un gran número de ocasiones, la instalación de un modem interno puede llegar a ser un auténtico calvario, debido al clásico problema de los conflictos entre IRQ. Ya que los puertos COM1 y COM3 comparten la misma línea de interrupción (al igual que el COM2 y el COM4), añadir un puerto serie al sistema es una posible fuente de problemas, salvo que podamos desactivar el COM2 del ordenador, o establecer la IRQ del modem a una no usada por el equipo. Por ello, es altamente recomendable que nuestro modem cumpla con la norma PnP; de esta forma, la configuración queda facilitada en gran medida, puesto que el modem buscará una interrupción no usada en el sistema.

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:23 pm
Escaner

(http://www.duiops.net/hardware/escaner/pc081poporta07.gif)
El escáner es un dispositivo que cada vez goza de mayor popularidad y aceptación entre todos los usuarios, y no sólo entre los profesionales de la imagen. Y es que no estamos hablando únicamente del retoque fotográfico de alto nivel; digitalización de páginas de texto para su tratamiento OCR, o escaneado de documentos para su gestión en soporte magnético, entre otros cometidos.

Para aconsejaros bien de cara a la adquisición de este periférico, es preciso explicar antes su funcionamiento, así que vamos allá.

El principio de funcionamiento de un escáner es la digitalización, es decir, la conversión de una información analógica a datos comprensibles por nuestro querido PC; para ello, se vale de una serie de componentes internos que posibilitan este objetivo. Una fuente de luz va iluminando, línea por línea, la imagen o documento en cuestión, y la luz reflejada en la imagen es recogida por los elementos que componen el CCD (Charged-Couple Device), dispositivo que convierte la luz recibida en información analógica. Por último, un DAC (Digital-Analog Converter) convierte los datos analógicos en valores digitales.

Este es, a grandes rasgos, el funcionamiento del escáner. Sin embargo, necesitamos conocer más conceptos; por ejemplo, la resolución. Cuando se habla de una resolución óptica de 600 ppp (puntos por pulgada), estamos indicando que su dispositivo CCD posee 600 elementos. Cuanta mayor sea la resolución, más calidad tendrá el resultado; en la actualidad, lo mínimo son 300 ppp, aunque 600 ppp es una resolución más conveniente si vamos a digitalizar fotografías. No obstante, la mayoría de escáneres pueden alcanzar mayor resolución, mediante la interpolación; se trata de un algoritmo por el cual el escáner calcula el valor situado entre dos píxeles digitalizados, a partir del valor de estos. Por ello, hay que saber diferenciar entre la resolución óptica (real) y la interpolada.

Profundidad de color

Este parámetro, expresado en bits, indica el número de tonalidades de color que un pixel puede adoptar; lo normal en la actualidad es un valor de 24 bits por pixels. Aunque hasta hace poco los escáneres de blanco y negro, tonos de grises o 256 colores eran muy populares, lo cierto es que los 24 bits de color se han convertido en un estándar, lógico si se tiene en cuenta que en la actualidad cualquier tarjeta gráfica es capaz de mostrar esta cantidad de colores.

Sin embargo, hay escáneres capaces de utilizar 30 o incluso 36 bits de color, pero la mayoría lo hacen a nivel interno, para disminuir el intervalo entre una tonalidad y la siguiente; posteriormente, lo que envían al PC son únicamente 24 bits. Por otro lado, muy pocos programas pueden gestionar esos bits adicionales de color.

El estándar TWAIN


En cualquier caso, se necesita un software que actúe de intermediario entre el escáner y la aplicación que tratará el archivo digitalizado; afortunadamente se ha logrado establecer un estándar, denominado TWAIN (según algunos, la palabra viene de Technology Without An Interesting Name, algo así como "Tecnología sin nombre interesante"), hasta el punto de que no se concibe un escáner que no incluya su correspondiente driver Twain. Se trata de un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándar; su diseño permite que podamos digitalizar una imagen desde la aplicación con la que acabaremos retocándola, evitando pasos intermedios.

En este punto es importante tener en cuenta un detalle: es recomendable que el driver Twain del escáner a adquirir sea lo más potente y flexible posible; no basta con que nos permita elegir resolución, tamaño y tipo (color, grises, etc.) de la imagen o documento, sino que también posea controles para ajustar los parámetros que influyen en el proceso de digitalización: niveles de contraste, colores, etc.

Tipos de escáner

Hasta ahora, hemos visto el funcionamiento interno de estos dispositivos; es el momento de echar un vistazo a la amplia oferta del mercado, dividida en tres tipos: escáneres de mano, de sobremesa y de rodillo. El escáner de mano es, con mucho, la alternativa más económica, puesto que elimina gran parte de los mecanismos que encarecen a los dispositivos de sobremesa; más concretamente el de tracción, ya que es el usuario quien mueve el escáner sobre la imagen o documento a digitalizar. La ventaja económica y de ahorro de espacio tiene su contrapartida en la poca fiabilidad del proceso, ya que depende de la habilidad y el pulso del usuario, y mover el escáner de forma demasiado lenta o rápida puede afectar al resultado final. Asimismo, puede ser complicado digitalizar una página de un libro, con un escáner de mano.

Frente a estos modelos, los de sobremesa representan la alternativa más profesional y de calidad, aunque también más cara, y realmente son los que más se están extendiendo. A modo de pequeñas fotocopiadoras, el documento o imagen se coloca sobre un cristal bajo el cual la lente luminosa se desplaza, digitalizando el documento. La mayor complejidad del dispositivo, así como el sistema de escaneado, le permiten obtener una gran calidad y fiabilidad, aunque como inconvenientes podemos citar su mayor tamaño y precio.

Por último, el escáner de rodillo es una interesante alternativa, a medio camino entre los dos anteriores; como su nombre indica, el escáner utiliza como mecanismo de tracción un rodillo que recoge automáticamente el documento y lo digitaliza. La calidad obtenida no es tanta como en los modelos de sobremesa, pero es una excelente opción para usuarios con determinadas necesidades.

Software incluido

Generalmente, se incluye software de regalo con el escáner; suele tratarse de versiones reducidas de excelentes programas de retoque o de OCR (Reconocimiento Optico de Caracteres), pero también de otras aplicaciones más sencillas, que pueden quedarse cortas según qué usuarios las em pleen. Aquí es evidente que no se puede exigir demasiado, pero es preciso buscar un escáner que incluya al menos un buen software de tratamiento de imágenes y otro de OCR. En algunos casos se añade algún programa de gestión documental, que puede venirnos bien si vamos a archivar gran cantidad de documentos; en cualquier caso, es una sabia norma el buscar un software lo más potente posible, ya que es mejor pasarse que quedarse cortos.

Un par de recomendaciones

No hay que olvidar que la inmensa mayoría de los escáneres trabajan a 24 bits de color; esto significa que, incluso aunque no necesitásemos más de 256 colores, el dispositivo no va a dar buen resultado con una profundidad de color inferior. Resumiendo, nuestra tarjeta gráfica deberá estar configurada para esa cantidad de colores, si no queremos obtener resultados más pobres de lo normal.

Nuestra segunda recomendación está de alguna forma relacionada con la primera; no debemos adquirir un escáner sin antes comprobar si nuestro equipo podrá estar a la altura. No basta con tener un 486 con 8 Megas de memoria y un disco duro normalito, para que nos vamos a engañar; la digitalización y tratamiento de imágenes exige un uso intensivo de la CPU, así como una buena cantidad de memoria y mucho, mucho espacio en disco. En definitiva, se impone un análisis de nuestro PC, previo a la compra de cualquier tipo de escáner.

La mejor conexión

Un escáner puede tener diferentes formas de conectarse al ordenador, cada una con ventajas e inconvenientes. Una conexión por puerto paralelo nos ahorra la necesidad de abrir el PC y facilita la instalación, pero es notoriamente más lenta que otras soluciones.

La alternativa SCSI es mucho más rápida y fiable, aunque es preciso abrir el equipo, y lidiar con la clásica configuración de la cadena de dispositivos SCSI; otro detalle a tener en cuenta es el tipo de tarjeta SCSI que el escáner puede incluir. Si ésta tiene un diseño propietario y no es totalmente compatible con la norma (lo cual no es infrecuente), podemos tener problemas a la hora de conectar el escáner en otros ordenadores con tarjeta SCSI.

Por último, otros modelos incluyen una tarjeta ISA de diseño propietario; el tema es evidente, si deseamos usar el escáner en otro sistema, este deberá poseer una tarjeta idéntica, o tendremos que desmontar la nuestra y pincharla en el otro equipo. Por supuesto, cada usuario empleará su escáner según sus necesidades, por lo que aquí nos limitamos a citar las diferentes posibilidades existentes.

Algunos escáneres permiten obtener una gran calidad y fiabilidad, aunque siempre existen los inconvenientes del tamaño y el precio.

Existen escáneres de rodillo con alimentador de hojas, algo que facilita al usuario, en gran medida, el trabajo a realizar.

El driver Twain es un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándarLos escáneres motorizados se utilizan para digitalizar grandes cantidades de texto mediante un programa OCR.

Calibración

Efectivamente, estos dispositivos también necesitan ser calibrados; esto se realiza de diversas formas. Por ejemplo, muchos escáneres de mano incluyen una hoja con diferentes tonalidades de color, que debe ser digitalizada para que nuestro periférico establezca los patrones necesarios. Asimismo, es importante que nuestra impresora de color pueda reproducir correctamente la imagen original; para ello es preciso establecer una relación entre los colores que ésta puede imprimir, y los que el escáner puede digitalizar. Se suele emplear un modelo, que primero se imprime en la impresora y posteriormente se digitaliza; se comparan las diferencias y se crea un archivo de configuración, conteniendo los ajustes que permitirán corregirlas. Aunque no todos los modelos permiten este tipo de calibración, lo cierto es que cada vez se utiliza con mayor frecuencia.

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:24 pm
Los Keyboards

El teclado es el único medio estándar (hasta el momento) de comunicar órdenes a nuestra máquina. Como es muy probable que la tecnología de reconocimiento de voz no se estandarice a corto y medio plazo y sea algo habitual en los PC domésticos, conviene que conozcáis los diferentes tipos que existen, ya que tendréis teclado para rato.

Desde el inicio de la era del IBM PC el teclado ha ido evolucionando. Los primeros tenían 83 teclas y no y no incluían indicadores luminosos de ningún tipo. Eran conocidos como teclados PC/XT. Este tipo de teclados sólo pueden utilizarse en los ordenadores del tipo XT, y hemos de deciros que únicamente los podremos encontrar en los museos particulares.

El teclado AT surgió con la aparición de los IBM PC AT. Este modelo ya disponía de indicadores luminosos y de una tecla más: Petsis o SysReq, que se utilizaba en antiguas aplicaciones multiusuario. No se puede conectar a los modelos PC y XT.

El tercer paso fue el AT Extendido. Este teclado añadió teclas hasta alcanzar 101 teclas (102 en los modelos internacionales, una más correspondiente, en nuestro caso, a la "ñ"). Se añaden dos teclas de función más (Fll y F12) y el conjunto de ellas se disponen en una fila en la parte superior del teclado. Se duplican las teclas Control y Alt, la tecla BloqMayús se lleva a la ubicacón original de Control y las teclas de movimiento del cursor se duplican para un acceso más cómodo.

Después de esta última mejora del estándar, algunos fabricantes variaron el diseño del teclado AT, incorporando calculadoras que duplican las teclas de función y además son programables o haciéndolos ergonómicos.

 
La elección del teclado

En los teclados existen dos tecnologías que controlan la pulsación de las teclas, así tenemos los teclados que funcionan por:

   1. Contacto capacitivo (de membrana).
   2. Contacto mecánico.

Los primeros son más baratos y su tacto es más suave. Los segundos hacen un clic característico al pulsar las teclas y su funcionamiento es más fiable y duradero (también valen más caros). Los que tienen un espacio de trabajo reducido probablemente busquen teclados pequeños que ocupen poco.

También hay otros dos puntos importantes: los teclados ergonómicos y las teclas de Windows 95. Los teclados ergonómicos intentan adaptarse a la anatomía natural de las manos para obtener la mayor comocidad en el usuario y evitarle forzadas posturas perjudiciales para la salud. Por tanto, estos teclados son siempre llamativos, al dividir la disposición de las teclas en dos grupos (uno para cada mano) y mostrar diferentes inclinaciones en varias partes del teclado. Ya hemos citado las ventajas de estos periféricos; se nos ocurre una desventaja, y es que hace falta acostumbrarse a una disposición de teclas tan diferente como la de estos teclados, y si por diversos motivos debemos utilizar también teclados normales (en el trabajo, etc), no acabaremos de habituarnos nunca.

Y el otro punto que decíamos, son las teclas de Windows 95. Son tres que se añaden en la parte inferior, que no se usan en DOS. Aportan cierta funcionalidad, relativa a menús contextuales y al de Inicio. La desventaja está en que disminuye considerablemente el tamaño de la barra de espacios, y la proximidad a las teclas Alt y Alt Gr suele causar equivocaciones al pulsarlas (sobre todo en los juegos). Pero nos tendremos que acostumbrar, pues los teclados hoy en día son así.

source:  http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:25 pm

El Mouse o Raton

(http://www.duiops.net/hardware/ratones/BS00551_.gif)


Historia de los ratones

Recordamos que cuando compramos nuestro primer PC, en el paquete incluían una cosa que llamaban "ratón". En los tiempos en los que los ordenadores raramente llevaban disco duro y en que las aplicaciones eran francamente rudimentarias, el ratón era un espectador más en la mesa de trabajo de la cual habíamos decidido expulsarlo por ineficaz.

Las cosas cambiaron, y hoy en día está claro que el ratón es el mejor amigo del hombre (hablando de ordenadores, claro). Desde la estandarización de Windows como entorno gráfico (pronto como sistema operativo) la tesis de que el ratón no sirve para nada es totalmente rebatible. En este sentido debemos decir que el ratón es imprescindible para un manejo rápido del sistema.

Al igual que el teclado, el ratón es el elemento periférico que más se utiliza en un PC. Los ratones han sido los elementos que más variaciones han sufrido en su diseño. Es difícil ver dos modelos y diseños de ratones iguales, incluso siendo del mismo fabricante.

 
Tipos de ratones



Existen diferentes tecnologías con las que funcionan los ratones. Son las siguientes:

    * Mecánica
    * Óptica
    * Optomecánica

De estas tecnologías, la última es la más utilizada en los ratones que se fabrican ahora. La primera era poco precisa y estaba basada en contactos físicos eléctricos a modo de escobillas que en poco tiempo comenzaban a fallar. Los ópticos son muy precisos, pero necesitan una alfombrilla especial colocada en una orientación determinada. Lo malo es que fuera de esa alfombrilla metálica el ratón no funciona.

Existen ratones especiales, como por ejemplo los trackballs , que son dispositivos en los cuales se mueve una bola con la mano, en lugar de arrastrarla por una superficie. Son los dispositivos más utilizados en los portátiles, ya que son estáticos e ideales para cuando no se dispone de mucho espacio. Hay otro tipo de ratones específicos para algunas aplicaciones, como por ejemplo las presentaciones por ordenador. Estos ratones suelen ser inalámbricos y su manejo es como el del tipo trackball o mediante botones de dirección. Y por último, podemos ver en los modelos más modernos las ruedas de arrastre que permiten visualizar más rápidamente las páginas de Internet.

Eso, por no hablar de dispositivos (ya no se pueden llamar ratones) con diseño de ciencia-ficción, diseñados para navegar por la red con el mínimo esfuerzo posible, o ratones que incluyen un teclado numérico en su parte superior. Y la guinda del pastel podrían ser los "gatos", superficies sensibles que poseen una especie de bolígrafo que permite pulsar en ella (como en los portátiles o los ordenadores de mano)

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:27 pm
Tarjetas gráficas

Antes de elegir una tarjeta gráfica tendremos que evaluar nuestras necesidades. Si, por ejemplo, somos usuarios a nivel de paquetes de gestión, o programadores, la elección irá dirigida a las tarjetas aceleradoras de Windows, en 2D por supuesto. Si, por el contrario, lo nuestro son los videojuegos o el diseño en 3D (programas de modelado, render o CAD) hay que buscar una aceleradora 3D.

 
Chip o controlador gráfico

Actualmente existen chips para tarjetas gráficas muy potentes, la mayoría de las veces con potencia de cálculo superior a la del procesador principal, pero también muy diferentes entre sí. Hace algunos años, no se le prestaba en absoluto atención a la calidad de la tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de partida a la hora de mejorar estas tarjetas, ya que, junto con la evolución de la tecnología en los monitores, cada vez soportaban mayores resoluciones al incorporar memorias entre 1 y 3 Mb.

Pero la auténtica revolución gráfica fue en el sector tridimensional, el 3D, donde se necesitan potencias de cálculo muy superiores que el microprocesador central no puede soportar. Fundamentalmente, lo que hace un chip 3D es quitar la labor del procesador de generar los triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo haga sola liberando al procesador de otras tareas. Con esto, se obtiene una mejora muy grande en lo que se refiere a la velocidad, y además se han incorporado multitud de efectos gráficos fáciles de usar por los programadores que mejoran sustancialmente la calidad de los gráficos. Las primeras tarjetas con 3D para el mercado de consumo fueron aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser demasiado rápidas y con un soporte de juegos muy limitado.

La decisión de elegir un chip u otro es bastante compleja. Dentro del campo 2D, gracias al estándar VESA, todas las tarjetas son compatibles entre sí. Sin embargo, en los chips 3D (o la parte 3D de los chips 2D/3D), existen más problemas puesto que no todos contienen las mismas instrucciones (¿quién no ha oído hablar de los famosos parches para una u otra tarjeta?). Esto pasaba sobre todo en los primeros juegos acelerados 3D para MS-DOS. Por ello, se han creado unos APIs, que consiguen solucionar estos problemas, y funcionan bajo Windows 95/98. Éstos son el DirectX de Microsoft (el componente Direct 3D en concreto) y el OpenGL de Silicon Graphics. Más abajo tienes infromación sobre estos APIs. Y también, hay que recordar que no todas las tarjetas 3D son iguales: unas sirven digamos para "trabajar" (las compatibles con programas como 3D Studio, TrueSpace...) y las que sirven para "jugar". Muy pocas tarjetas se desenvuelven bien en estos dos campos.

Y ya para terminar este apartado, dejemos fijadas ciertas bases de conocimiento:

    * Actualmente, en el mercado de consumo, existen 2 tipos de aceleradoras gráficas:
          o Las propias aceleradoras 3D, tarjetas independientes que sólo entran en funcionamiento cuando se ejecuta algún juego que necesite su funcionamiento. Estas tarjetas requieren una tarjeta 2D que se encargue de las tareas normales, con un único requisito de tener un mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un cable externo.
          o Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único chip que se encarga tanto de las funciones 2D como de las funciones 3D de una aceleradora. Los últimos modelos que están apareciendo estos meses son realmente buenos y no tienen nada que envidiar a las aceleradoras 3D puras.
    * Y ya por último, ten en cuenta que las tarjetas aceleradoras pueden servir para "trabajar" o para jugar. Una aceleradora profesional de 300.000 ptas. será incapaz de acelerar cualquier juego normal, y una aceleradora 3D pura de 30.000 no podrá renderizar ningún tipo de gráfico en programas como 3D Studio o TrueSpace. Hay muchas tarjetas híbridas 2D/3D que pueden acelerar juegos muy bien, y también renderizar gráficos profesionales de una manera bastante aceptable.

 
Librerías y APIs

Cada chip gráfico tiene una forma de procesar las rutinas implementadas en ellos, por lo que hay una incompatibilidad (sobre todo en el 3D, ya que en el 2D existe el estándar VESA que libera de estos problemas).

Para ello, han surgido las librerías de programación, para unificar en un API las diferentes funciones, y destacan 2:

    * OpenGL, de Silicon Graphics, que está adoptada por sistemas como Unix, Iris, Windows NT, para profesionales.
    * DirectX, de Microsoft, limitada a Windows 95/98 y dedicada a los juegos.

Depende de nuestro uso del ordenador, nos decantaremos por el soporte de uno u otro (aunque hay varias tarjetas gráficas que soportan los dos).

 
Buses

Las placas de video se fabrican hoy día para buses PCI y AGP (estos buses permiten características como Plug and Play y Bus Mastering, ésta última para optimizar las operaciones de transferencia de la tarjeta). Estas tarjetas se suelen usar en ordenadores Pentium o Pentium II y equivalentes (como el K6 o el K6-2 de AMD). Se puede aún encontrar de segunda mano alguna ISA para ordenadores 386 y 486, y las VESA están ya abandonadas. Para saber más cosas sobre estos buses, accede a la sección de Placas base.

Lo único, decir que las tarjetas AGP, usadas en ordenadores Pentium II/III son capaces de usar la memoria RAM como memoria de texturas, es decir, no sólo la memoria que viene incluida en la tarjeta gráfica. Por ello, los pocos juegos que hay actualmente para AGP, son capaces de tener texturas animadas o de alta resolución moviéndose a una velocidad asombrosa. Esta memoria de texturas no está disponible para placas Socket 7 ni para placas Slot A con el Athlon de AMD. Además, el AGP ofrece un ancho de banda superior al PCI: si el PCI va a 66 MHz, el AGP va a 133 MHz, con unas variantes: el AGP 2x a 266 MHz y el AGP 4x a 533 MHz. Lástima que los programas actuales no exploten sus posibilidades, pero esto terminará con el AGP 4x que llegará en 1.999. Y por último, hay que decir que no todas las tarjetas AGP son "AGP verdaderas", es decir, que utilizan la memoria RAM como mmoria de texturas. Las AGP no verdaderas son todas aquellas que tienen tanto versión PCI como AGP, o bien que la versión AGP ha evolucionado de la PCI (puede haber que tenga versión PCI y luego una versión AGP verdadera). Y las AGP verdaderas son aquellas que han sido diseñadas para tal fin, y que sólo existen en versión AGP. Todas las tarjetas AGP verdaderas hoy día son 2x, mientras que las AGP que no utilizan la memoria RAM como memoria de texturas son 1x (un modo sencillo de diferenciarlas). También se pueden diferenciar las AGP 4x y las AGP 2x, las primeras llevan 2 hendiduras en los contactos de la zona de conexión y las segundas llevan sólo una.

 
La memoria

La controladora de vídeo en un ordenador es la responsable de transmitir la información al monitor para que la podamos ver en la pantalla. Hay una gran variedad de tarjetas de vídeo, cada una con sus características especiales. Cuantos más píxeles sean capaces de dibujar en pantalla por la unidad de tiempo, mejor rendimiento obtendremos en las aplicaciones que usen intensivamente los gráficos, como por ejemplo Windows. Vamos a poneros un ejemplo para comprenderlo con un par de imágenes:

(http://www.duiops.net/hardware/tarjgraf/resolb.jpg)
(http://www.duiops.net/hardware/tarjgraf/resola.jpg)

   1.  Puedes ver cómo en en primer caso, los iconos se ven más grandes y, por tanto, caben menos. Por consiguiente, el logotipo de Duiops se verá con menos definición y más "cuadriculado". Las ventanas se colocarán unas encimas de otras y el trabajo se hará muy engorroso.
   2. En el segundo caso, los iconos se ven más pequeños y, por tanto, caben más. Por consiguiente, el logotipo de Duiops se verá con más definición y más perfilado. Los píxels son muy difíciles de apreciar. Las ventanas podrán abrirse una al lado de la otra, de forma que se vea el contenido de ambas, y el trabajo será más amigable.

Pero todos estos puntos necesitan almacenarse en RAM. Para ello, las tarjetas gráficas tienen chips de memoria, y hoy día el mínimo que se puede encontrar son 4 Mb, aunque se recomienda un mínimo de 8. Para poder conseguir mayores resoluciones a más cantidades de colores, hay que ampliar la memoria. Para saber la que necesitamos, hay que multiplicar la resolución horizontal por la resolución vertical; esto nos da la cantidad de RAM necesaria para trabajar a 8 bits de color. Es preciso multiplicar el resultado por dos para obtener la cantidad necesaria para 16 bits de color, y por tres para los 24 bits. Hoy día las tarjeras gráficas domésticas llevan hasta 32 Mb de memoria, los cuales permiten alcanzar resoluciones tan asombrosas como 2048x1536 a 32 bits (más de 4.000 millones de colores)

Recordemos que más memoria en la tarjeta gráfica no implica mayor velocidad, a no ser que la utilice como memoria caché.

También hay que tener en cuenta el tipo de memoria incorporada; frente a la DRAM clásica es mejor utilizar otros tipos, como la EDO o la VRAM; al disponer ésta de dos puestos permite aumentar el ancho de banda en las transferencias de información.

Otra opciones, como la WRAM (que optimiza las operaciones de manejo de bloques de memoria), la MDRAM (memoria multibanda que no retarda los procesos de conmutación de bancos) o la SDRAM (RAM síncrona capaz de trabajar a la misma velocidad de reloj que el chip de la tarjeta) deben ser considerada.

Las últimas tarjetas utilizan SGRAM, de dos tipos. Podemos encontrar memoria DDR en algunas tarjetas (Double Data Rate), la cual aprovechando ciertas fases del ciclo de reloj hasta ahora no utilizados, es capaz de proporcionar un notable incremento en el ancho de banda disponible, con respecto a la memoria convencional SDR (Single Data Rate). Cuando más aumentas la resolución más "atasco" se produce debido a las limitaciones propias de la memoria. Con el sistema DDR esta limitación ya no existe y es posible utilizar resoluciones de 1280x1024 e incluso de 1600x1280 sin ninguna pérdida de velocidad.

 source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:28 pm
Discos Removibles


A la hora de ampliar nuestros ordenadores nos mueve algo que se puede definir con una palabra clave: necesidad. Necesidades de potencia, versatilidad, rapidez, y cómo no, almacenamiento. El software va tomando continuamente un tamaño mastodóntico, y además nuestro trabajo con el ordenador va ocupando cada vez más espacio; curiosamente no basta con un disco duro de gran tamaño, puesto que éste también se va llenando rápidamente.

Todos tenemos datos y programas de los que no queremos o no podemos desprendernos, aún en el caso más que probable de que estos últimos estén desfasados: bases de datos, imágenes y sonidos, documentos, etc. Surge por tanto la necesidad de guardar esa información en algún soporte que nos permita eliminarla de nuestro disco duro y reinstalarla en él cuando sea preciso. El medio removible por excelencia es el disquete de 3 1/2", aunque relacionado con él aflora un insondable misterio, al que ningún gurú informático ha respondido: ¿cómo es posible que un dispositivo que sólo puede almacenar 1.440 Kilobytes sobreviva durante tantos años en un mundo donde la longevidad se mide en escasos meses, y es rarísimo el software que cabe en un sólo disquete? Queda clara, por tanto, la necesidad de contar con una forma de almacenar la mayor cantidad de datos posible, en un soporte removible. El mercado pone a disposición un extenso catálogo de alternativas; comentaremos los más conocidos y empleados, enumerando sus ventajas e inconvenientes. Citaremos las cintas magnéticas o streamers, cintas DAT, discos removibles (ya sean magnéticos o magneto-ópticos), y discos CD-ROM grabables, entre otros.

Streamers

Las unidades de cinta o streamers emplean un sistema similar al de casete de audio. Su capacidad puede variar entre 40 Megas y varios Gigas, y son ideales para realizar grandes copias de seguridad (backups), en los que el tiempo no sea importante, ya que su mayor desventaja estriba en su notoria lentitud, tanto al grabar como al recuperar la información; en este último punto hay que tener en cuenta que al ser un sistema secuencial, para localizar un dato debe pasar primero por los que se encuentren almacenados previamente.

También es importante saber que estos dispositivos suelen aportar la característica de compresión, por lo que la capacidad que proclaman en su publicidad es siempre la que se obtiene al comprimir la información. En otras palabras, hay que informarse bien de la capacidad de la unidad con y sin compresión. Y también asegurarse de que las cintas usadas cumplen, al menos, con el estándar QIC; y si también permiten el uso de cintas Travan (otro estándar), mucho mejor.

Cintas DAT

Existe una variante de las cintas streamers normales: las cintas DAT (Digital Audio Tape o Cinta Digital de Audio). Se trata de cintas de cuatro milímetros, bastante más pequeñas que las normales QIC y similares a las empleadas en la industria musical. Su capacidad se mide en gigabytes, normalmente más de dos. Su velocidad es también bastante mayor que la de las QIC, y su implementación suele hacerse invariablemente con SCSI; por supuesto, también son ideales para grandes copias de seguridad. Y seguro que ya os imagináis la desventaja: el precio. Estas unidades no suelen bajar de los veinte mil duros, lo que unido a sus especiales características las hacen más propias de entornos profesionales (servidores de red, etc.) que de usuarios domésticos.

Discos removibles


Las dos alternativas anteriores, debido a sus características, se orientan más exclusivamente a la realización de grandes copias de seguridad. Sin embargo, el caso de los discos removibles es diferente; se trata de unidades que combinan a la perfección rapidez de acceso, un precio bastante ajustado y una considerable capacidad de almacenamiento.

Pueden usar la tecnología magnética tradicional o la magneto-óptica; en ésta última se combinan, como su nombre indica, las dos técnicas, siendo un sistema más seguro en cuanto a la integridad y fiabilidad de la información almacenada (ventajas del láser), aunque la velocidad de grabación se resiente bastante. La capacidad más básica de este tipo de discos suele estar en 100 Megas, pasando por 230, 540, y 640, hasta llegar al gigabyte de capacidad (por supuesto, según marcas y modelos). Uno de los mayores atractivos de estas unidades estriba en su velocidad de acceso, hasta el punto de que pueden utilizarse en la mayoría de los casos para ejecutar programas desde los mismos discos. La ventaja es, por tanto, muy evidente.

CD-ROM grabables


Hasta hace no mucho tiempo, las grabadoras de CD-ROM se encontraban fuera del alcance del usuario final, principalmente por su precio. Sin embargo, éste se está reduciendo continuamente, hasta el punto de ser una opción a considerar por cualquiera. ¿Ventajas? Más de 600 Megas de capacidad y la posibilidad de ser utilizados en cualquier PC dotado de lector de CD estándar frente a la necesidad, por parte de los discos removibles, que cada PC donde se quieran utilizar cuente con una unidad de su tipo.

El principal problema consiste en que sólo se pueden grabar una vez (aunque esa importante pega comenzará a desaparecer en un breve espacio de tiempo; ver recuadro "CD-RW"), por lo que se utilizará para guardar toda la información de forma definitiva, que no necesite ser modificada en ningún momento.

¿Unidad interna o externa?

La práctica totalidad de las unidades removibles se encuentra disponible en formatos interno y externo. Está claro que un dispositivo externo nos permite, teóricamente, usarlo en otros equipos, pero es preciso tener en cuenta ciertos factores. Si la unidad es externa, implica que la conexión será por puerto paralelo o por SCSI; si elegimos SCSI, obtenemos mayor rendimiento, pero no podremos utilizar la unidad en otras máquinas, si éstas no disponen de controladora SCSI, y además con el mismo tipo de conector.

La conexión por puerto paralelo elimina ese problema, pero no está exenta de problemas; será necesario contar con un puerto paralelo mejorado EPP o ECP para obtener una tasa de transferencia aceptable, y aún así el rendimiento se verá reducido de forma considerable. Personalmente, el que suscribe prefiere unidades internas SCSI, aunque en este caso, la conexión IDE se presenta como posible alternativa a la SCSI, siendo sus ventajas más evidentes la sencillez de instalación y su relación precio/rendimiento.

CD-RW

Recientemente ha irrumpido en la industria un nuevo estándar, que puede inclinar la balanza hacia el lado de los discos compactos: el CD-RW. Se trata de unidades que pueden grabar CD-ROM más de una vez; ésto, como podréis imaginaros, supone una gran ventaja, ya que se consigue unir una excelente capacidad de almacenamiento con la comodidad de poder utilizar los discos en otras unidades. No obstante, por el momento, su precio y rendimiento, amén de algunos problemillas menores relativos a su compatibilidad, nos hacen prever que su utilización será de forma minoritaria; aunque claro, esto no se puede asegurar al cien por cien.

 
Otros detalles

Hay otros factores a considerar: aunque la mayoría de los dispositivos externos exigen un transformador externo del que obtener alimentación eléctrica, algunos incluyen dicha fuente en la misma carcasa de la unidad, lo que nos evitaría un trasto más sobre la mesa; por tanto, es interesante conocer el sistema de alimentación del periférico antes de adquirirlo.

El otro detalle a tener en cuenta es la protección contra escritura del disco removible; algunos la realizan por software, mediante alguna utilidad incluida en el paquete. Es cuestión de gustos, pero suele ser más cómodo deslizar manualmente una pestaña del disco, que tener que iniciar el software en cuestión cada vez que queramos protegerlo o desprotegerlo.

¿La elección?


Finalizaremos el artículo con la misma palabra clave con que lo empezamos: necesidades. Estas deben condicionar nuestra decisión de compra: si, por ejemplo, deseamos realizar una copia de seguridad completa de nuestros datos, de forma esporádica, una unidad de cinta QIC será suficiente.

Los CD-ROM grabables son más indicados para almacenar datos o programas valiosos, que no sea preciso modificarlos pero sí utilizarlos o consultarlos con relativa frecuencia.

Por último, los discos removibles son ideales si lo que necesitamos es realizar frecuentes copias de nuestros datos, que puedan ser borrados o modificados con asiduidad, o incluso si deseamos ejecutar diferentes programas sin tener que instalarlos previamente en nuestro disco duro.

Conclusiones

Siguiendo la trayectoria de esta sección, hemos intentado guiar vuestras decisiones de compra de componentes sin decantarnos por una marca u otra, o por un sistema u otro (algo casi siempre difícil, tanto por calidad como por aceptación de las mismas). Esperamos haber sido de gran ayuda a los que en este momento puedan estar planteándose la adquisición de un dispositivo de almacenamiento removible.

Tradicionalmente reservadas al mercado profesional, las unidades de cinta son ahora una buena opción también para usuarios domésticos y pequeñas empresas.

source: http://www.duiops.net/


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:30 pm
CD/DVD-ROM


El CD-ROM es el segundo elemento más codiciado por los usuarios de ordenadores personales. El gran sueño de tener muchísima información almacenada en muy poco espacio se hace realidad con las enciclopedias multimedia en disco CD-ROM que además de incluir información textual y gráfica como las enciclopedias tradicionales, incorporan sonido, vídeo y un potente sistema de búsqueda, que es realmente lo más útil para un usuario de enciclopedias.

Con las unidades de CD-ROM pasa algo parecido a lo que ocurre con las tarjetas de sonido. Es más difícil perderse debido a que son menos las características que hay que tener en cuenta.

Las características en las que os debéis fijar a la hora de comprar una unidad de CD-ROM son las siguientes:

Instalación

Las unidades de CD-ROM pueden ser de instalación interna o externa. Las ventajas de una sobre otra depende del uso que se le vaya a dar. Si tenemos varios ordenadores podemos tener una unidad externa para transportarla y utilizarla con todos. Si no tenemos espacio disponible en el ordenador para instalarla (cosa rara pero ocurre a veces) la solución es una instalación externa (o una caja más grande ;-) ). La mayoría de los casos aplicarán una instalación interna.

Interfaz

Es el tipo de conexión y modo de funcionamiento eléctrico que utilizan. El CD-ROM necesita un interfaz para transferir los datos al ordenador y hay diferentes tipos: Creative, Panasonic, Sony, E-IDE, Mitsumi, DMA/33 y SCSI. Si queréis añadir un CD-ROM y disponéis ya de tarjeta de sonido consultad las especificaciones técnicas y comprobad de qué clase es el interfaz que incorpora para poder elegir correctamente la unidad de CD. El interfaz E-IDE permite conectar el CD-ROM a la controladora de disco duro como si se tratara de un segundo disco duro.

Velocidad

Es uno de los aspectos más importantes. Está claro que cuanta mayor sea la velocidad, mejor será la respuesta del sistema a la hora de leer datos y reproducir sonido y vídeo desde el CD. Los valores que se han ido tomando, son 1x, 2x, 3x, 4x, 6x, 8x, 10x, 12x, 14x, 16x, 18x, 24x, 28x, 32x, 36x y 40x. La x hay que sustituirla por 150 Kb/seg. Os recomendamos, hoy por hoy, que compréis a partir de un 32x ya que los demás casi no se fabrican y los precios de los más rápidos son cada vez más bajos.

Velocidad de acceso


Es el tiempo medio que tarda la unidad en acceder a los datos cuando se los pedimos. Los valores típicos oscilan entre 100-250 ms. Está claro que cuanto menor sea el valor, mejor.

Tamaño del buffer

El buffer es una memoria especial que se encarga de transferir la información del CD al interfaz. No se trata de una memoria caché, pero permite enviar datos en paquetes más grandes, con lo que se logran mayores transferencias (pero no milagrosas). Los valores típicos van desde los 64 a los 512 Kb.

Compatibilidad

CD-XA, CD-1 (M2, F2), PhotoCD, multisesión, CD grabable y regrabable,  son distintos tipos de CD-ROM que se pueden leer en una unidad que especifique qué es compatible con estos sistemas. Por ejemplo CD-XA quiere decir arquitectura avanzada; CD-I puede leer CD-I de Phillips y Video CD. PhotoCD lee el formato multisesión de discos de fotografías Kodak. Hay algunas unidades que permiten leer discos Macintosh para poder utilizarlas en este tipo de unidades.

Inserción de CD

Por bandeja y por Caddy. El Caddy es una especie de caja en la que se inserta el CD para después introducirlo en la unidad. La ventaja principal es que las unidades que utilizan Caddy cogen menos polvo y se pueden colocar en posición vertical, cosa que es imposible hacer con una unidad de bandeja. Estas últimas son con las que posiblemente nos encontremos en las tiendas.

Controladora propia

Hay algunos CD-ROM que incluyen controladora propia bien sea porque no se ajustan a los interfaces más utilizados, o bien porque utilizan interfaz E-IDE y tenemos cuatro discos duros instalados, no siendo posible su conexión a la controladora de disco duro.

source: http://www.duiops.net/


Título: Re: Todo Sobre la Pc
Publicado por: templar en 12 Diciembre 2004, 22:31 pm
La Bios


Ahora nos meteremos un poco con la famosa y misteriosa BIOS, también llamado el "SETUP" (recuerda que se accede pulsando la tecla SUPR mientras hace el test de memoria al arrancar, aunque en otras placas más raras se hace con F1 o combinaciones de otras teclas). Ante todo tenemos que decirte que no existe la configuración de BIOS perfecta, sino que cada una de las configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos, conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle en un punto le hará bajar en los demás. En realidad la configuración más ideal es la que viene por defecto, pero esta última suele traer unos valores un tanto "holgados" para ofrecer máximas compatibilidades. Pongamos un ejemplo: en las bios que soportan RAM y RAM EDO, hay una opción que permite aumentar la velocidad de este segundo tipo. Sin embargo, si esa opción la utilizamos con el primer tipo habría problemas, por lo que la opción determinada es ese acceso un poco más rápido quitado, con el fin de que vaya bien con las dos memorias.

Antes de comenzar, ten en cuenta de que hay dos métodos para restaurar los valores iniciales en caso de error: uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los valores por defecto. La otra opción es factible en el caso de que el ordenador no arranque. En este caso, habrá que cambiar el jumper de la placa base que sirve para borrar la CMOS (chip donde la BIOS guarda sus valores, recuerda que la BIOS está en una memoria ROM, Read Only Memory -> memoria de sólo lectura). Si carece de dicho jumper, habrá que quitar la pila de litio que alimenta a la CMOS. Si la pila está soldada a la placa base, lee la frase que viene a continuación:

Y nos queda por decir lo típico, queno nos responsabilizamos de los posibles problemas ocasionados por la mala utilización de estos consejos sobre la BIOS, y que se menciona con un propósito meramente informativo. Es sólo para usuarios avanzados. Así que quedas avisado. Aunque te todas formas no hay demasiado peligro. Si hay alguna opción que no entiendes, no la toques. También recuerda apuntar en papel todos los valores anteriores en caso de perder rendimiento y no verte obligado a usar la opción LOAD BIOS DEFAULTS

Dicho esto, te comentaremos todos y cada uno de los valores de la BIOS en cada una de sus secciones. Dado que no todas las BIOS son iguales, habrá opciones que estén en las antiguas o en las nuevas, aunque trataremos de decir lo más posible:

STANDARD CMOS SETUP

    *  Fecha y hora. Pues eso, la fecha y la hora. Recuerda que si tienes Windows 95 OSR2 o Windows 98 más una placa base de última generación ésta será la hora que te aparecerá en la barra de tareas de Windows, así que pon la correcta).
    * Primary Master/Primary Slave/Seconday master/Secondary Slave: si tu BIOS es de las nuevas, déjalo en TYPE AUTO para quitarte problemas (lo detecta todo correctamente) y pasa al siguiente apartado. Si no tienes auto, sigue leyendo:
    * TYPE: 1-46, son discos duros predefinidos; USER es el introducido por el usuario o el detectado por el IDE HDD AUTO DETECTION (recomendamos usarlo), y AUTO es lo que hemos dicho en el párrafo anterior.
    * CYLS, HEAD, SECTOR: son los cilindros, cabezas y sectores. Es muy importante saberlo, especialmente si la opción IDE HDD AUTO DETECTION nos presenta las tres opciones del MODE (NORMAL, LARGE y LBA). Si no los sabes, ya puedes ir comenzando a desmontar el ordenador y mirar la pegatina del disco duro.
    * PRECOMP Y LANDZ: son dos valores arbitrarios y casi podemos meter el número que nos dé la gana sin que afecte al rendimiento. Se puede poner un 0 (cero) en ambos casos, y en el segundo también un 65535. Por ejemplo, el LANDZ es el lugar donde se coloca el brazo lector del disco duro al principio.
    * MODE: es el método de acceso a los discos duros. NORMAL es el modo de acceso tradicional, de menos de 528 Mb., LBA es para más de 528 Mb. y LARGE es para discos de 528 Mb. sin LBA. Al menos ésta es la teoría, pues nosotros tenemos un disco IDE de 6,3 Gb. y el IDE HDD AUTO DETECTION sólo muestra la opción NORMAL. También aparece una opción AUTO para que lo detecte solo.
    * FLOPPY DRIVE A/FLOPPY DRIVE B. Con esto pondremos el tipo de unidad de disquete que se está utilizando en ese momento, con una relación entre el tamaño del disquete y su tamaño en pulgadas. Si tienes una sola unidad recuerda ponerla como A: y dejar la B: vacía
    * BOOT SECTOR VIRUS PROTECTION: Esto también puede situarse en el apartado BIOS FEATURES SETUP. Hay que dejarlo en DISABLED sobre todo cuando instalamos el Windows.

BIOS FEATURES SETUP

Aquí suelen diferir unas BIOS de otras. Primero pondremos las opciones de una BIOS moderna y después las de una BIOS un poco más antigua:

    * 1st Boot Device/2nd Boot Device/3rd Boot Device/4th Boot Device: Decide el orden en que quieres que el ordenador reconozca las unidades con los archivos de arranque (recuerda que son el COMMAND.COM, IO.SYS y MSDOS.SYS). Dichas opcionses pueden ser:
          o IDE 0: Arranca desde el disco IDE maestro en el canal primario
          o IDE 1: Arranca desde el disco IDE maestro en el canal segundario
          o IDE 2: Arranca desde el disco IDE esclavo en el canal primario
          o IDE 3: Arranca desde el disco IDE esclavo en el canal secundario
          o Floppy: Arranca desde la(s) unidad(es) de disquete
          o ARMD FDD/ARM HDD: Arranca desde una unidad LS-120 o ZIP, o desde un disco IDE maestro en el canal primario
          o CDROM: Arranca desde una unidad CD-ROM ATAPI (según nuestras pruebas, puede ser IDE o SCSI)
          o SCSI: Arranca desde una unidad SCSI (según lo tengamos en la BIOS de la controladora SCSI)
          o Network: Arranca desde la red
    * TRY OTHER BOOT DEVICES: Prueba otras opciones que no haya sido posible incluir en las 4 anteriores.
    * QUICK BOOT: Recomendamos poner DISABLED. Lo que hace botear rápidamente cuando el ordenador está encendido. La opción DISABLED da tiempo para pulsar la tecla <Del> (es decir, SUPR) mientras hace el test de memoria, y espera durante 40 segundos a recibir alguna señal del disco duro IDE (en el caso de que lo tengamos configurado, aunque este tipo suele ser mucho menor si lo está correctamente. ENABLED hace no espere a reconocer el disco IDE, y si no recibe una señal inmediatamente no lo configurará. Tampoco podremos arrancar la BIOS pues no saldrá el mensaje de pulsar la tecla <Del>. En este último caso, para entrar en la BIOS tendremos que apagar y encender el ordenador con el botón frontal.
    * ABOVE 1 MB. MEMORY TEST: SÓLO SALE SI LA ANTERIOR OPCIÓN ESTÁ EN ENABLED. Permite testear o no más allá del Mb. de memoria. Recomendamos dejarlo en ENABLED, ya que si no hace el test podemos tener problemas.
    * BOOT UP NUMLOCK STATUS: ON hace que las teclas de la calculadora del teclado (a la decha del todo) funcionen como números, y OFF hace que funcionen como flechas.
    * FLOPPY DRIVE SWAP: Si está en ENABLED cambia la unidad A: por la B: sin tener que hacerlo con el cable físico. Normalmente déjalo en DISABLED.
    * FLOPPY ACCESS CONTROL y HARD DISK ACCESS CONTROL: Determinan el tipo de acceso a su respectiva unidad. Las opciones son READ/WRITE o READ-ONLY (Escritura/Lectura o Sólo Lectura). Si no es por alguna extraña razón, déjalo siempre en READ/WRITE
    * PS/2 MOUSE SUPPORT: Permite con ENABLED activar el soporte para un ratón del tipo PS/2 y con DISABLED dejarlo para que funcione enchufado en un puerto serie. En el caso de que exista un jumper en la placa base, habrá que unir las patillas 2-3 para activar el soporte PS/2 (normalmente este jumper no suele existir).
    * PRIMARY DISPLAY: Es el tipo de monitor conectado al ordenador. Puede ser MONO, CGA 40x25, CGA 80x25, VGA/EGA o ABSENT (Ausente). Tienes un monitor digamos "normal" pon VGA/EGA si no quieres tener algunos efectos indeseados.
    * PASSWORD CHECK también llamada SEGURITY OPTION: Sirve para poner una contraseña. Tiene tres opciones: ALWAYS es para ponerlo al iniciar un ordenador (se queda el llamado "prompt" o guión parpadeante esperando a que lo introduzcamos), SETUP (sólo sale al entrar en la BIOS) o DISABLED (recomendado) para desactivarlo.
    * BOOT TO OS/2: Por esta opción en ENABLED si tienes el sistema operativo OS/2 y quieres que use más de 64 Mb. de la memoria del sistema. Si no tienes OS/2, déjalo en DISABLED
    * EXTERNAL CACHE: Permite usar la caché L2 de la placa base. Recomendamos altamente poner ENABLED, aunque si tienes problemas no tendrás más remedido que dejarlo en DISABLED.
    * SYSTEM BIOS CACHEABLE: Cuando se pone en ENABLED (altamente recomendable) el segmento de memeoria F0000h puede ser escrito o leído en la memoria caché. El contenido de este segmento de memoria se copia siempre de la ROM de la BIOS a la RAM del sistema para una ejecución más rápida.
    * VIDEO SHADOW: Cuando se pone ENABLED, la BIOS se copia a la memoria del sistema e incrementa la velocidad de vídeo. Puede tener 2 ó 3 opciones: si tiene ENABLED y DISABLED, ponlo en ENABLED; y si tiene ENABLED, CACHED y DISABLED, pon CACHED. Activarlo puede dar problemas en sistemas operativos de 32 bits.
    * C8000-CBFFF Shadow / CC000-CFFFF Shadow / D0000-D3FFF Shadow / D40000-D7FFF Shadow / D8000-DBFFF Shadow / DC000-DFFFF Shadow: Son distintos datos extendidos localizados en la ROM que se copian a su respectivo rango de direcciones en la memoria el sistema. Normalmente está puesto en DISABLED (lo recomendamos para usuarios INEXPERTOS - NORMALES), aunque los más EXPERTOS o simplemente para probar podéis poner algunas opciones en ENABLED a ver qué pasa.

otras opciones:

    *  CPU INTERNAL CACHE: Sirve para activar la caché interna del micro, y siempre hay que ponerlo en ENABLED.
    * IDE HDD BLOCK MODE: Transfiere los datos por bloques, y lo soportan los discos de más de 100 Mb.
    * GATE A20 OPTION: Referente a la RAM, ponlo en ENABLED
    * MEMORY PARITY CHECK: Hay que ponerlo en DISABLED para las memorias sin paridad (lo más normal), y ponlo en ENABLED para verificar el bit de paridad de la memoria RAM. Las únicas memorias con paridad suelen estar en 486s o Pentium de marca como los IBM.
    * TYPEMATIC RATE SETTING: ENABLED permite configurar la velocidad de repeticion y estados de espera del teclado.
    * TYPEMATIC RATE (CHARS/SEC): Hay que poner el número máximo (30) para conseguir más caracteres por segundo.
    * TYPEMATIC DELAY(MSEC): Hau qye poner el mínimo (250) para que el tiempo de espera sea el mínimo
    * NUMERIC PROCESSOR: Para activar el coprocesador matemático. Desde los 486 DX la opción está obsoleta.

CHIPSET SETUP


Este es el apartado donde más difieren unas BIOS con otras, y es el campo más peligroso y donde quizás puede exprimirse más el rendimiento. Si es una BIOS de las antiguas aquí se incluirá la próxima opción de "PCI/PNP SETUP". No cambies estas opciones si no estás seguro, de hecho, verás que algunas opciones son tan complejas que ni siquiera nosotros las sabemos:

    * USB FUNCION: Permite activar o desactivar el soporte USB (Universal Serial Bus). Ponlo en ENABLED si dispones de un sistema operativo que lo soporte, como Windows 95 OSR2 + USB Support, Windows 95 OSR2.1 o Windows 98. Si no, déjalo en DISABLED.
    * USB LEGACY SUPPORT: Con ENABLED se tiene un teclado y ratón USB. Como lo normal hoy día es no tenerlo, déjalo en DISABLED.
    * SDRAM CAS LATENCY: Ni idea de lo que es, y tiene las opciones 3, 2, AUTO. Ponlo en AUTO por si acaso.
    * DRAM DATA INTEGRITY MODE: Tiene dos opciones: ECC (ponlo si lo soportan los módulos de memoria) y PARITY (ponlo si no lo soporta)
    * DRAM TIMING LATENCY: LOW, FAST, NORMAL. Es el tiempo que tarda el sistema en responder a las llamadas de la memoria. Prueba en FAST si no tienes problemas y no pierdes estabilidad. Suele traer también una opción AUTO.
    * PIPE FUNCTION: Tampoco tenemos ni idea de lo que es, pero como la opción por defecto es ENABLED, pues déjalo ahí.
    * GATED CLOCK Esto sirve para controlar el reloj interno del bus de datos de la memoria. Si está en ENABLED el reloj nunca para, cuando está en DISABLED se parará el reloj automáticamente si no hay activar en el bus de datos de la memoria. Pon la opción que quieras, no sabemos cuál es la mejor.
    * GRAPHIC APERTURE SIZE: Decide el tamaño del búfer de frames programable. Esta región no debería sobrepasar al tamaño de RAM instalada, así que pon un número igual o menor. Cuanto mayor sea, mejor irá.
    * VGA FRAME BUFFER. Pues eso, el rango de memoria del búfer de frame. Ponlo en ENABLED.
    * VGA DATA MERGE: Unir las palabras lineales del ciclo del búfer de frames. Ni idea para qué sirve, por si acaso déjalo en DISABLED.
    * PASSIVE RELEASE: Sirve para activar un mecanismo del puente sur cuando es PCI Master. La revisón PCI 2.1 requiere que este campo esté activado. Sólo para usuarios experimentados. Nosotros lo tenemos en ENABLED y parece que va bien, ponlo tú también sobre todo si tienes un dispositivo PCI 2.1
    * ISA MASTER LINE BUFFER: Desactiva o desactiva el búfear linear del ISA Master. Prueba a ponerlo en ENABLED.
    * DELAY TRANSACTION: El tiempo para contactar con PCI 2.1. Échalo a suertes, pero por si acaso escoge DISABLED.
    * AT BUS CLOCK: Sólo afecta al ISA. Esta opción se usa para selecciona las configuraciones I/O del reloj del bus. Las configuraciones posibles surgen de acuerdo con variar el reloj del sistema, por ejemplo, en un sistema con una velocidad de bus de 50 MHz, selecciona PCICLK/6 que podría resultar en un bus de velocidad de 8,33 MHz. No conviene sobrepasar este valor, como mucho 10 ó 12, ya que las tarjetas ISA funcionan a 8 MHz o menos. Por si esto es muy complicado, déjalo en AUTO.

otras opciones:

    *  PIPE FUNCTION: La ejecucion de una instruccion de maquina se lleva en varias etapas (algunas maquinas pueden tener entre 5 y 9 etapas). Entonces cuando la CPU termina de ejecutar la primera etapa de una instruccion comienza a ejecutar la segunda etapa, pero tambien empieza a ejecutar la primera etapa de la siguiente instruccion y asi sucesivamente. Claramente este metodo de ejecucion es mas rapido, que si se hicieran una de tras de otra conmpletamente.
    * L2 CACHE POLICY: Prueba a poner el modo WRITE BACK, que es mejor que WRITE THRU
    * DRAM READ/WRITE TIMING: Pon el valor mínimo si nuestra memoria es de alta velocidad (10-15 ns), para memoria EDO (x222) y para memoria NO EDO (x333)

POWER MANAGEMENT SETUP

Si tu placa es una ATX de las nuevas, tendrás muchas opciones, tan curiosas como encender el ordenador por una llamada de teléfono.

General para todas las opciones:

    * STANDBY MODE: El reloj de la CPU irá a una velocidad más baja, se desconectarán las disquetes y el disco duro, y el monitor se apagará.
    * SUSPEND MODE: Todos los dispositivos excepto la CPU se apagarán. Cada modo de ahorro de energía tiene su respectivo contador. Cuando el contador llegue a cero, el equipo entrará en modo de ahorro de energía. Si se detecta alguna señal o evento durante la cuenta atrás, el contador vuelve al principio de nuevo.

NOTA PARA USUARIOS DE WINDOWS 95 OSR2 y 98: Recomendamos poner los contadores en DISABLED para que no interfieran con los contadores de estos sistemas operativos, además de dejarlo todo en SUSPEND, pues SUSPEND incluye a STANDBY


Vayamos ahora con las opciones propiamente dichas:

    * POWER MANAGEMENT/APM: Pon esta opción en ENABLED para activar las funciones de administración de energía del chipset y APM (Administración Avanzada de Energía), especialmente si dispones de Windows 95 OSR2 o 98. ¡Luego no digas que INICIO - SUSPENDER no te funciona!
    * GREEN PC MONITOR POWER STATE: Sirve para apagar los monitores compatibles con Greep PC. Las opciones son OFF, STANDBY, SUSPEND y DISABLED.
    * VIDEO POWER DOWN MODE. Para apagar el subsistema de vídeo para ahorar energía. Las opciones son STANDBY, SUSPEND y DISABLED.
    * HARD DISK POWER DOWN MODE: Desconecta los discos duros. Las opciones son las tres del apartado anterior.
    * STANDBY/SUSPEND TIMER UNIT y STANDBY TIMEOUT. Son los contadores que os hablábamos antes, el primero para el modo SUSPEND y el segundo para el modo STANDBY. Ponlo en DISABLED para usar los del Windows.
    * SYSTEM EVENT MONITOR BY... Trae unas cuantas opciones, prueba a ponerlas en YES.
    * POWER BUTTON FUNCION: Explica el funcionamiento del botón de encendido externo. SOFT OFF es lo normal, apaga o enciente el ordenador. GREEN, en cambio, hace que el ordenador entre en Green Mode.
    * RING RESUME FROM SOFT OFF: Cuando se activa, el sistema puede salir del modo inactivo por una señal de teléfono del MODEM.
    * RTC ALARM RESUME: Decide una hora para que el ordenador salga del modo de suspensión automáticamente. Si no lo vas a usar ponlo en DISABLED, o, en el caso de que lo uses pero no quieras poner fecha, pon el DISABLED en Date.

PCI/PnP SETUP

Estas opciones sirven para arreglar nuestros queridos conflictos de hardware. En las BIOS más antiguas, cuando el Plug and Pray, ejem.. Play no estaba difundido, suelen estar incluidos en el apartado CHIPSET SETUP.

    * PLUG AND PLAY AWARE O/S: Si tenemos un sistema operativo Plug and Play instalado (Windows 95/98) ponlo en YES.
    * CLEAR NVRAM ON EVERY BOOT: Cuando se pone en YES, los datos de la NVRAM se borrar en cada proceso de arranque (boot). Recomendamos que lo pongas en NO.
    * PCI LATENCY TIMER (PCI CLOCKS): Son los tiempos de retardo en acceder a los dispositivos PCI instalados en el respectivo bus. Las opciones son 32, 64, 96, 128, 160, 192, 224, 248. Prueba a ponerlo en el mínimo, 32.
    * PCI VGA PALETTE SNOOP. Sirve para poder hacer que varias tarjetas VGA operen a la vez en diferentes buses (PCI e ISA), y que puedan extraer datos de la CPU simultáneamente. El bit 5 del registro de comandos del espacio de configuración del dispositivo PCI es el bit 0 del VGSA Palette Snoop (0 es DISABLED). Pon las opciones según lo siguiente:
          o DISABLED: Los datos leídos y escritos por la CPU sólo se redireccionan a los registros de la paleta del PCI VGA. Es decir, que si tienes una tarjeta gráfica PCI o AGP tendrás que poner esto.
          o ENABLED: Los datos leídos y escritos por la CPU se dirigen al registro de paleta del dispositivo PCI VGA y del ISA VGA, permitiendo que los registros de paleta de ambos dispositivos sean idénticos. La opción también tiene que estar puesta en ENABLED si alguna tarjeta ISA instalada en el sistema requiere VGA Palette Snooping.
    * OFFBOARD PCI IDE CARD: Especifica si existe un controlador PCI IDE externo en el ordenador. También debes especificar el slot de expansión PCI de la placa base cuando instalas la tarjeta controlñadora PCI IDE. Si se usa alguna controladora de este tipo, la controladora IDE de la placa base automátivamente se desactiva. Las opciones son DISABLED, AUTO, SLOT1, SLOT2, SLOT3, SLOT4, SLOT5 o SLOT6. Si se selecciona AUTO se determina el parámetro correcto, lo que fuera los IRQs 14 y 15 a un slot PCI del PCI local bus. Esto es necesario para soportar tarjetas PCI IDE no compatibles.
          o OFFBOARD PCI IDE PRIMARY IRQ: Esta opción especifica la interrupción PCI usada por el canal IDE primario en la controladora externa PCI IDE. Las configuraciones son DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED, INTA, INTB, INTC o INTD.
          o OFFBOARD PCI IDE SECONDARY IRQ: Como el anterior, pero el canal secundario.
          o Esta opción especifica la interrupción PCI usada por el canal IDE secundario en la controladora externa PCI IDE. Las configuraciones son DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED, INTA, INTB, INTC o INTD.
    * ASSIGN IRQ TO PCI VGA: Pon esta opción en YES para asignar una IRQ al controlador VGA en el bus PCI. Las configuraciones son YES o NO.
    * PCI SLOT 1/2/3/4 IRQ PRIORITY: Estas opciones especifican la prioridad IRQ paralos dispositivos PCI instalados en los slots de expansión PCI. Las configuraciones son AUTO, (IRQ) 3, 4, 5, 7, 9, 10 y 11, por orden de prioidad. Si tus dispositivos son Plug and Play, ponlo en AUTO.
    * DMA CHANNEL 0/1/3/5/6/7. Te permie especificar el tipo de bus usado por cada canal DMA. Las opciones son PnP o ISA/EISA. Pon PnP si todos tus dispositivos son Plug and Play.
    * IRQ 3/4/5/7/9/10/11/12/14/15 Estas opciones especifican al bus que la línea IRQ está usada. Estas opciones te permiten reservar IRQs para las tarjetas ISA, y determinan si se debería quitar una IRQ para cedérselas a esos dispositivos configurables por la BIOS. El conjunto de IRQs disponibles se determina leyendo el ESCD NVRAM. Si se deben quitar más IRQs del conjunto, el usuario debería usarlas para deservarlas a un ISA/EISA y configurarlo en él. El I/O se configura por la BIOS. Todas las IRQs usadas por el I/O en la placa están configurados como PCI/PnP. IRQ12 sólo aparece si la opción de Mouse Support está en DISABLED. IRQ14 y IRQ15 sólo estarán disponibles si el PCI IDE en la placa estáactivado. Si todas los IRQs están puestos en ISA/EISA e IRQ14 y 15 están asignados al PCI IDE de la placa, IRQ9 todavía estará disponible para los dispositios PCI y PnP, debido a que al menos un IRQ debe estar disponible para ellos. Las opciones son ISA/EISA o PCI/PnP.
    * RESUMEN: Si todos los dispositivos de vuestro equipo son Plug & Play, os recomendamos personalmente poner PCI/PnP en todas las IRQs.

INTEGRATED PERIPHERALS SETUP

Por fin, las últimas opciones. En BIOS antiguas estas opciones están incluidas en Chipset Setup

    * ONBOARD FLOPPY CONTROLLER: Activa o desactiva la disquetera. Si tienes disquetera, ponlo en ENABLED.
    * Onboard Serial Port 1/2
    * Estos campos configuran los puertos serie en la tarjeta. Hay varias direcciones de puerto y canales IRQ que pueden ser seleccionados:
          o 3F8/IRQ4: Dirección de puerto 3f8h, IRQ 4
          o 2F8/IRQ3: Dirección de puerto 2f8h, IRQ 3
          o 3E8/IRQ4: Dirección de puerto 3e8h, IRQ 4
          o 2E8/IRQ3: Dirección de puerto 2e8h, IRQ 3
          o AUTO (recomendado): La BIOS asigna automáticamente direcciones de puerto y canales IRQ automáticamente
          o DISABLED: Desactiva el puerto serie. Esto es especialmente últil si necesitamos la IRQ3 o la 4 para el módem.
    * SERIAL PORT 2 MODE: Esta opción especifica el modo de operación para el segundo puerto serie. Sólo aparece si la opción ONBOARD SERIAL PORT 2 está puesta en AUTO o DISABLED. Las opciones son IR (infrarrojos) o NORMAL.
    * IR TRANSMITTER: Esta opción especifica el tipo de transmisión usada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED.  Las opciones son 1.6 uS o 3/16 Baud. No hay opciones por defecto.
    * IR DUPLEX MODE: Esta opción especifica el tipo de transmisión usada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. Las opciones son HALF o FULL (suponemos que es similar al full duplex o half duplex de las tarjetas de sonido). No hay opciones por defecto.
    * IR RECEIVER POLARITY: Esta opción especifica el tipo de recepción osada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. No hay opciones por defecto.
    * ONBOARD PARALLEL PORT: Este campo configura el puerto paralelo de la placa. Hay varias direcciones de puerto y canales IRQ que pueden ser seleccionados.
          o 378/IRQ7: Dirección de puerto 378, IRQ 7
          o 278/IRQ5: Dirección de puerto 278, IRQ 5
          o 3BC/IRQ7: Dirección de puerto 3BC, IRQ 7
          o DISABLE: Desactiva el puerto paralelo
    * PARALLEL PORT MODE: Esta opción especifica el modo del puerto paralelo. Las opciones son:
          o NORMAL: Se usa el modo del puerto paralelo normal
          o Bi-Dir: Usa este campo para soportar transferencias bidireccionales en el puerto paralelo.
          o EPP: El puerto paralelo puede ser usado con dispositivos que contemplan la especificación Enhanced Parallel Port (EPP). EPP usa las señales del puerto paralelo existente para ofrecer transferencia de datos bidireccional y asimétrica conducida por la unidad del host.
          o ECP: El puerto paralelo puede ser usado con dispositivos que contemplan la especificación Extended Capabilites Port (ECP). ECP usa el protocolo DMA para ofrecer datos de transferencia hasta 2,5 Megabits por segundo. ECP ofrece comunicación bi-direccional simétrica.
          o EPP VERSION: Especifica el número de versión usado para la especificación Enhanced Parallel Port. Esta opción sólo aparece si modo del puerto paralelo está puesto en EPP. Las configuraciones son 1.7 o 1.9.
          o ECP/EPP (recomendado). Da igual que el dispositivo del puerto paralelo no soporte ni ECP ni EPP. Tú ponlo aquí.
    * PARALLEL PORT DMA CHANNEL: Esta opción sólo aparece si modo del puerto paralelo está puesto en ECP. Esta opción configura el canal DMA usado por el puerto paralelo. Las opciones son DMA CHANNEL 0, 1 o 3
    * PARALLEL PORT IRQ: Esta opción especifica el IRQ usado por el puerto paralelo. Las opciones son AUTO (recomendado), (IRQ) 5 o (IRQ) 7.
    * ONBOARD IDE: Esta opción especifica el canal IDE usado por el controlador IDE de la placa. Las opciones son ENABLED/AUTO/BOTH, PRIMARY, SECONDARY y DISABLED. A veces desactivar el segundo canal suele dar problemas porque Windows lo detecta y coloca uno de sus signos de interrogación amarillos.

source: http://www.duiops.net


Título: Re: Todo Sobre la Pc
Publicado por: Turambar en 14 Diciembre 2004, 03:35 am
Esta guía está muy bien... aunque es imprescindible tener en cuenta de que la mayoría de la información aquí contenida tiene varios años de antiguedad... por lo que pude ver fue escrita entre 1999 y 2000. Mucha agua ha corrido bajo el puente desde esos años, aunque todo lo comentado es correcto, debe observarse que pertenece al pasado.