elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: Rompecabezas de Bitcoin, Medio millón USD en premios


+  Foro de elhacker.net
|-+  Informática
| |-+  Tutoriales - Documentación (Moderadores: r32, ehn@)
| | |-+  Todo Sobre la Pc
0 Usuarios y 1 Visitante están viendo este tema.
Páginas: [1] 2 Ir Abajo Respuesta Imprimir
Autor Tema: Todo Sobre la Pc  (Leído 38,424 veces)
templar
Visitante


Email
Todo Sobre la Pc
« en: 12 Diciembre 2004, 22:09 pm »

Disco Duro

Estructura interna de un disco duro

Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de  aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.

Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).

La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.


Algunos conceptos
Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero  es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal.

Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.

Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).

Citar
Tamaño de clúster y espacio disponible

Un cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que subsana esta limitación, además de otros problemas.

Interfaces: ST506, MFM y RLL

Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera.

Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora.

La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la trasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm.

En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL

Citar
Algunas curiosidades:

El estándar IDE surgió a raíz de un encargo que la firma Compaq le hizo a la compañía Western Digital. Compaq necesitaba una controladora compatible con el estándar ST506, pero debido a la falta de espacio en el interior de los equipos a los que iba dirigida, ésta debía implementar la circuitería de control en el propio disco duro. Está claro que la necesidad es la madre de la inventiva, ¿verdad?

En antiguos discos duros (sobre todo MFM) era imprescindible, antes de apagar el equipo para moverlo de sitio, ejecutar una utilidad especial para "aparcar" las cabezas de la unidad. Con esta operación se depositaban los cabezales en una zona segura del disco, de forma que no pudieran dañar la superficie del disco en caso de movimientos o vibraciones. En la actualidad este proceso lo realiza la unidad de forma automática al ser desconectada (podéis comprobar cómo al apagar el PC, durante un segundo se ilumina el led del disco duro), y no se concibe un disco duro que no incluya esta característica.

Formatear un disco duro IDE a bajo nivel puede ser perjudicial para el mismo. Durante el proceso, que el fabricante realiza en sus instalaciones antes de sacarlo al público, se graban en él las marcas de direcciones y los números de sector. Volver a realizar este proceso en circunstancias o con software no apropiados, puede dañar definitivamente la unidad, hacerla más lenta o generarle sectores defectuosos e irrecuperables. En realidad, el formateo a bajo nivel sólo está justificado en casos muy concretos, como la aparición progresiva de errores a nivel lógico, y nunca por infección de virus (el caso más frecuente). Ciertamente, algunos vicios de la época MFM son bastante difíciles de ser desterrados...

Algunos modelos de discos duros, de diversos fabricantes, sufrían una anomalía con cierta frecuencia, consistente en la paralización del motor que da giro al eje del disco (especialmente tras varios días de falta de uso del equipo por parte del usuario, o también por acumulación de humedad); el resultado era la imposibilidad de iniciar el sistema desde el disco duro. La solución, no demasiado "científica", por cierto, era sacar el disco y propinarle un par de buenos golpes (no demasiado fuertes, claro); y mano de santo. Lo que no podemos describir aquí es el cambio de color en la cara del dueño del ordenador, al ser testigo de semejante "reparación".

Enhanced IDE


La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.

Modos de transferencia

Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo.

Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base.

Otros términos

EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos, como ISA.

Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre son sostenidas, es decir, que suelen ser “picos” de transferencia.

Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.



Buffer y caché

Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché amplio en un disco duro es absolutamente imprescindible.

Más de 520 Megas... ¿por qué no?

Seguro que muchos de vosotros habéis vivido el caso (o al menos habéis sido testigos de él) de ir a instalar un disco duro de alta capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis 528 Megas. Se trata de una nefasta limitación, que curiosamente no está impuesta ni por la BIOS (Basic Input/Output System) ni por el estándar IDE (ni por el DOS, como alguna gente piensa); en realidad, viene dada.... ¡por ambos!

La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número de cabezas y número de cilindros (notación CHS); el estándar IDE soporte 65.536 cilindros, 16 cabezas y 255 sectores por pista, lo que nos da una capacidad bestial, alrededor de 137 Gigas.

Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63 sectores; ya que ambos deben funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capacidad definitiva, que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63 sectores (máximo de la BIOS), lo que nos va a dar un total de 528 Megas.

Para superar esta traba, la BIOS debe implementar el modo de trabajo conocido como LBA (Logical Block Adreesing), que traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente transparente al sistema operativo y al software en general, y aporta la evidente ventaja de poseer acceder a todo el espacio disponible del disco duro del ordenador.

Cuando una BIOS no soporta esta técnica, es preciso emularla por software; para ello, el fabricante de la unidad suele poner a disposición del usuario utilidades especiales que, en forma de driver residente, logran engañar al sistema y obtener el mismo efecto que el LBA por BIOS.

La norma SCSI

Hasta el momento hemos estado comentando los estándares ST506, MFM, RLL, IDE y EIDE, pero nos hemos saltado uno que, tan veterano como los anteriores, ha ido evolucionando (hasta hace poco en otros segmentos de mercado) de forma paralela a ellos. Nos referimos, por supuesto, a SCSI; demos un breve paseo por sus características.

La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y entornos de ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para empezar, SCSI es una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones propias del bus del PC. Además, en su versión más sencilla esta norma permite conectar hasta 7 dispositivos SCSI (serían 8 pero uno de ellos ha de ser la propia controladora) en el equipo; y las ventajas no se reducen al número de periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo (escáneres, impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma.

Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que podemos conectar nuestro disco duro o CD-ROM (o lo que sea) a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un detalle a resaltar que todos los periféricos SCSI son inteligentes; es decir, cada uno posee su propia ROM donde almacena sus parámetros de funcionamiento. En especial, es la controladora el dispositivo más importante de la cadena SCSI, que al poseer su propia BIOS puede sobrepasar limitaciones de la ROM BIOS del sistema.

Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante superior a IDE al no depender del bus del sistema; no obstante, no todo iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las ocasiones, más complejo de configurar, aunque esto último es cada vez menos problemáticos, ya que es preciso resaltar que la norma SCSI también ha evolucionado y mejorado; citaremos a continuación sus diferentes modalidades.


El surtido SCSI

La primera norma, SCSI-1, lograba un máximo de 3 Megas por segundo de transferencia, a una anchura de 8 bits en el bus de datos. La posterior SCSI-2 introdujo mejoras en el control de los dispositivos, inclusión de mejoras de caché y otras, subiendo a 5 Megas de ratio, con la misma anchura de bits que su predecesora. Luego se presentó la variante Fast SCSI-2, que lograba los 10 Megas por segundo, manteniendo esos 8 bits en el bus de datos. El modo Wide se unió después al Fast, resultando el Fast/Wide SCSI-2, con el que se amplió a 16 bits el ancho de banda del bus de datos, lográndose hasta 20 Megas/s de transferencia y permitiendo un soporte de hasta 15 dispositivos en cadena.

Lo último ha sido el Ultra SCSI, con el que se ha conseguido llegar a 40 Megas por segundo a 16 bits y 20 Megas a 8 bits, aunque no debemos pasar por alto la inclusión de la norma SCAM (SCSI Configured Automatically), alo parecido al Plug & Play, que nos libera de la clásica dificultad de configuración de las cadenas SCSI, aunque para ello los dispositivos también deben contemplar el SCAM. Por diversos motivos, SCSI siempre ha sido la alternativa profesional, pero cada vez podemos verla con más frecuencia en el ámbito doméstico; no hay que olvidar que periféricos como unidades Zip o Jaz, magneto-ópticos y escáneres vienen cada vez de forma más frecuente en SCSI, así como el progresivo abaratamiento al que se ven sometidos este tipo de componentes.


Otras formas de usar un disco duro

Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular, imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el resultado puede ser catastrófico.

Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el concepto de mantener tanto la integridad de los datos cómo el correcto funcionamiento del sistema, en el caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de implementación forman las llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información totalmente intacta.

Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software; podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los diferentes discos intalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector erróneo.

Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con dispositivos IDE.


Un poco de historia

Aparte del clarísimo crecimiento que se puede observar a lo largo de todas estas tecnologías, el avance evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa, podemos citar un “calendario” muy especial: durante el año 1992 y principios del 93, los discos duros implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas.

1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de 620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. Hoy día, a finales de 1999, se instalan discos de 8, 12 y 15 Gb.

En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debido a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá frenada por un disco IDE estándar y viceversa.

Por otro lado, la relación precio/Megabyte sigue más o menos la onda de otros componentes informáticos; más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio.

IEEE 1394 Firewire

Este es el nuevo bus de discos duros que se utilizará dentro de unos meses en adelante, por lo que ahora no está a la venta. Sin embargo, es bueno conocerlo, ya que esto se trata de una guía.

El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador.

Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CD-ROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras DV, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras digitales y de DV sin la necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos.

Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras PCI. Para más información, mira el articulo sobre IEEE 1394 Firewire.

Elegir el disco duro. IDE vs. SCSI

Como la función principal del disco duro es la de actuar como almacén de datos a largo plazo, la capacidad es una consideración fundamental. Hay que buscar un disco duro de entre 4 y 12 Gb, dependiendo del tipo de datos que piense almacenar en el disco duro. Otras consideraciones son la velocidad de acceso (busquemos una velocidad mínima de 10 a 12 milisegundos, y si llega a 8 o 6, mejor), el buffer (recomendado de 256 Kb), rpm (revoluciones por minuto, busquemos 7.200) y el tamaño de la caché del disco duro. También es importante considerar el tipo de datos que piensa almacenar en su disco duro. Los formatos de datos actuales (video, sonido y gráficos) pueden requerir varios megabytes de espacio para almacenamiento.

De todas las tecnologías comentadas, cuando pienses comprar un disco duro tendrás dos opciones a elegir: IDE o SCSI. Los discos duros SCSI requieren hardware adicional y son más adecuados para tipos de operaciones de entrada/salida como servidores de archivos. Las unidades de disco duro IDE o EIDE (Enhanced IDE, o IDE mejorado) no requieren hardware adicional y los de la variante UDMA/33 o DMA/66 son casi igual o más veloces que los discos duros SCSI (los SCSI-2 concretamete). Para la mayoría de los usos de alto rendimiento, un disco duro EIDE suele ser el más apropiado y económico.

Otro punto es que el IDE admite en la actualidad cuatro dispositivos (que pueden ser discos duros, CD-ROMs, y algún tipo de disco removible), el SCSI 1 y 2 admite 7 dispositivos (discos duros, CD-ROMs, escáneres y discos removibles) y el Ultra SCSI) admite 15 (el Ultra2 SCSI LVD admite ¡30!). La cantidad de dispositivos que vamos a necesitar es otro factor de elección.

Y por último, informaros bien de las características técnicas del disco duro que tengáis en mente adquirir; si en el establecimiento no pueden informaros bien, solicitad un manual de la unidad, en ellos se suelen detallar todas sus especificaciones técnicas. Aquí tienes algunas páginas:

Seagate Technology:

http://www.seagate.com/

Maxtor:
http://www.maxtor.com/

Western Digital:
http://www.wdc.com/

Quantum:
http://www.quantum.com/

Cuando tengas montada la unidad, comprueba si está particionada, pues la mayoría incluyen el software de gestión comentado anteriormente en una pequeña partición del disco, debiendo ser extraída a disquete con alguna utilidad incluida. De modo que no se te ocurra directamente coger el disco duro, y tras instalarlo, formatearlo. Con ello sólo conseguirás perder los datos del fabricante, que son con los únicos con los que se puede realizar esta labor con seguridad. De lo contrario, corres el riesgo de no acceder a toda la información de la unidad, o dañarlo de forma permanente. Aunque lo mejor es adquirir un disco duro que tenga su capacidad normal y corriente, es decir, que con el FORMAT.EXE se pueda formatear desde un primer momento y que no venga ni con programitas ni con chorradas.

source: http://www.duiops.net


En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #1 en: 12 Diciembre 2004, 22:10 pm »

Los MicroProcesadores

Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla fundamentalmente de los procesadores Pentium4 de Intel y Athlon XP de AMD. Además, están muy extendidos procesadores no tan novedosos, como los Pentium MMX y Pentium II/III de Intel y los chips de AMD (familias K6 y los primeros K7/Athlon).

 
Tipos de conexión

El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas:

    * Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Hay de diferentes tipos:
          o Socket  423 y 478. En ellos se insertan los nuevos Pentiums 4 de Intel. El primero hace referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la tecnología de 0,13 micras (Northwood). También hay algunos de 478 con nucleo Willamete. El tamaño de micras mencionado hace referencia al tamaño de cada transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele estar relacionada con una reducción del calor generado y con un menor consumo de energía. En el zócalo 478 también se insertan micros Celeron de Intel de ultimísima generación similares a los p4 pero más económicos
          o Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se insertan los procesadores Athlon en sus versiones más nuevas:
                + Athlon Duron (versión reducida, con sólo 64 Kb de memoria caché, para configuraciones económicas)
                + Athlon Thunderbird (versión normal, con un tamaño variable de la memoria caché, normalmente 256 Kb)
                + Athlon XP (con el núcleo Palomino fabricado en 0,18 micras o Thoroughbred fabricado en 0,13 micras) es un Thunderbird con una arquitectura totalmente remodelada con un rendimiento ligeramente superior a la misma frecuencia (MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde el K6-2. o con el nucleo T).
                + Ahlon MP (micro que utiliza el núcleo Palomino al igual que el XP, con la salvedad que éste accede gestiona de forma diferente el acceso a la memoria al hora de tener que compartirla con otros micros, lo cual le hace idóneo para configuraciones multiprocesador.
          o Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel.
          o Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para código en 32 bits que sentaría las bases de lo que conocemos hoy día.
          o Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros.
          o Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive.
    * Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los procesadores Athlon antiguos de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base.
    * En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve en lo referente a los microprocesadores de PC.

 
Valoración del rendimiento de un microprocesador

El microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica que es absurdo poner el último procesador hasta los topes de Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o un sistema de almacenamiento (disco duro) lento y escaso. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que evitarlo, dejándonos aconsejar por usuarios experimentados o bien repasarse bien esta Web, donde se puede obtener información se sobra de cómo hacer una correcta compra. Además del microprocesador, la velocidad general del sistema se verá muy influenciada debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de componente en particular para más información.

Hoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, siempre y cuando utilicemos las versiones Windows 95, Word 95 y Excel 95 de cuando el 486 estaba vigente. Sin embargo, según sean más complejos y nuevos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento medianamente óptimo). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Por ello es necesaria la compra de una tarjeta gráfica relativamente potente, dependiendo del presupuesto y las necesidades. Huye de tarjetas muy económicas que el rendimiento puede ser hasta 10 veces inferior el de una tarjeta que cueste el doble.

El uso de los últimos micros que sobrepasan la mítica barrera del GHz se justifica por los nuevos sistemas operativos (el nuevo WindowsXP por ejemplo utiliza muchos recursos de la máquina, mucho más que otros Windows anteriores), los nuevos formatos de audio o vídeo comprimido (DivX y MP3, a diferencia de videos y archivos de sonido normales, estos se descomprimen en tiempo real ,tarea llevada completamente a cabo por el micro), realizar más trabajo en menos tiempo, como compresiones de archivos, renderizado de dibujos en 3D.... o el simple hecho de cargar un programa como Word o el mismo Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy día que mejor PC en términos generales requieren.

 
Conclusiones

Como conclusión, veamos los procesadores que os recomendamos hoy día:

    * Athlon XP. El nuevo procesador de AMD es según nuestra opinión la mejor alternativa sin ninguna duda, sobre todo en relación calidad/precio. Además, con la mayoría del software actual son los micros más rápidos en comparación con los Intel Pentium4 de Intel. A la hora de comprar un micro de este tipo, conviene prestar muchísima atención a la placa base (recomendamos chipsets KT333 y KT400 de Via, nForce2 de nVidia o chipsets de SiS de última generación), a la memoria RAM (siempre con memoria "DDR", olvida placas que utilicen aún SDRAM) y a la tarjeta gráfica especialmente si vas a usar el PC para jugar o para disfrutar de altas resoluciones con altos refrescos en un monitor alto de gama y de gran tamaño.
    * Pentium4. Micro sobre el papel más avanzado que el AthlonXP pero que a la hora de la verdad viene a tener un rendimiento similar. El Pentium4 se caracteriza por su alto número de Mhz, pero fíjate que ejecuta 6 instrucciones por cada ciclo de reloj mientras que el AthlonXP que funciona a menos Mhz ejecuta 9 instrucciones. Normalmente, el micro de Intel de por ejemplo 2200 Mhz va a costar más que el AthlonXP equivalente, en este caso el 2200+ (que en realidad funciona a 1800 Mhz), como puedes ver en la tabla de más abajo. El Pentium4 tiene ventajas como una menor generación de calor, por lo que tendremos en ese aspecto muchos menos problemas que el Athlon. E inconvenientes, principalmente el coste. Podríamos dar muchas más diferencias entre AMD e Intel, pero no tenemos la intención de iniciar ahora una discusión sobre el tema.
    * Multiprocesador AMD, 2 Athlones MP. Mejor esto que un multiprocesador de 2 Pentiums4 Xeon, ya que el precio de esto último se va por las nubes. En caso de disponer de un presupuesto muy generoso puedes ir a este campo, siempre y cuando tengas un sistema operativo preparado para soportar 2 procesadores, tal como cualquier versión de Windows NT, Windows 2000, Windows XP SOLO VERSIÓN PROFESIONAL o por supuesto Linux / Unix y derivados. Con esto puedes distribuir las tareas, como liberar un procesador para que lo utilice sólo un determinado programa, o bien disfrutar del proceso en paralelo, ejecutar más trabajo en menos tiempo. Sólo hay algunos inconvenientes, como el hecho de tener que disponer de, lógicamente, una placa con dos zócalos preparada para dos micros, y de memoria RAM ECC/registrada, que viene a costar 5 veces la memoria que ponemos en nuestros PCs normalmente.
    * Soluciones más económicas, Duron de AMD, Celeron de Intel e incluso Pentium III de Intel. Recomendable si disponemos de muy poco presupuesto o queremos adquirir un segundo equipo para diversas funciones, como por ejemplo hacer un servidor para administrar impresoras, un FTP o páginas Web.

 

xtraído de Tomshardware.com. El Pentium4 usando placa con chipset Intel 850E con memoria RAMBUS PC1066 y el Athlon XP usando placa con nForce2 y memoria DDR PC3200.

Lo que hay en los paréntesis viene a significar: (Velocidad real en MHz del micro / Velocidad en Mhz del FSB, es decir, de la memoria RAM y otros componentes de la placa mediante la aplicación de divisores / Velocidad externa del micro, con la que se comunica el chipset de la placa base)

source: http://www.duiops.net/


En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #2 en: 12 Diciembre 2004, 22:12 pm »

Chipsets


Chipsets

NOTA: Esta descripción de chipsets es sólo válida para micros Pentium, Pentium MMX, Pentium II, Pentium III, AMD K5, AMD K6, AMD K6-2, AMD K6-3 y AMD K7 clásico. Aún no hemos colocado información sobre chipset modernos.


El conjunto de chips, o chipset, es un elemento formado por un determinado número de circuitos integrados en el que se han incluido la mayoría de los componentes que dotan a un ordenador de compatibilidad PC/AT a nivel hardware como, por ejemplo, el controlador de interrupciones, los controladores DMA, el chip temporizador, controladoras de disco duro, etc. Mediante este elemento se han integrado en unos pocos componentes los que antes se encontraban un número de chips independientes relativamente elevado.

Con el paso del tiempo, en el chipset se han ido incluyendo algunos nuevos tipos de dispositivos que han surgido con el avance tecnológico, como es el caso de las controladores de bus USB, el bus AGP, el bus PCI, funciones de administración de energía, etc. Este proceso de integración va a continuar en el futuro, por lo que durante el presente año aparecerán en el mercado conjuntos de chips que incluirán también a la tarjeta gráfica. Tanto Intel, como VIA Technologies y SIS están trabajando en productos de este tipo para microprocesadores tanto de tipo socket 7 como Slot 1 o socket 370.

 
CONJUNTO DE CHIPS PARA SOCKET 7

Si bien en el pasado Intel era la empresa líder en la fabricación de chipsets para microprocesadores de tipo Pentium, en la actualidad ha abandonado el diseño y fabricación de este tipo de productos, habiéndose centrado en la producción de productos de este tipo para sus procesadores basados en la microarquitectura P6 (Pentium II, Pentium III y Celeron). Este hecho ha convenido a este mercado en un campo abierto para los fabricantes asiáticos de este tipo de productos, si bien en el camino algunas empresas relativamente conocidas, como por ejemplo Opti, también han abandonado este mercado.

Sólo VIA Technologies, Acer Labs y SiS producen conjuntos de chips para microprocesadores para socket 7 o super socket 7, por lo que cualquier lector interesado en adquirir, por ejemplo, un procesador de este tipo que use un bus del sistema a 100 MHz deberá utilizar una placa base que emplee un chipset de uno de estos fabricantes.

ALI Aladdin V

Este chipset es otro de los que soporta velocidad de bus de 100 MHz que utilizan los microprocesadores K6-2 y K6-3 de AMD. Al igual que los productos más recientes de VIA Technologies, el Aladdin V soporta el modo x2 de bus AGP y el uso de memoria de tipo SDRAM. A diferencia de lo que ocurre con el MVP3 de VIA, la memoria tag de la caché de segundo nivel está irtegrada en el propio chipset, lo que si bien ayuda a reducir el precio final de las placas base limita ligeramente la flexibilidad de diseño a los fabricantes de este tipo de productos.

Como es lógico, este conjunto de chips incluye el hardware necesario para implementar las controladoras que normalmente se incluyen en todos los ordenadores actuales: un par de canales IDE con soporte del protocolo Ultra DM, un par de puertos USB, puerto para teclado estándar o de tipo PS/2 y conexión para ratón de tipo PS/2. Este conjunto de chips puede manejar tamaños de memoria caché de segundo nivel comprendidos entres 256 KB y 1 MB, cantidad algo inferior a los 2 MB que pueden gestionar los chipset de VIA Technologies o los SiS. El hardware necesario para implementar los puertos serie, paralelo y la controladora de disquetes se encuentra integrado en el propio conjunto de chips, a diferencia de lo que sucede con productos de otros fabricantes en los que es necesario añadir un circuito integrado que añada dicha funcionalidad.

SiS 530

Este es el conjunto de chips más reciente del fabricante SiS para sistema de tipo socket 7 y super socket 7, soportándose prácticamente todos los microprocesadores de este tipo existentes en el mercado. El controlador de memoria caché de segundo nivel puede gestionar hasta un máximo de 2 MB, si bien el tamaño máximo de RAM que puede aprovechar la presencia de la memoria caché es de 256 MB. La cantidad máxima de RAM que se puede gestionar es de 1,5 GB, soportándose el uso de módulos de memoria de tipo SDRAM.

Este chipset es una solución integrada que incluye también un sencillo acelerador gráfico que dispone de funciones de aceleración de gráficos 2D y 3D. Mediante la BIOS de los sistemas basados en este conjunto de chips es posible indicar al hardware que use 2, 4 ó 8 MB de la RAM del ordenador para emplearlos como memoria de vídeo. Para mejorar el rendimiento general del sistema también es posible realizar configuraciones que dispongan de 2, 4 ó 8 MB de memoria SDRAM o SGRAM para utilizarlos exclusivamente como buffer de vídeo. El hardware gráfico también integra una interfaz para realizar la conexión del sistema a pantallas planas de tipo TFT. El producto incluye el resto de prestaciones estándar, como por ejemplo dos controladoras IDE con soporte Ultra DMA, un par de puertos USB, conexiones para teclado y ratón tanto de tipo estándar como PS/2, compatibilidad con el estándar ACPI de gestión de energía, etc.

VIA VP3

Este producto fue el primer conjunto de chips disponible para placas base de tipo socket 7 y super socket 7 que soportaba el bus AGP, aunque lamentablemente este primer producto sólo soportaba el modo xi de dicho bus. El chipset está fabricado con tecnología de 0,5 micras y oficialmente sólo soporta la velocidad de bus de 66 MHz. Comparte con el chipset VIA MVP3 el chip VT82C5868, el cual implementa el puente entre el bus PCI y el ISA. Las placas base equipadas con este producto pueden disponer de una caché de segundo nivel comprendida entre 256 KB y 2 MB, si bien lo más normal es encontrar placas que disponen de 512 KB. La cantidad máxima de memoria RAM que se puede gestionar es de 1 GB.

El resto de la funcionalidad del conjunto de chips se encuentra implementada en el chip VT82C597, el cual integra dos controladoras IDE con soporte de Ultra DMA, un par de puertos USB, controlador de teclado estándar y de tipo PS/2, controlador para ratón PS/2 y reloj CMOS de tiempo real. El controlador de memoria implementado en dicho chip soporta memorias de tipo Fast Page Mode, EDO RAM y SDRAM. En la actualidad se trata de un producto ligeramente desfasado que ha sido sustituido en el mercado por el más avanzado VIA MVP3.

VIA MVP3

Este chipset de VIA Technologies es la segunda solución de este fabricante para microprocesadores de tipo socket 7 o super socket 7 que ofrece soporte de bus AGP, si bien, a diferencia de lo que sucedía con el anterior VP3, en este caso se soporta el modo x2 de dicho bus. El conjunto de chips está formado por dos circuitos integrados, cuyas referencias son VT82C598 y VT82C5868.

El primero de estos chips es el más importante, ya que es el encargado de implementar la interfaz con el microprocesador del sistema. Dicho componente soporta la velocidad de bus de l00 MHz, por lo que en las placas base que integran este conjunto de chips es posible utilizar los procesadores K6-2 y, mediante una actualización de la BIOS del sistema, el nuevo K6-3 de AMD. El chip vT82c598 también implementa el puente entre el bus del sistema y el bus PCI, así como el controlador de memoria. Precisamente este último bloque de este chip es uno de los más interesantes, ya que además de ofrecer soporte para RAM de tipo EDO y SDRAM ofrece la posibilidad de utilizar memoria de tipo DDR SDRAM (Double Data Rate SDRAM), así como una característica que permite que el bus de acceso a la caché de segundo nivel y el de acceso a la RAM del sistema funcionen de modo asíncrono. Esta última prestación hace posible que el procesador del sistema acceda a la caché de segundo nivel a 100 MHz mientras que los accesos a la RAM del sistema pueden efectuarse a 66 ó 100 MHz, lo que hace posible reutilizar en las placas base equipada con el chipset MVP3 módulos SDRAM antiguos de 66 MHz e incluso en algunos modelos módulos SIMM de tipo EDO RAM. Por su parte el chip vT82c5868 es el encargado de efectuar el puente entre el bus PCI y el ISA.

Este conjunto de chips integra un par de controladoras IDE con soporte de Ultra DMA, así como un par de puertos USB, controlador de teclado estándar y de tipo PS/2, controlador de ratón PS/2 y reloj CMOS de tiempo real. El producto también es compatible con la tecnología ACPI de administración avanzada de energía. La versión que actualmente se comercializa del producto está fabricada con tecnología de 0,35 micras.

VIA MVP4


Este conjunto de chips añade a la funcionalidad del anterior MVP3 un acelerador gráfico 2D/3D con soporte de la tecnología AGP, hardware de sonido de 16 bits y las funciones de entrada/salida (puertos sede y paralelo, así como controladora de disquetes) que normalmente están presentes en un chip adicional a los dos que suelen formar un chipset actual. El producto soporta las siguientes velocidades de bus: 66, 75, 83, 95 y 100 MHz. Esta característica hace que las placas base que emplean este chipset puedan utilizar cualquier microprocesador de tipo socket 7 o super socket 7.

Se incluye el hardware necesario para incluir en las placas base un par de controladoras IDE con soporte Ultra DMA, dos puertos USB, puerto de teclado estándar y de tipo PS/2, así como controladora para ratón PS/2. Actualmente no conocemos ninguna placa base que esté disponible con este conjunto de chips.

 
CONJUNTOS DE CHIPS PARA SLOT 1, SLOT 2 Y SOCKET 370

Hasta hace prácticamente un par de meses sólo Intel podía comercializar de forma completamente legal chipsets para microprocesadores de tipo P6 (Pentium II, Pentium III y Celeron) debido a que dicho fabricante posee una serie de patentes y derechos de propiedad intelectual sobre el bus GTL+ de dichos procesadores. Sin embargo, recientemente las empresas VIA Technologies y SiS han firmado con Intel cuerdos de licencia y de cruce de patentes que permiten a ambos fabricantes comercializar conjuntos de chips compatibles con el bus GIL+ sin temor a posibles represalias legales de Intel. Comentar que tanto VIA Technologies como SiS deberán pagar un royaltie a Intel por cada chipset de tipo P6 que vendan. El otro fabricante importante de este tipo de productos, Acer Labs, parece estar en conversaciones con Intel para alcanzar un acuerdo similar, ya que esta empresa tiene anunciada la disponibilidad de un producto de este tipo que sin embargo aún no se ha comercializado.

Acer Labs Aladdin Pro

Este fabricante asiático tiene anunciado desde hace ya algún tiempo un conjunto de chips, denominado Aladdin Pro, compatible con los microprocesadores Pentium II, Pentium III y Celeron de Intel. La disponibilidad de este chipset está probablemente supeditada a la firma de un acuerdo de licencia con Intel que proporcione acceso a Acer Labs a las patentes relacionadas con el bus GTL+, por lo que de momento no existe en el mercado ninguna placa base que disponga de este conjunto de chips.

Intel 440LX, 440EX y 440ZX-66


El conjunto de chips 440LX fue el primer producto de este tipo que ofrecía soporte para la tecnología AGP y era capaz de utilizar módulos DIMM de memoria SDRAM. Este chipset disponía de soporte biprocesador, por lo que existen placas base con dicho conjunto de chips que pueden aceptar la instalación simultánea de dos microprocesadores Pentium II. La velocidad de bus que oficialmente soporta el producto es la estándar de 66 MHz, por lo que hace posible usar todos los microprocesadores Pentium II que usan dicha velocidad de bus y todos los procesadores Celeron que se comercializan actualmente.

El chipset denominado 440EX es una versión reducida del clásico 440LX, al que se le han recortado algunas características para hacer posible la fabricación de placas base de bajo precio destinadas a la creación de sitemas económicos basados en la gama de procesadores Celeron. Las restricciones que tiene este conjunto de chips hacen referencia a la cantidad de memoria RAM que es posible direccionar, el número de zócalos DIMM que es posible colocar en la placa base, el número de ranuras PCI e ISA que se pueden gestionar y, además, no se soportan configuraciones biprocesador. Se trata por lo tanto de un producto recomendable para los usuarios que deseen adquirir sistemas Celeron de bajo coste y con posibilidades de expansión limitadas o equipos Pentium II económicos que no se vayan a ampliar en exceso en el futuro. El 4402X-66 es una versión del nuevo 4402X que, sin embargo, sólo soporta el bus de 66 MHz que usan los procesadores Celeron y los Pentium II con velocidades de reloj comprendidas entre 233 y 333 MHz. Las características de este chipset son similares a las que ofrece el 440EX, si bien dispone de las optimizaciones que Intel ha efectuado sobre el núcleo del 440BX para crear el nuevo 440ZX de bajo coste.

Intel 44OBX, 44OGX y 44OZX

El modelo 440BX fue el primer conjunto de chips para microprocesadores Pentium II que soportaba el bus a 100 MHz empleado en los procesadores que funcionan a 350 MHz y velocidades superiores. Otra de las características que se ha añadido a este chipset, respecto al anterior 440LX, es un soporte más amplio de las funciones ACPI de gestión de energía y la introducción de una versión específica para la creación de ordenadores portátiles basados en procesadores Pentium II. Al igual que sucedía con el 440LX, el 440BX soporta configuraciones biprocesador.

El chipset 440GX es prácticamente idéntico al anterior 440BX, si bien es el encargado de ofrecer la conexión con el resto del sistema a los microprocesadores de tipo Xeon, ya que dichas CPU emplean Slot 2 en lugar de Slot 1. Entre otras mejoras respecto a sus predecesores, cabe destacar la posibilidad de direccionar una mayor cantidad de memoria RAM, característica fundamental en el mercado de estaciones de trabajo al que van dirigidos los ordenadores equipados con procesadores de tipo Xeon.

El 4402X es una versión reducida del hoy popular 440BX, por lo que también soporta la velocidad de bus de 100 MHz. Lamentablemente Intel no ha dado mucha publicidad a este chipset, situación que ha llegado hasta el punto de que en el web de dicho fabricante existe muy poca información técnica sobre dicho producto. En el momento de escribir este artículo no existía en el mercado ninguna placa base que empleara dicho conjunto de chips.

Intel 450NX

Este es el conjunto de chips diseñado por Intel para soportar configuraciones multiprocesador con hasta cuatro microprocesadores de tipo Xeon. Este es el primer chipset que ha creado Intel capaz de soportar configuraciones con multiproceso simétrico con más de dos procesadores, ya que las soluciones anteriores de este fabricante soportaban como mucho dos CPU. Sólo un conjunto de chips que Intel diseñó para su venerable Pentium Pro soportaba sistemas con cuatro de estos procesadores. Actualmente el gigante de la microelectrónica está desarrollando un nuevo producto que hará posible fabricar ordenadores equipados con hasta ocho microprocesadores de tipo Xeon.

Otra característica de este chipset es su soporte del bus de direcciones de 36 bits que pueden utilizar tanto los procesadores Xeon como los Pentium II y Pentium III convencionales, si bien es necesario que el kernel del sistema operativo active dicha posibilidad mediante ciertos bits de algunos registros de configuración del procesador. Este producto también ofrece soporte de la extensión que permite usar a los sistemas operativos páginas con un tamaño de 2 MB. Asimismo se ha incluido una nueva característica que hace posible la conexión de varias máquinas basadas en procesadores Xeon que crea un bus de conexión propietario entre los sistemas mediante el que uno de los ordenadores puede realizar peticiones de acceso a la memoria del otro sistema. Mediante esta tecnología también es posible realizar configuraciones de tipo cluster.

SiS 5600

Este fabricante era bastante conocido en el mercado conjuntos de chips para procesadores de tipo socket y recientemente ha firmado un acuerdo de licencia con Intel que le permite comercializar esta clase de productos para microprocesadores de tipo P6. El SiS 5600 es el primer conjunto de chips para procesadores de tipo P6 que este fabricante lanzó al mercado, si bien soporta tanto el bus a 66 como a 100 MHz.

Este producto es capaz de manejar tamaños de memoria de hasta 1,5 GB, usando RAM de tipo EDO, Fast Page Mode o SDRAM con corrección de errores Ecc. También se integra en el chipset la habitual combinación de controladoras y puertos: dos canales IDE compatibles Ultra DMA, puertos USB y conexiones para teclado y ratón tanto estándar como PS/2. La documentación que hemos podido encontrar sobre este producto es bastante escasa, si bien parece ser que el SiS 5600 no soporta configuraciones de tipo biprocesador.

SiS 600/620

Estos dos productos son sendos chipset para procesadores de tipo P6 que se diferencian en que concretamente el modelo 620 integra un adaptador gráfico compatible con el bus AGP. Ambos productos son capaces de emplear tanto la velocidad de bus de 66 como la de 100 MHz. Ambos conjuntos de chips
integran sendas controladoras IDE con soporte Ultra DMA, un par de puertos USB y la combinación convencional de puertos de teclado y ratón tanto estándar como de tipo PS/2. La cantidad máxima de memoria RAM que se puede direccionar es de 1,5 GB. El bus PCI que se puede implementar con estos
conjuntos de chips es compatible con la versión 2.2 de la especificación PCI, siendo posible diseñar sistemas con un máximo de cuatro dispositivos PCI maestros.

Al igual que cualquier otro producto moderno de este tipo, este chipset soporta la tecnología AGP, tanto el modo x1 como x2. Sin embargo, este conjunto de chips tiene el elemento diferenciador de integrar un adaptador gráfico dotado de funciones de aceleración de gráficos 2D y 3D. El acelerador gráfico es capaz de trabajar tanto en modo UMA (Unified Memory Architecture, Arquitectura de memoria unificada) como en modo convencional. En el modo UMA el conjunto de chips puede utilizar hasta un máximo de 8 MB de memoria del sistema para almacenar el buffer de vídeo, mientras que al usar el modo de funcionamiento convencional es posible gestionar hasta 8 MB de memoria SDRAM o SGRAM que funciona como memoria de vídeo.

VIA Apollo Pro y Apollo Pro Plus

Hace ya bastante tiempo VIA Technologies anunció la disponibilidad del conjunto de chips Apollo Pro, el cual era compatible con el procesador Pentium Pro de Intel. Debido a los posibles problemas de patentes y licencias con Intel, ningún fabricante de placas base comercializó productos que utilizaran dicho chipset. Con la aparición de los Pentium II y de la tecnología AGP, VIA Technologies decidió actualizar las características del Apollo Pro original, lo que originó la aparición del Apollo Pro Plus actual utilizado en placas base de fabricantes como por ejemplo FIC. Actualmente VIA Technologies dispone de una licencia de Intel que le permite comercializar conjuntos de chips para microprocesadores basados en la microarquitectura P6 (Celeron, Pentium II y Pentium III) a cambio del pago de una cantidad económica por la venta de cada chipset. En la actualidad las placas base para procesadores de tipo P6 que usan conjuntos de chips de VIA Technologies, emplean el modelo Apollo Pro Plus debido a su soporte del bus del sistema a 100 MHz y del bus AGP. como es lógico estos productos también integran controladoras IDE compatibles con el protocolo Ultra DMA, un par de puertos USB y la combinación estándar de puertos para teclado y ratón tanto estándar como de tipo PS/2.


source: http://www.duiops.net/

En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #3 en: 12 Diciembre 2004, 22:13 pm »

Tarjetas de Sonido

Tarjetas de sonido
Así funcionan

Las dos funciones principales de estas tarjetas son la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).

En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.

Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta 28 Megas de RAM (cuanta más, mejor).

Efectos

Una tarjeta de sonido también es capaz de manipular las formas de onda definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal Avanzado), que amplía considerablemente la complejidad de los efectos.Por lo que a mayor variedad de efectos, más posibilidades ofrecerá la tarjeta.

Polifonía

¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos refiriendo a la polifonía, es decir, el número de instrumentos o sonidos que la tarjeta es capaz de emitir al mismo tiempo. Las más sencillas suelen disponer de 20 voces, normalmente proporcionadas por el sintetizador FM, pero hoy en día no debemos conformarnos con menos de 32 voces. Las tarjetas más avanzadas logran incluso 64 voces mediante sofisticados procesadores, convirtiéndolas en el llamado segmento de la gama alta.

MIDI

La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se trata de un estándar creado por varios fabricantes, que permite la conexión de cualquier instrumento, que cumpla con esta norma, al ordenador, e intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados secuenciadores MIDI.

En este apartado hay poco que comentar. Simplemente, si vamos a emplear algún instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya los conectores DIN apropiados para engancharla al instrumento en cuestión, y el software secuenciador adecuado, que también suele regalarse con el periférico.

Un detalle que conviene comentar en este artículo, es que en el mismo puerto MIDI se puede conectar un Joystick, algo muy de agradecer por el usuario, puesto que normalmente los conocidos equipos Pentium no incorporan de fábrica dicho conector, algo habitual, por otra parte, en sus inmediatos antecesores, los ordenadores 486.
Frecuencia de muestreo

Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para que el ordenador pueda tratar el sonido, debe convertirlo de su estado original (analógico) al formato que él entiende, binario (digital). En este proceso se realiza lo que se denomina muestreo, que es recoger la información y cuantificarla, es decir, medir la altura o amplitud de la onda. El proceso se realiza a una velocidad fija, llamada frecuencia de muestreo; cuanto mayor sea esta, más calidad tendrá el sonido, porque más continua será la adquisición del mismo.

Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo es la que marcará la calidad de la grabación; por tanto, es preciso saber que la frecuencia mínima recomendable es de 44.1 KHz, con la que podemos obtener una calidad comparable a la de un disco compacto.

Otras consideraciones

Existen otros factores que se deben tener en cuenta: por ejemplo, mucha gente prefiere controlar el volumen de la tarjeta de forma manual, mediante la típica ruedecilla en la parte exterior de la misma. Sin embargo, la tendencia normal es incluir este control (además de otros, como graves, agudos, etc.) por software, así que debe ser tenido en cuenta este detalle si es importante para nosotros.

La popularización de Internet ha propiciado la aparición de un nuevo uso para las tarjetas de sonido: la telefonía a través de la red de redes. Efectivamente, con un micrófono y el software adecuado, podemos utilizar la tarjeta para hablar con cualquier persona del planeta (que posea el mismo equipamiento, claro) a precio de llamada local.

Sin embargo, la calidad de la conversación dependerá de dos conceptos: half-duplex y full-duplex. Resumiendo un poco, full-duplex permite enviar y recibir información al mismo tiempo, mientras que half-duplex sólo puede realizar una de las dos operaciones en cada momento. Traduciendo esto a una conversación, tenemos que el half-duplex nos obliga a hablar como si utilizáramos un walkie-talkie; es decir, hay que esperar a que uno diga algo para poder responder, mientras que el full-duplex nos ofrece bi-direccionalidad, es decir, mantener una conversación normal como si fuera un teléfono.

En algunos casos, el fabricante posee controladores que añaden funcionalidad full-duplex a tarjetas que no implementan esta forma de trabajo, por lo que puede ser una buena idea ir a la página Web del fabricante en cuestión.

Por último, y aunque sea de pasada, puesto que se trata de un requisito casi obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al cien por cien con la normativa Plug and Play; seguro que muchos lo agradecerán.
Pros y contras del puerto IDE

Un gran porcentaje de tarjetas de sonido incluye conexión IDE. ¿Es realmente útil este puerto adicional? En principio, sí que lo es; normalmente, cuando se adquiere una tarjeta de sonido, es casi seguro que el comprador ya posee, o poseerá, un lector de CD-ROM, si es que no compra las dos cosas al mismo tiempo. Los CD-ROM más difundidos implementan la conexión IDE por ser barata y eficaz.

En los ordenadores Pentium se incluyen dos puertos IDE, por lo que no suele haber problemas; ahora bien, si el PC es un 486 o inferior (todavía existe un parque muy elevado de estas máquinas) es bastante posible que el equipo sólo tenga un puerto IDE. Si la tarjeta de sonido incluye su propia conexión, la labor se hará más sencilla, ya que podemos enganchar ahí nuestro lector.

Por otro lado, un puerto IDE adicional consumirá una interrupción más en el sistema (normalmente IRQ 11), y además Windows 95 no se lleva bien con puertos IDE terciarios y cuaternarios, traduciéndose esto en el temible símbolo de admiración amarillo en la lista de dispositivos. A pesar de todo, y vista la situación, la balanza se inclina hacia el lado positivo, ¿no creéis?.

La compatibilidad

Indudablemente, en estos momentos, el mercado de las tarjetas de sonido tiene un nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que se precie debe mantener una total compatibilidad con el estándar impuesto por la compañía Creative Labs; existen otros, como el pionero Adlib o el Windows Sound System de Microsoft. Pero todos los juegos y programas que utilizan sonido exigen el uso de una tarjeta compatible Sound Blaster, así que sobre este tema no hay mucho más que comentar.

Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por hardware. La compatibilidad vía soft puede tener algunas limitaciones; principalmente, puede ser fuente de problemas con programas que accedan a bajo nivel o de forma especial a las funciones de la tarjeta. Asimismo, los controladores de emulación deben estar bien diseñados, optimizados y comprobados, para no caer en incompatibilidades, justo lo contrario de lo que se desea alcanzar. Por tanto, es preferible la emulación por hardware.

Sonido 3D

El sonido 3D consiste en añadir un efecto dimensional a las ondas generadas por la tarjeta; estas técnicas permiten ampliar el campo estéreo, y aportan una mayor profundidad al sonido habitual. Normalmente, estos efectos se consiguen realizando mezclas específicas para los canales derecho e izquierdo, para simular sensaciones de hueco y direccionalidad.

Seguro que os suenan nombres como SRS (Surround Sound), Dolby Prologic o Q-Sound; estas técnicas son capaces de ubicar fuentes de sonido en el espacio, y desplazarlas alrededor del asombrado usuario. Y decimos asombrado, porque el efecto conseguido es realmente fantástico, y aporta nuevas e insospechadas posibilidades al software multimedia y, en especial, a los juegos. Es fácil hacer una recomendación en este tema: ¡No renunciéis al sonido 3D!

Conclusiones

El criterio más inteligente es tener claro para qué la vamos a utilizar: si vamos a pasar la mayor parte del tiempo jugando, podemos prescindir de elementos avanzados, más enfocados a profesionales del sonido. En cualquier caso, ya sabéis: la elección es vuestra.

source:  http://www.duiops.net
En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #4 en: 12 Diciembre 2004, 22:15 pm »

Altavoces

Altavoces

Si el sonido del PC es pésimo, no hablemos del altavoz que lleva. Más de uno ha llegado a desconectar esa chicharra que pita sólo cuando nos equivocamos y que tímidamente se atreve a interpretar una raquítica musiquilla en algunos juegos.

Es fácil saber cuándo un sistema de altavoces no suena bien. A menos que estemos sordos podemos distinguir cuándo el sonido es de calidad y cuándo no.

Dentro del campo de los altavoces para ordenador existe una pequeña controversia. Siempre intentamos comprar un ordenador gastándonos lo mínimo en cada componente, y ello incluye, por tanto, a los altavoces. Esa es única explicación que nosotros damos a la adquisición de los altavocillos de ordenador que se venden en las tiendas, que, por mucho que digan que los están mejorando, suenan horrible. Da pena ir a una tienda y ver cómo decepciona el sonido de los altavoces de un ordenador en exposición, el cual lleva un cartón pegado alrededor del monitor diciendo: "3D Speakers, Digital Surround Sound..." Y luego lo pones y suenan mucho peor que los de una pequeña televisión de 14 pulgadas.

Los altavoces para ordenador están autoamplificados (el amplificador lo lleva uno de los dos, el altavoz activo, que también alimenta al otro, el altavoz pasivo) con conexión a la red eléctrica y control de graves, agudos y volumen. Además de utilizarlos con el ordenador (conectados a la salida "spk-out" de la tarjeta de sonido) también se pueden usar con un Walkman o un Discman conectados a la salida "line-out".

Una observación acerca de los altavoces de ordenador es la potencia en watios. Más de uno que habrá dado cuenta que en las propagandas de unas tiendas anuncian altavoces de 240w y en otras de 15w. Obviamente, se tratan de los mismos altavoces pero con distintas mediciones. El mayor corresponde a la potencia de pico (a lo que puede llegar el altavoz) y el otro es la potencia continua. Además, también depende la resistencia o impedancia: 15w a 8 ohmios es lo mismo que 30w a 4 ohmios.

Y algo muy importante que debéis saber es que los altavoces tienen que estar aislados magnéticamente, si no no sería posible colocarlos al lado del ordenador y sobre todo del monitor, sobre el cual interfieren distorsionado la imagen y los colores, pudiendo magnetizar el tubo, con lo que no nos quedará más remedio que llevarlo a reparar. Por norma general los altavoces de los equipos de música no están aislados. Mantenedlos lo más alejados posible del ordenador, monitor y cualquier aparato de televisión.

source:  http://www.duiops.net
En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #5 en: 12 Diciembre 2004, 22:16 pm »

Monitores

Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.

La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes:

Tamaño


Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels.

Resoluclón

Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajáis con Windows la resolución ampliada es fundamental, podréis tener más iconos en pantalla, podréis tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambiéis a ellas, etc.

La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones ampliadas os recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels.

Entrelazado

Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procurad que vuestro monitor sea no-entrelazado.

Frecuencia de barrido vertical

El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el númeto de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable.

Tamaño del punto (Dot Pltch)

Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels.

Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc.

Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.

Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).

Filtros para el monitor

Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática.

En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.

 
La alternativa LCD

Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de especio (LCD posibilita la fabricación de pantalla extraplanas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe...

source: http://www.duiops.net
En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #6 en: 12 Diciembre 2004, 22:21 pm »

Impresoras

Cuando se realiza un trabajo en un ordenador, no importa su naturaleza, tarde o temprano surge la necesidad de plasmar los resultados en papel, elemento éste que no creemos que desaparezca totalmente en favor de la llamada "oficina sin papeles".

Muy al contrario, como hemos citado, en la mayoría de las veces es imprescindible llevar al papel el resultado de nuestro trabajo, seamos diseñadores, contables o programadores. Por ello abordaremos en este artículo los puntos a tener en cuenta a la hora de adquirir una impresora.

Impresoras matriciales

Se puede decir que este es el escalón básico en la oferta de impresoras; muchos os preguntaréis, ¿quién puede querer una impresora de agujas? La respuesta es: mucha gente. Para empezar, son imprescindibles en trabajos donde haya que imprimir sobre papel de copia, es decir, con más de una hoja; esto engloba todo tipo de oficinas y centros, públicos o privados, que empleen ese tipo de papel. También los programadores saben apreciar su valor, ya que para imprimir un gran listado de un programa no vamos a utilizar una máquina láser o de inyección.

Su funcionamiento es simple, un cabezal dotado de una serie de diminutas agujas recibe impulsos que hacen golpear dichas agujas sobre el papel, que a su vez se desplaza por un rodillo sólido. Los modelos más frecuentes son los de 9 y 24 agujas, haciendo referencia al número que de este componente se dota al cabezal; este parámetro también se utiliza para medir su calidad de impresión, lógicamente a mayor número de agujas, mayor nitidez se obtendrá en la impresión.

Como iremos viendo, en realidad no puede hablarse de inconvenientes de un tipo u otro de impresoras, simplemente cada uno tiene una orientación (a un tipo de trabajo) diferente de otro. En el caso de las matriciales, resulta evidente que no sirven para imprimir gráficos, y que su funcionamiento no es precisamente silencioso.

Impresoras de inyección

Sin duda el segmento de más éxito en el campo de las impresoras es el de la inyección o chorro de tinta; su funcionamiento también se basa en un cabezal, en este caso inyector, dotado de una serie de boquillas que expulsan la tinta según los impulsos recibidos. Aunque al principio únicamente se podía imprimir en blanco y negro, el color se popularizó rápidamente, y se puede decir que ahora la inmensa mayoría de usuarios domésticos adquiere una impresora de inyección en color junto con su PC.

Aquí el parámetro de calidad lo da la resolución de la imagen impresa, expresada en puntos por pulgada; aunque con 300 ppp basta para imprimir texto, para fotografías es recomendable al menos 600 ppp. Dada su relación precio/calidad, son las impresoras más utilizadas para trabajos domésticos y semi-profesionales.

Como inconveniente se puede citar lo delicado de su mecánica y también su mantenimiento, ya que los cartuchos no suelen ser baratos.

Impresoras láser

Aunque el coste de una láser ya no tira para atrás como en otros tiempos, lo cierto es que siguen orientadas al ámbito profesional. En estas máquinas, un tambor, abreviado OPC (Optical Photo Conductor), o dicho comúnmente "fotoconductor", cargado de electricidad estática es recorrido por un pequeño rayo láser, cuyo haz actúa invirtiendo la carga en el tambor y atrayendo hacia éste el tóner (la "tinta" de las impresoras láser).

Este tóner se "pega" al papel por la acción de la corona o rodillo de transferencia, que invierte la polaridad del OPC atrayendo hacia sí las partículas de tóner. Como entre la corona de transferencia y el OPC está el papel, es en este en donde se queda el tóner, osea, lo que al fin y al cabo vamos a imprimir, ya sea texto o gráfico. Ahora bien, esa imagen no está "fijada" en el papel, de hecho, si le pasamos un dedo por encima antes de pasar por el último rodillo (fusor), el tóner "se corre". Gracias la acción del fusor, que son dos rodillos, uno de calor y otro de presión, ya sí se fija definitivamente la imagen.

Aquí se tiene en cuenta tanto la resolución, también expresada en ppp (lo mínimo aconsejable es 600 ppp) como la rapidez de impresión dada en páginas por minuto.

¿Inconvenientes? Son máquinas todavía caras, y aunque los consumibles no se cambian con la frecuencia que en las impresoras de inyección, cuando hay que hacerlo el bolsillo puede resentirse. Pero su rapidez y calidad de impresión las hacen destacar sobre el resto.
Detalles comunes: memoria

Prácticamente todas las impresoras, independientemente de la tecnología empleada, incluyen una memoria RAM. En las matriciales puede ser de unos pocos bytes (8 Kb, 16 Kb, etc.), y no mucho más en las de inyección. Por el contrario, en las láser sí que es imprescindible una buena cantidad de memoria, que no suele bajar de 512 Kb, aunque la verdad es que lo mínimo admisible debe ser, al menos, 1 Mega.

¿Color o blanco y negro?

Normalmente la respuesta a esta pregunta está muy clara en todos los casos, porque además no hay mucha alternativa; debido a la orientación de las impresoras matriciales y a la baja calidad que ofrecen cuando se intenta imprimir en color con ellas, es un segmento condenado al blanco y negro.

En las de inyección de tinta ocurre algo curioso, y es que será bastante difícil encontrar una impresora de este tipo, de sobremesa únicamente en blanco y negro, ya que el color se ha abaratado y perfeccionado tanto, que es algo que ya se incluye "de serie".

Por último, en las impresoras láser se imponen criterios económicos y de necesidad; ¿puedes gastarte un dineral en una impresora láser a color? ¿Realmente necesitas tanta calidad?

Consumibles

En las impresoras matriciales, el mantenimiento es sencillo y normalmente barato, ya que únicamente será preciso cambiar la cinta, que suele durar bastante. El cabezal también se suele considerar como consumible, pero no es algo que se estropee con frecuencia, teniendo una media de vida del orden de años.

En las de inyección, lo que más cambiaremos serán los cartuchos de negro y/o color; el cabezal inyector no suele estropearse, y la mayoría de impresoras implementan sistemas de limpieza y calibrado que permiten ajustar el funcionamiento de las mismas.

Por último, en las impresoras láser el consumible por excelencia es el cartucho de tóner (es decir, la tinta), pero tampoco es extraño tener que cambiar la unidad fotoconductora o el tambor (en algunas máquinas estas dos piezas se engloban en una sola) cada cierto tiempo, siempre según la carga de trabajo que soporte la máquina.

Displays y controles

La tendencia a la simplificación y reducción de tamaño que siguen las impresoras ha dado lugar a la aparición de modelos que sólo poseen un led y un botón de selección, cuando antes eran numerosos los controles.

En general, se tiende a que sea el software quien gestione todas las operaciones con la impresora, por lo que los fabricantes incluyen drivers y controladores. Pero esto también puede ser un inconveniente, ya que obliga a tener cargado software residente que de otra forma no necesitaríamos (por ejemplo bajo DOS), además de limitar a muchos usuarios que prefieren manipular manualmente los controles de la impresora. Pero esta es la tendencia, y es preciso habituarse a ella.

Puerto EPP/ECP, imprescindible


Si bien en las matriciales no es necesario, a la hora de adquirir una impresora de inyección o láser es prácticamente imprescindible que el puerto paralelo de nuestro ordenador sea bidireccional. Esto es así debido a que estas impresoras no sólo reciben datos del PC, sino que también pueden enviarle información, en forma de notificación de errores o situaciones anómalas, respuestas a códigos de control, etc. De hecho, el funcionamiento de los drivers y paneles de control vía software de estas máquinas se basa en esa premisa, e incluso algunos modelos ni siquiera instalarán su software de control si no detectan una conexión bidireccional. En ordenadores que son relativamente recientes, ya se incluye de fábrica el puerto paralelo ECP/EPP (Enhanced Parallel Port), y únicamente hay que verificar si está activada dicha característica en el Setup. Sin embargo, en máquinas más antiguas no se implementan estos puertos, así que conviene asegurarse para evitar sorpresas de última hora.

Emulaciones

Decimos que una impresora "emula" cuando admite códigos y modos de funcionamiento de otros modelos o marcas del mercado. Normalmente las de inyección no suelen implementar emulación, ya que dada su orientación basta con el driver que se incluye. Pero en una matricial, la emulación puede llegar a ser importantísima, en especial en aplicaciones hechas a medida o basadas en DOS; una impresora matricial se puede considerar completa si incluye modos IBM Proprinter y Epson, los dos grupos de códigos estándar.

En las impresoras láser sucede como con las de inyección, el driver incluido suele ser suficiente debido al segmento al que van dirigidas, pero no vienen mal un par de modos de emulación en cualquier impresora láser.

source: http://www.duiops.net
En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #7 en: 12 Diciembre 2004, 22:22 pm »

Modems

Indudablemente, la explosión experimentada por el mercado de los modems sólo tiene un protagonista: Internet. La popularidad de la omnipresente Red, ayudada por el servicio InfoVía proporcionado por Telefónica en nuestro país, está haciendo que los usuarios se familiaricen con las comunicaciones y se planteen seriamente la adquisición de uno de estos dispositivos. Así que, si eres uno de estos usuarios, esto te interesa.

Un modem es un dispositivo que permite la transmisión y recepción de información binaria (es decir, datos de ordenador) a través de un medio analógico (o sea, la línea telefónica); para poder realizar este proceso, es necesario convertir la señal digital en analógica, y viceversa, y esa es la función del modem.

 
La importancia de la UART

Posiblemente, el componente más importante de un modem es el chip UART (Universal Asynchronous Receiver/Transmitter), encargado de transmitir los datos; existen varios modelos de UART, el más básico de los cuales es el 8250A, empleado en ordenadores 286 y 386 y ya obsoleto. Su diseño le impedía trabajar a velocidades superiores a 9.600 bps, algo aceptable en otros tiempos pero no en este momento.

Posteriormente, fueron apareciendo modelos más avanzados, hasta llegar al más común empleado en la actualidad, el 16550 (del que existen 3 variantes, 16550A, AF y AFN, casi idénticas entre ellas). Este chip incorpora un buffer FIFO (First In, First Out) de 16 bytes, lo que le permite incrementar notablemente su rendimiento; asimismo, su capacidad de transmisión se eleva hasta 115 Kbps, por lo que podemos decir que es totalmente imprescindible la inclusión de este modelo de UART en cualquier modem actual.

Protocolos

Casi tan importante como la UART es el conjunto de protocolos o normas de comunicación que el modem es capaz de soportar; estas normas, establecidas por la ITU (Unión Internacional de Telecomunicaciones), definen los procedimientos estándar para la transmisión de datos. Su denominación suele ser siempre un número precedido por la letra V. Así, tenemos los antiguos V.21, V.22 y V.22bis (que soportan transmisiones a 300, 1200 y 2400 bps), los posteriores V.32 y V.32bis (transmisiones a 9.600 y a 14.400 bps) y los últimos V.34 y V.34+ (velocidades de 28.800 y 33.600 bps). Evidentemente, se recomienda la máxima velocidad posible, por el momento 33.600, accesible mediante el protocolo V.34+.

De esta manera, es más que recomendable la adquisición de un modem que soporte compresión y corrección de errores en tiempo real; para ello, son imprescindibles las normas V.42, V.42bis y MNP5. Se trata de protocolos que permiten corregir los posibles errores durante la transmisión y al mismo tiempo comprimir los paquetes de datos, para incrementar el rendimiento del dispositivo.

 
Mejor con Flash Rom

Los modems incorporan una memoria ROM en la que almacenan parámetros, comandos y el código correspondiente a las diferentes normas y protocolos soportados por el aparato. Es muy deseable que la ROM del modem que vayamos a adquirir sea del tipo flash, ya que de esta forma sería posible actualizar el dispositivo, mediante software facilitado por el fabricante, por ejemplo, para implementar nuevos protocolos que incrementen su rendimiento. Es lo mismo que ocurre con las BIOS de las placas base: se busca el poder actualizar sin tener que cambiar el chip.

Otros detalles


Es importante no confundir la velocidad de comunicación entre el modem y el ordenador con la velocidad de conexión con el exterior. La primera normalmente debe ser de unos 115.200 bps, e indica el ratio de transferencia entre el modem y la CPU a través del bus de expansión.

La segunda velocidad sirve de medida para diferenciar el rendimiento de los modems; en un modelo de 33.600, lo más alto que podremos llegar será a unos 31.200 bps. Ya que el estado de las líneas no suele ser el óptimo, y el ruido hace descender frecuentemente la velocidad. Podemos incluso bajar hasta unos 26.400 bps, según el estado de la línea.

Por otro lado, hay que tener en cuenta que para llegar a 33.600 bps, el modem con que nos vayamos a conectar también debe ser capaz de llegar a esta velocidad; por ejemplo, si nuestro proveedor de Internet sólo tiene modems a 28.800 bps, únicamente podremos enganchar a esta velocidad, ya que la conexión se establece a la velocidad del modem más lento.

Otros factores como las capacidades de voz o el software incluido con el modem, deben ser evaluados; respecto a éste último, la oferta suele consistir en un paquete de comunicaciones, fax y funciones de contestador automático en caso de modems con voz.

¿Interno o externo?

Existe una clásica controversia: ¿es mejor un modem externo o un modelo interno? Puesto que existen ventajas y desventajas en cada caso, nosotros nos vamos a limitar a exponerlas, sin llegar a recomendar ninguno de ellos.

Un modelo externo nos obliga a tener una fuente de alimentación independiente, y añade 2 cables más a la habitual maraña que cuelga del equipo; esto lo evitamos con un modelo interno. Ahora bien, en un modem externo tenemos a la vista todos los leds que indican el funcionamiento del mismo, algo vital a la hora de detectar problemas de conexión. En un modelo interno no tenemos a la vista esa información. Por otro lado, la opción externa depende totalmente del tipo de UART instalada en el PC; y si estamos trabajando en una máquina relativamente desfasada, puede ser que no obtengamos el rendimiento esperado. En un modem interno, la UART viene ya incorporada, y ese problema no existe. Por el contrario, un modelo externo aprovecha uno de los dos puertos COM del PC no usado normalmente, y la opción interna implica añadir un puerto serie adicional, surgiendo conflictos.

 
El futuro

Ya se está oyendo hablar de los modems que funcionan a 56 Kbps; se trata de una nueva tecnología que aprovecha las ventajas de las centralitas digitales y que permite conseguir esta alta velocidad de conexión. Sin embargo, todavía no está del todo madura, y debe ser aprobado por la ITU para convertirse en un estándar. Un posible obstáculo estriba en que existen dos grupos luchando por imponer su visión de la tecnología 56K; por un lado, US Robotics, fabricante de gran prestigio, y por el otro, el resto de sus competidores, con Rockwell Semiconductor a la cabeza. Por tanto, de momento habrá que conformarse con los modelos actuales a 33.600, pero conviene buscar siempre posibilidades de ampliación. Nunca se sabe.

Los modelos externos de modems ocupan espacio en el escritorio y nos obligan a tener una fuente de alimentación independiente.En el caso de un portátil hay pocas opciones: en general debe optarse por un modelo PCMCIA. Los modems externos son muy recomendables para equipos con pocas ranuras internas de expansión

La RDSI

La RDSI (Red Digital de Servicios Integrados) o ISDN, como se la conoce fuera de nuestro país, es un sistema de conexión digital que permite alcanzar altas tasas de transferencia; es la opción ideal para, por ejemplo, realizar videoconferencia a nivel profesional. Sin embargo, y hablando desde el punto de vista del usuario de a pie, tiene una desventaja muy importante: el precio. Necesitaremos una tarjeta RDSI, y tendremos que solicitar la instalación de la línea digital en nuestro domicilio. Si vamos a conectarnos a Internet, habrá que contratar con el proveedor el acceso mediante RDSI. Todo esto supone una importante inversión, que no merece la pena si no vamos a emplearlo de forma profesional, por lo que no nos parece una opción a considerar por la mayoría de los usuarios.Algunos modems externos pueden colocarse en vertical para ahorrar espacio en la mesa de trabajo.
Plug and Play muy recomendable

En un gran número de ocasiones, la instalación de un modem interno puede llegar a ser un auténtico calvario, debido al clásico problema de los conflictos entre IRQ. Ya que los puertos COM1 y COM3 comparten la misma línea de interrupción (al igual que el COM2 y el COM4), añadir un puerto serie al sistema es una posible fuente de problemas, salvo que podamos desactivar el COM2 del ordenador, o establecer la IRQ del modem a una no usada por el equipo. Por ello, es altamente recomendable que nuestro modem cumpla con la norma PnP; de esta forma, la configuración queda facilitada en gran medida, puesto que el modem buscará una interrupción no usada en el sistema.

source: http://www.duiops.net
En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #8 en: 12 Diciembre 2004, 22:23 pm »

Escaner


El escáner es un dispositivo que cada vez goza de mayor popularidad y aceptación entre todos los usuarios, y no sólo entre los profesionales de la imagen. Y es que no estamos hablando únicamente del retoque fotográfico de alto nivel; digitalización de páginas de texto para su tratamiento OCR, o escaneado de documentos para su gestión en soporte magnético, entre otros cometidos.

Para aconsejaros bien de cara a la adquisición de este periférico, es preciso explicar antes su funcionamiento, así que vamos allá.

El principio de funcionamiento de un escáner es la digitalización, es decir, la conversión de una información analógica a datos comprensibles por nuestro querido PC; para ello, se vale de una serie de componentes internos que posibilitan este objetivo. Una fuente de luz va iluminando, línea por línea, la imagen o documento en cuestión, y la luz reflejada en la imagen es recogida por los elementos que componen el CCD (Charged-Couple Device), dispositivo que convierte la luz recibida en información analógica. Por último, un DAC (Digital-Analog Converter) convierte los datos analógicos en valores digitales.

Este es, a grandes rasgos, el funcionamiento del escáner. Sin embargo, necesitamos conocer más conceptos; por ejemplo, la resolución. Cuando se habla de una resolución óptica de 600 ppp (puntos por pulgada), estamos indicando que su dispositivo CCD posee 600 elementos. Cuanta mayor sea la resolución, más calidad tendrá el resultado; en la actualidad, lo mínimo son 300 ppp, aunque 600 ppp es una resolución más conveniente si vamos a digitalizar fotografías. No obstante, la mayoría de escáneres pueden alcanzar mayor resolución, mediante la interpolación; se trata de un algoritmo por el cual el escáner calcula el valor situado entre dos píxeles digitalizados, a partir del valor de estos. Por ello, hay que saber diferenciar entre la resolución óptica (real) y la interpolada.

Profundidad de color

Este parámetro, expresado en bits, indica el número de tonalidades de color que un pixel puede adoptar; lo normal en la actualidad es un valor de 24 bits por pixels. Aunque hasta hace poco los escáneres de blanco y negro, tonos de grises o 256 colores eran muy populares, lo cierto es que los 24 bits de color se han convertido en un estándar, lógico si se tiene en cuenta que en la actualidad cualquier tarjeta gráfica es capaz de mostrar esta cantidad de colores.

Sin embargo, hay escáneres capaces de utilizar 30 o incluso 36 bits de color, pero la mayoría lo hacen a nivel interno, para disminuir el intervalo entre una tonalidad y la siguiente; posteriormente, lo que envían al PC son únicamente 24 bits. Por otro lado, muy pocos programas pueden gestionar esos bits adicionales de color.

El estándar TWAIN


En cualquier caso, se necesita un software que actúe de intermediario entre el escáner y la aplicación que tratará el archivo digitalizado; afortunadamente se ha logrado establecer un estándar, denominado TWAIN (según algunos, la palabra viene de Technology Without An Interesting Name, algo así como "Tecnología sin nombre interesante"), hasta el punto de que no se concibe un escáner que no incluya su correspondiente driver Twain. Se trata de un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándar; su diseño permite que podamos digitalizar una imagen desde la aplicación con la que acabaremos retocándola, evitando pasos intermedios.

En este punto es importante tener en cuenta un detalle: es recomendable que el driver Twain del escáner a adquirir sea lo más potente y flexible posible; no basta con que nos permita elegir resolución, tamaño y tipo (color, grises, etc.) de la imagen o documento, sino que también posea controles para ajustar los parámetros que influyen en el proceso de digitalización: niveles de contraste, colores, etc.

Tipos de escáner

Hasta ahora, hemos visto el funcionamiento interno de estos dispositivos; es el momento de echar un vistazo a la amplia oferta del mercado, dividida en tres tipos: escáneres de mano, de sobremesa y de rodillo. El escáner de mano es, con mucho, la alternativa más económica, puesto que elimina gran parte de los mecanismos que encarecen a los dispositivos de sobremesa; más concretamente el de tracción, ya que es el usuario quien mueve el escáner sobre la imagen o documento a digitalizar. La ventaja económica y de ahorro de espacio tiene su contrapartida en la poca fiabilidad del proceso, ya que depende de la habilidad y el pulso del usuario, y mover el escáner de forma demasiado lenta o rápida puede afectar al resultado final. Asimismo, puede ser complicado digitalizar una página de un libro, con un escáner de mano.

Frente a estos modelos, los de sobremesa representan la alternativa más profesional y de calidad, aunque también más cara, y realmente son los que más se están extendiendo. A modo de pequeñas fotocopiadoras, el documento o imagen se coloca sobre un cristal bajo el cual la lente luminosa se desplaza, digitalizando el documento. La mayor complejidad del dispositivo, así como el sistema de escaneado, le permiten obtener una gran calidad y fiabilidad, aunque como inconvenientes podemos citar su mayor tamaño y precio.

Por último, el escáner de rodillo es una interesante alternativa, a medio camino entre los dos anteriores; como su nombre indica, el escáner utiliza como mecanismo de tracción un rodillo que recoge automáticamente el documento y lo digitaliza. La calidad obtenida no es tanta como en los modelos de sobremesa, pero es una excelente opción para usuarios con determinadas necesidades.

Software incluido

Generalmente, se incluye software de regalo con el escáner; suele tratarse de versiones reducidas de excelentes programas de retoque o de OCR (Reconocimiento Optico de Caracteres), pero también de otras aplicaciones más sencillas, que pueden quedarse cortas según qué usuarios las em pleen. Aquí es evidente que no se puede exigir demasiado, pero es preciso buscar un escáner que incluya al menos un buen software de tratamiento de imágenes y otro de OCR. En algunos casos se añade algún programa de gestión documental, que puede venirnos bien si vamos a archivar gran cantidad de documentos; en cualquier caso, es una sabia norma el buscar un software lo más potente posible, ya que es mejor pasarse que quedarse cortos.

Un par de recomendaciones

No hay que olvidar que la inmensa mayoría de los escáneres trabajan a 24 bits de color; esto significa que, incluso aunque no necesitásemos más de 256 colores, el dispositivo no va a dar buen resultado con una profundidad de color inferior. Resumiendo, nuestra tarjeta gráfica deberá estar configurada para esa cantidad de colores, si no queremos obtener resultados más pobres de lo normal.

Nuestra segunda recomendación está de alguna forma relacionada con la primera; no debemos adquirir un escáner sin antes comprobar si nuestro equipo podrá estar a la altura. No basta con tener un 486 con 8 Megas de memoria y un disco duro normalito, para que nos vamos a engañar; la digitalización y tratamiento de imágenes exige un uso intensivo de la CPU, así como una buena cantidad de memoria y mucho, mucho espacio en disco. En definitiva, se impone un análisis de nuestro PC, previo a la compra de cualquier tipo de escáner.

La mejor conexión

Un escáner puede tener diferentes formas de conectarse al ordenador, cada una con ventajas e inconvenientes. Una conexión por puerto paralelo nos ahorra la necesidad de abrir el PC y facilita la instalación, pero es notoriamente más lenta que otras soluciones.

La alternativa SCSI es mucho más rápida y fiable, aunque es preciso abrir el equipo, y lidiar con la clásica configuración de la cadena de dispositivos SCSI; otro detalle a tener en cuenta es el tipo de tarjeta SCSI que el escáner puede incluir. Si ésta tiene un diseño propietario y no es totalmente compatible con la norma (lo cual no es infrecuente), podemos tener problemas a la hora de conectar el escáner en otros ordenadores con tarjeta SCSI.

Por último, otros modelos incluyen una tarjeta ISA de diseño propietario; el tema es evidente, si deseamos usar el escáner en otro sistema, este deberá poseer una tarjeta idéntica, o tendremos que desmontar la nuestra y pincharla en el otro equipo. Por supuesto, cada usuario empleará su escáner según sus necesidades, por lo que aquí nos limitamos a citar las diferentes posibilidades existentes.

Algunos escáneres permiten obtener una gran calidad y fiabilidad, aunque siempre existen los inconvenientes del tamaño y el precio.

Existen escáneres de rodillo con alimentador de hojas, algo que facilita al usuario, en gran medida, el trabajo a realizar.

El driver Twain es un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándarLos escáneres motorizados se utilizan para digitalizar grandes cantidades de texto mediante un programa OCR.

Calibración

Efectivamente, estos dispositivos también necesitan ser calibrados; esto se realiza de diversas formas. Por ejemplo, muchos escáneres de mano incluyen una hoja con diferentes tonalidades de color, que debe ser digitalizada para que nuestro periférico establezca los patrones necesarios. Asimismo, es importante que nuestra impresora de color pueda reproducir correctamente la imagen original; para ello es preciso establecer una relación entre los colores que ésta puede imprimir, y los que el escáner puede digitalizar. Se suele emplear un modelo, que primero se imprime en la impresora y posteriormente se digitaliza; se comparan las diferencias y se crea un archivo de configuración, conteniendo los ajustes que permitirán corregirlas. Aunque no todos los modelos permiten este tipo de calibración, lo cierto es que cada vez se utiliza con mayor frecuencia.

source: http://www.duiops.net
En línea

templar
Visitante


Email
Re: Todo Sobre la Pc
« Respuesta #9 en: 12 Diciembre 2004, 22:24 pm »

Los Keyboards

El teclado es el único medio estándar (hasta el momento) de comunicar órdenes a nuestra máquina. Como es muy probable que la tecnología de reconocimiento de voz no se estandarice a corto y medio plazo y sea algo habitual en los PC domésticos, conviene que conozcáis los diferentes tipos que existen, ya que tendréis teclado para rato.

Desde el inicio de la era del IBM PC el teclado ha ido evolucionando. Los primeros tenían 83 teclas y no y no incluían indicadores luminosos de ningún tipo. Eran conocidos como teclados PC/XT. Este tipo de teclados sólo pueden utilizarse en los ordenadores del tipo XT, y hemos de deciros que únicamente los podremos encontrar en los museos particulares.

El teclado AT surgió con la aparición de los IBM PC AT. Este modelo ya disponía de indicadores luminosos y de una tecla más: Petsis o SysReq, que se utilizaba en antiguas aplicaciones multiusuario. No se puede conectar a los modelos PC y XT.

El tercer paso fue el AT Extendido. Este teclado añadió teclas hasta alcanzar 101 teclas (102 en los modelos internacionales, una más correspondiente, en nuestro caso, a la "ñ"). Se añaden dos teclas de función más (Fll y F12) y el conjunto de ellas se disponen en una fila en la parte superior del teclado. Se duplican las teclas Control y Alt, la tecla BloqMayús se lleva a la ubicacón original de Control y las teclas de movimiento del cursor se duplican para un acceso más cómodo.

Después de esta última mejora del estándar, algunos fabricantes variaron el diseño del teclado AT, incorporando calculadoras que duplican las teclas de función y además son programables o haciéndolos ergonómicos.

 
La elección del teclado

En los teclados existen dos tecnologías que controlan la pulsación de las teclas, así tenemos los teclados que funcionan por:

   1. Contacto capacitivo (de membrana).
   2. Contacto mecánico.

Los primeros son más baratos y su tacto es más suave. Los segundos hacen un clic característico al pulsar las teclas y su funcionamiento es más fiable y duradero (también valen más caros). Los que tienen un espacio de trabajo reducido probablemente busquen teclados pequeños que ocupen poco.

También hay otros dos puntos importantes: los teclados ergonómicos y las teclas de Windows 95. Los teclados ergonómicos intentan adaptarse a la anatomía natural de las manos para obtener la mayor comocidad en el usuario y evitarle forzadas posturas perjudiciales para la salud. Por tanto, estos teclados son siempre llamativos, al dividir la disposición de las teclas en dos grupos (uno para cada mano) y mostrar diferentes inclinaciones en varias partes del teclado. Ya hemos citado las ventajas de estos periféricos; se nos ocurre una desventaja, y es que hace falta acostumbrarse a una disposición de teclas tan diferente como la de estos teclados, y si por diversos motivos debemos utilizar también teclados normales (en el trabajo, etc), no acabaremos de habituarnos nunca.

Y el otro punto que decíamos, son las teclas de Windows 95. Son tres que se añaden en la parte inferior, que no se usan en DOS. Aportan cierta funcionalidad, relativa a menús contextuales y al de Inicio. La desventaja está en que disminuye considerablemente el tamaño de la barra de espacios, y la proximidad a las teclas Alt y Alt Gr suele causar equivocaciones al pulsarlas (sobre todo en los juegos). Pero nos tendremos que acostumbrar, pues los teclados hoy en día son así.

source:  http://www.duiops.net
En línea

Páginas: [1] 2 Ir Arriba Respuesta Imprimir 

Ir a:  

Mensajes similares
Asunto Iniciado por Respuestas Vistas Último mensaje
AJAX - Todo sobre él. « 1 2 »
Desarrollo Web
-Riven-Ward- 10 14,287 Último mensaje 1 Junio 2011, 22:46 pm
por Nakp
Todo sobre MAC en la red
Redes
Meta 5 3,614 Último mensaje 12 Febrero 2014, 06:40 am
por Meta
Todo sobre Telegram
Foro Libre
mc5punk 0 1,815 Último mensaje 27 Junio 2016, 11:58 am
por mc5punk
Todo sobre zippos
Foro Libre
DJKENSHIN 6 4,835 Último mensaje 30 Junio 2021, 03:57 am
por Serapis
enseña a crear y todo sobre malwere
Análisis y Diseño de Malware
donnyg 2 3,945 Último mensaje 16 Octubre 2022, 03:09 am
por student369
WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines