You are on page 1of 41

Periféricos

Profesor: Leonardo Rivas

Anjhelo Jhonatan Pérez Rodríguez


Angelo Francesco Leonetti Solís
Índice
Introducción
Periféricos de Entrada

 Mouse
 Escáner
 Cámara Web

Periféricos de Salida
 Monitor
 Impresora
 Altavoz

Periféricos de Entrada y Salida E/S


 Memoria USB (Pendrive)
 Disco Duro Externo
 Unidad Óptica CD

Conclusiones
Bibliografía
Introducción
Estos dispositivos, o mejor dicho periféricos son
complemento fundamental de un computador haciendo
el uso de aplicaciones más fácil de desarrollar.

Entre ellos tenemos los que introducen información al


computador, los que sacan información y los que
introducen y sacan información.

En este trabajo veremos algunos periféricos más


comunes que se ocupan en la vida diaria como algunos
que también se ocupan en la vida profesional y laboral.
Periféricos

Periféricos de Entrada
 Mouse
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford
Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en
California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox
(conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que
surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano
mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también
dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de
usuario.
En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial.
Durante hora y media además se mostró una presentación multimedia de un sistema
informático interconectado en red y también por primera vez se daba a conocer un entorno
gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas
operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para
navegar por Internet y usar videoconferencia.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había
empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas
existían varias docenas y bastante primitivas, entre otras ideas como el propio correo
electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para
mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto,
que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research
Center (Centro para la investigación del incremento) en la Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un
desarrollo de distintos componentes informáticos similares, una década después era algo
único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los
conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró
una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él
recibió un cheque de unos 10000 dólares.
El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido:
Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este
periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras
que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el
Atari ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso
al ratón de Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible
además con las primeras versiones del procesador de texto Word. Tenía dos botones en
color verde y podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no
disponer de un sistema operativo que realmente lo aprovechara, hizo que pasara
completamente desapercibido.
No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su
diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en
1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en
serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400
dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve
Jobs, quería un precio entre los 10 y los 35 dólares.
Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito
han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo
LED, ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor
basado en un láser no visible del fabricante Logitech.
En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la
fabricación y desarrollo de estos periféricos, más de la mitad de su producción la
comercializa a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple.

Características y Evolución
Su funcionamiento principal depende de la tecnología que utilice para capturar el
movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y
transmitir esta información para mover una flecha o puntero sobre el monitor de la
computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por
su mecanismo y del método de comunicación entre éste y la computadora, existen multitud
de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer
en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el
usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic
para la mayoría de las tareas.
Con el avance de las nuevas computadoras, el ratón se ha convertido en un dispositivo
esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en
pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección
de un personaje en juegos de primera o tercera persona. Comúnmente en la mayoría de
estos juegos, los botones del ratón se utilizan para accionar las armas u objetos
seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro
inventario.

Por mecanismo
 Mecánicos: Tienen una gran esfera de plástico o goma, de varias capas, en su parte
inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de
éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos
ruedas inclinadas 90 grados entre ellas en vez de una esfera.La circuitería interna
cuenta los pulsos generados por la rueda y envía la información a la computadora,
que mediante software procesa e interpreta.
 Ópticos: Es una variante que carece de la bola de goma que evita el frecuente
problema de la acumulación de suciedad en el eje de transmisión, y por sus
características ópticas es menos propenso a sufrir un inconveniente similar. Se
considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite
de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54
centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su
funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que
se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si
el ratón ha cambiado su posición. En superficies pulidas o sobre determinados
materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla,
por eso se hace necesario el uso de una alfombrilla o superficie que, para este tipo,
no debe ser brillante y mejor si carece de grabados multicolores que puedan
"confundir" la información luminosa devuelta.
 Láser: Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente
para los diseñadores gráficos y los jugadores de videojuegos. También detecta el
movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de
tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo
que se traduce en un aumento significativo de la precisión y sensibilidad.
 Trackball: El concepto de trackball es una idea que parte del hecho: se debe mover
el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal
forma que cuando se coloque la mano encima se pueda mover mediante el dedo
pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta
manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un
posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin
embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil
por ejemplo en la informatización de la navegación marítima.

Por conexión
 Por cable: Es el formato más popular y más económico, sin embargo existen
multitud de características añadidas que pueden elevar su precio, por ejemplo si
hacen uso de tecnología láser como sensor de movimiento. Actualmente se
distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente
también era popular usar el puerto serie.Es el preferido por los videojugadores
experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón
y la computadora es óptima en juegos que requieren de una gran precisión.
 Inalámbrico: En este caso el dispositivo carece de un cable que lo comunique con
la computadora (ordenador), en su lugar utiliza algún tipo de tecnología
inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que
produce, mediante baterías, el ratón. El receptor normalmente se conecta a la
computadora a través de un puerto USB o PS/2. Según la tecnología inalámbrica
usada pueden distinguirse varias posibilidades:
1. Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de
tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular
en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y
IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de
desconexión o interferencias con otros equipos inalámbricos, además de
disponer de un alcance suficiente: hasta unos 10 metros.
2. Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como
medio de trasmisión de datos, popular también entre los controles o mandos
remotos de televisiones, equipos de música o en telefonía celular. A diferencia
de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor
como el receptor deben estar en una misma línea visual de contacto directo
ininterrumpido para que la señal se reciba correctamente. Por ello su éxito ha
sido menor, llegando incluso a desaparecer del mercado.
3. Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión
inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros
dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la
Clase 2 del estándar Bluetooth).

 Scanner
La primera copia exitosa en papel por medio de un sistema de copiado electrostático y
Xerografía (“Xerografía deriva del griego xeros: seco y graphos: escritura, que significa
escritura o impresión en seco. “ ) fue realizada el día 22 de octubre de 1938 por Chesrer
Carlson.
Carlson produjo mejoras al sistema de copiado xerografito y vendió los derechos
comerciales del mismo a la compañía Haloid en el año 1947. Luego de tres años la
compañía Haloid cambio su nombre al de Xerox y agrego al mercado la primera copiadora
xerográfica automática, en el año 1959. La cual sacaba la primera copia en solo 15
segundos y en 7.5 segundos las demás.
En la actualidad prácticamente todas las marcas de copiadoras utilizan el mismo proceso
xerográfico, “un complejo sistema de instrumentos que se suceden y complementan de
manera precisa y ordenada, hasta lograr en un abrir y cerrar de ojos la duplicación de
copias idénticas de un mismo documento”.
Una nueva generación de copiadoras invade ahora el mercado, provistas de tecnología
digital, cuyas ventajas más notables son la mayor calidad de imagen, facilidad de
operación, bajo ruido, bajo consumo de energía y menos mantenimiento técnico. Lo más
atractivo de la generación digital, es que son multifuncionales, prestando también servicio
de facsímil e impresora, pueden además ser conectadas a una PC, lo que extiende las
capacidades del aparato más allá del copiado estándar.

Características y Evolución

 Escáner plano
También llamados escáneres de sobremesa, están formados por una superficie plana de
vidrio sobre la que se sitúa el documento a escanear, generalmente opaco, bajo la cual un
brazo se desplaza a lo largo del área de captura. Montados en este brazo móvil se
encuentran la fuente de luz y el foto sensor de luz (por lo general un CCD).
Conforme va desplazándose el brazo, la fuente de luz baña la cara interna del documento,
recogiendo el sensor los rayos reflejados, que son enviados al software de conversión
analógico/digital para su transformación en una imagen de mapa de bits, creada mediante la
información de color recogida para cada píxel.
La mayoría de estos escáneres pueden trabajar en escala de grises (256 tonos de gris) y a
color (24 y 32 bits) y por lo general tienen un área de lectura de dimensiones 22 x 28 cm. y
una resolución real de escaneado de entre 300 y 2400 ppp, aunque mediante interpolación
pueden conseguir resoluciones de hasta 19200 ppp.
Están indicados para digitalizar objetos opacos planos (como fotografías, documentos o
ilustraciones) cuando no se precisa ni una alta resolución ni una gran calidad.
Algunos modelos admiten también adaptadores especiales para escanear transparencias, y
otros poseen manipuladores de documento automáticos (Automatic Document Handler)
que pueden aumentar el rendimiento y disminuir la fatiga del operador en el caso de grupos
de documentos uniformes que se encuentran en condiciones razonablemente buenas.
Los escáneres planos son los más accesibles y usados, pues son veloces, fáciles de manejar,
producen imágenes digitalizadas de calidad aceptable (sobre todo si están destinadas a la
web) y son bastante baratos, pudiéndose adquirir uno de calidad media por menos de 120 €.
La mayor desventaja de estos escáneres es la limitación respecto al tamaño del documento a
escanear, que queda limitado a los formatos DIN-A5 o DIN-A4.

 Escáner cenital
Un escáner cenital (en inglés planetary scanner u orbital scanner) es un tipo de escáner que
se utiliza para hacer copias digitales de libros o documentos que, por ser viejos o
extremadamente valiosos, para que no se deterioren escaneándolos con otro tipo de escáner.
Estos escáneres consisten en una cámara montada en un brazo que toma fotos del elemento
deseado. Su ventaja principal es que los libros no tienen que ser abiertos completamente
(como pasa en la mayoría de los escáneres planos). El escaneo de volúmenes
encuadernados se realiza gracias a que la fuente de luz y el sensor CCD se encuentran
ensamblados a un brazo de trayectoria aérea.En sus inicios el precio de estos escáneres era
elevado y sólo se utilizaban en museos y archivos, pero en la actualidad la disponibilidad de
cámaras digitales buenas y baratas han hecho que estos escáneres no resulten tan privativos.

 Escáner de tambor
Los escáneres de tambor son los que más fielmente reproducen el documento original, ya
que producen digitalizaciones de gran calidad y resolución (hasta 16.000 ppp de resolución
óptica). Sus problemas son la velocidad de escaneo (son lentos), no son indicados para
documentos de papel quebradizo porque es necesario curvarlo sobre el tambor y requieren
un alto nivel de habilidad por parte del operador. Además, son bastante caros.
Utilizan una tecnología diferente a la del CCD. Los originales, normalmente transparencias
(aunque se pueden escanear opacos también), se colocan en un cilindro transparente de
cristal de gran pureza, que a su vez se monta en el escáner. El tambor gira entonces a gran
velocidad mientras se hace la lectura de cada punto de la imagen. La fuente de luz suele ser
un láser que se encuentra dentro del tambor (para transparencias) o fuera (para opacos), y el
sensor es un tubo fotomultiplicador (PMT) que recibe la luz de un único punto de la imagen
en cada instante.Producen digitalizaciones de alta resolución y buena gama dinámica entre
bajas y altas luces, con imágenes en colores primarios, que pueden ser convertidas en
CMYK mientras el lector recorre la imagen.Son muy caros, oscilando su precio, según
modelos, entre 15.000 € y 200.000 €, por lo que suelen ser usados exclusivamente por
empresas especializadas del sector de las artes gráficas (laboratorios, imprentas, editoriales,
etc.).

 Escáner para microfilm


Los escáneres para microfilm son dispositivos especializados en digitalizar películas en
rollo, microfichas y tarjetas de apertura.
Puede ser difícil obtener una calidad buena y consistente en un escáner de este tipo, debido
principalmente a que los suelen tener un funcionamiento complejo, la calidad y condición
de la película puede variar y ofrecen una capacidad de mejora mínima. Son escáneres muy
caros, existiendo pocas empresas que los fabriquen.

 Escáner para transparencias


Los escáneres para transparencias se utilizan para digitalizar diapositivas, negativos
fotográficos y documentos que no son adecuados para el escaneado directo. Pueden trabajar
con varios formatos de película transparente, ya sea negativa, positiva, color o blanco y
negro, de tamaño desde 35 mm hasta placas de 9 x 12 cm.
Existen dos modalidades de este tipo de escáneres:
1. Escáneres de 35 mm. Solo escanean negativos y transparencias, pero lo hacen a
resoluciones muy altas.
2. Escáneres multiformato. Suelen capturar transparencias y negativos hasta formato medio o
hasta formato de placas 4”x 5” o incluso 5”x 7”, tienen una resolución muy alta y un rango
dinámico en ocasiones sorprendente, pero frecuentemente no permiten escanear opacos. El
uso de medios transparentes por lo general produce imágenes con un buen rango dinámico,
pero, dependiendo del tamaño del original, la resolución puede ser insuficiente para algunas
necesidades.
La calidad obtenida es mayor que la que ofrecen los escáneres planos, aunque hay que tener
cuidado con la presencia de motas de polvo o rascaduras en las transparencias, que pueden
ocasionar la aparición de impurezas en la imagen digitalizada resultante.

 Escáner de mano
Estos escáneres son dispositivos manuales que son arrastrados sobre la superficie de la
imagen a escanear. Escanear documentos de esta manera requiere una mano firme, entonces
una desigual velocidad de exploración produce imágenes distorsionadas, normalmente un
indicador luminoso sobre el escáner indica si la exploración fue demasiado rápida.
Generalmente tienen un botón "Inicio", el cual es sostenido por el usuario durante la
exploración; algunos interruptores para configurar la resolución óptica y un rodillo, lo que
genera un reloj de pulso para sincronización con la computadora. La mayoría de escáneres
de mano fueron en blanco y negro, y la luz generada por una serie de LEDs verdes para
iluminar la imagen. Un típico escáner de mano también tenía un programa que abría una
pequeña ventana a través de la cual se podía ver el documento que se escaneaba. Fueron
populares durante la década de 1990 y, por lo general tenían un módulo de interfaz
propietario específico para un determinado tipo de computadora, generalmente un Atari ST
o Commodore Amiga.
Calidad del escáner
A los datos que obtienen los escáneres (normalmente imágenes RGB) se les aplica cierto
algoritmo y se envían a la computadora mediante un interfaz de entrada/salida
(normalmente SCSI, USB o LPT en máquinas anteriores al estándar USB). La profundidad
del color depende de las características del vector de escaneado (la primera de las
características básicas que definen la calidad del escáner) que lo normal es que sea de al
menos 24 bits. Con 48 bits se obtiene una mejor calidad o profundidad del color.
Otro de los parámetros más relevantes de la calidad de un escáner es la resolución, medida
en píxeles por pulgada (ppp). Los fabricantes de escáneres en vez de referirse a la
resolución óptica real del escáner, prefieren hacer referencia a la resolución interpolada,
que es mucho mayor gracias a la interpolación software.
Por hacer una comparación entre tipos de escáneres, en el año 2004 un escáner plano no
muy caro tenía una resolución óptica de 1600 a 3200 ppp. Los más caros llegaban hasta los
5400 ppp. Un escáner de tambor tenía una resolución de 8000 a 14000 ppp.
El tercer parámetro más importante para dotar de calidad a un escáner es el rango de
densidad. Si el escáner tiene un alto rango de densidad, significa que es capaz de reproducir
sombras y brillos con una sola pasada.

 Conexión con la computadora


El tamaño del fichero donde se guarda una imagen escaneada puede ser muy grande: una
imagen con calidad de 24 bits un poco mayor que un A4 y descomprimida puede ocupar
unos 100 megabytes. Los escáneres de hoy en día generan esta cantidad en unos pocos
segundos, lo que quiere decir que se desearía poseer una conexión lo más rápida posible.
Antes los escáneres usaban conexiones paralelas que no podían ir más rápido de los 70
kilobytes/segundo, SCSI-II se adoptó para los modelos profesionales y aunque era algo más
rápido (unos cuantos megabytes por segundo) era bastante más caro.
Hoy en día los modelos más recientes vienen equipados con conexión USB, que poseen una
tasa de transferencia de 1.5 megapixel por segundo para los USB 1.1 y de hasta 60
megapixel por segundo para las conexiones USB 2.0, lo que elimina en gran medida el
cuello de botella que se tenía al principio. Los dos estándares para interfaces existentes en
el mercado de PC con Windows o Macs son:
1. TWAIN. Originalmente se utilizaba para uso doméstico o de bajo coste. Actualmente se usa
también para el escaneado de gran volumen.
2. ISIS. Creado por Plondíxel Translations, que utiliza SCSI-II, se emplea en máquinas
grandes destinadas a empresas.

 Datos de salida
Al escanear se obtiene como resultado una imagen RGB no comprimida que puede
transferirse a la computadora. Algunos escáneres comprimen y limpian la imagen usando
algún tipo de firmware embebido. Una vez se tiene la imagen en la computadora, se puede
procesar con algún programa de tratamiento de imágenes como Photoshop, Paint Shop Pro
o GIMP y se puede guardar en cualquier unidad de almacenamiento como el disco duro.
Normalmente las imágenes escaneadas se guardan con formato JPEG, TIFF, mapa de bits o
PNG dependiendo del uso que se le quiera dar a dicha imagen más tarde.
Cabe mencionar que algunos escáneres se utilizan para capturar texto editable (no sólo
imágenes como se había visto hasta ahora), siempre y cuando la computadora pueda leer
este texto. A este proceso se le llama OCR (Optical Carácter Recognition).

 Escaneo de un documento
El escaneado de documentos es distinto al de imágenes, aunque use algunas técnicas de éste
último. Aunque el escaneado de documentos puede hacerse en escáneres de uso general, la
mayoría de las veces se realiza en escáneres especiales dedicados a éste propósito,
fabricados por Canon, Fujitsu o Kodak entre otros. Los escáneres de documentos tienen
bandejas de alimentación mayores a las de fotocopiadoras o escáneres normales.
Normalmente escanean a resolución inferior que los escáneres normales, de 150 ppp a 300
ppp, así evita ficheros de tamaño excesivo.
El escaneado se hace en escala de grises, aunque cabe la posibilidad de hacerlo a color. La
mayoría son capaces de digitalizar a doble cara a velocidad máxima (de 20 a 150 páginas
por minuto). Los más sofisticados llevan incorporado algún firmware que “limpia” el
escaneo eliminando marcas accidentales. Normalmente se comprimen los datos escaneados
al vuelo.
La mayoría de documentos escaneados se convierten en ficheros editables usando la
tecnología OCR. Mediante los drivers ISIS y TWAIN se escanea el documento a formato
TIFF, para pasar las páginas escaneadas a un procesador de texto, que almacena el fichero
correspondiente.
El escaneado de libros implica dificultades técnicas adicionales. Algunos fabricantes han
desarrollado escáneres especiales para éste cometido incluso haciendo uso de robots
especiales encargados de pasar las páginas.

Características del escáner:

El intervalo del tamaño de digitalización depende del escáner, que se muestra en la


tabla siguiente:
Este cuadro muestra el tamaño de las imágenes medidas en su número de píxeles y su
propia resolución.

En esta imagen demuestra los diferentes tipos de imagen y sus diversas características.
Generaciones de los Escáner

 Primera generación
El primer EMI escáner fue diseñado y restringido a la exploración del cerebro humano. Este
hecho causó tremendo impacto en la Neurorradióloga, porque este campo carecía de
herramientas de diagnóstico simple.
En un intento por aplicar el principio de la primera generación de escáner para el cuerpo, el
Dr. Robert Ledley de la Universidad de Georgetown diseño y construyo un prototipo de
escáner para el cuerpo, llamado ACTA escáner; logrando la patente de éste el 14 de febrero
de 1974. Las imágenes borrosas fueron presentadas con colores brillantes.
A pesar de tener poca calidad, estas imágenes se convirtieron en una promesa para el futuro
del escaneo del cuerpo.

Principio de la primera generación CT Scanner.

 Segunda generación
Hay una mínima diferencia entre la primera y la segunda generación de escáner, en lugar de
un detector existe un número de ellos colocados con un ángulo pequeño en un abanico en el
plano del explorador.
Los escáner de primera y segunda generación tienen mucho en común y por lo tanto
escáner de primera generación pueden algunas veces actualizarse a segunda generación.
Es una práctica común debido a su baja velocidad para grabar simultáneamente dos
porciones doblando el número de detectores. El primer escáner de la segunda generación, el
Delta 50, fue presentado en diciembre de 1974 por Ohio Nuclear. Tenía dos renglones de
tres detectores. En marzo de 1975, EMI presentó un escáner con 30 detectores. Como
resultado de su incremento en detectores fueron casi 10 veces más rápidos.
Esto empezó la era del escáner rápido de segunda generación. Estos escáneres no requieren
la técnica de doble porción la cual resultó en una pequeña porción geométrica.
La primera y segunda generación de escáner fue especialmente susceptible a los
movimientos del cuerpo humano, pues estos movimientos no podían medirse durante los
intervalos de rotación.
Aunque rápidamente la segunda generación de escáner tubo la ventaja de un corto tiempo
de escaneo, también tubo la desventaja de que no todos los haces de rayos X entre la fuente
y el detector se enfocara por separado, y como parte del resultado de la radiación que
pasaba por el paciente fue entre el detector y no era utilizado.
El uso del escáner también cambió rápidamente. Mientras los escáneres de la primera
generación eran dedicados a la exploración del cerebro, los escáneres de la segunda
generación se usaban para la exploración de todo el cuerpo.

Principio de la segunda generación CT scanner.

 Tercera generación
La tercera generación de escáner es completamente un tipo nuevo, el movimiento de
traslación ha sido eliminado y el abanico (ángulo) ensanchado para incorporar el cuerpo
entero. En el orden de 300 a 500 detectores fueron colocados dentro del espectro (abanico).
Estos cambios hicieron más rápido el escaneo y como consecuencia la continua adquisición
de datos, provocando mucho menos susceptibilidad al movimiento.
La tercera generación fue introducida por Artronix en 1974 como un escáner para el
cerebro. En el verano de 1975 General Electronic anunció una mamografía como un
proyecto piloto para el escaneo del cuerpo.
Un problema inicial de la tercera generación de escáner era que cada detector contribuía
principalmente al anillo de elementos de imágenes y cuando cada detector estaba mal
calibrado, una forma de anillo se presentaba conjuntamente en el eje de rotación. Sin
embargo este problema después fue solucionado usando detectores estables y
procedimientos de calibración.
La tercera generación es lo más extensamente aplicado posible en cuestión de escáner
rápido. Durante 1978 y 1979 prácticamente toda la tercera generación manufacturó el doble
de detectores y los incorporó al escáner.
Principio de la tercera generación CT scanner.

 Cuarta generación
Este tipo de escáner no ha resultado de un intento de disminuir el tiempo de exploración,
como en el caso de previas generaciones, no puede ser realmente considerado como una
nueva generación sino como una variación de la tercera generación. Esta variante originada
de una búsqueda por mejorar la calidad de la imagen: la geometría de rayos X, es tal que,
las distorsiones de anillo no sean probables de ocurrir,
La más avanzada variación a la cuarta generación es el concepto desarrollado por EMI
llamado el escáner de anillo distribuido, donde el tubo de rayos X a las afueras del detector
y el lado más cercano del detector del tubo, es continuamente jalado hacia afuera para dejar
pasar los rayos X. Este escáner fue presentado en diciembre de 1977.
NNER

Principio de la cuarta generación CT scanner.


 Cámara Web
En 1991 una rebelión se levantaba en el departamento de computación de la Universidad de
Cambridge, el problema: solo estaba permitido hacer café en una habitación muy apartada y
muchos se servían sin volver a llenar la cafetera; la solución: configurar una cámara que
transmitiera en vivo a través de la red universitaria mostrando dicha máquina; el resultado:
la primer webcam de la historia.
Sería difícil pensar que un instrumento que hoy en día ha revolucionado la comunicación a
través de Internet y la seguridad a distancia haya nacido por un simple pleito en un
departamento de computación universitario. Pero en un ejemplo magnífico de como la
necesidad puede llevar el ingenio y la creatividad a niveles muy altos, Quentin Stafford-
Fraser y Paul Jardetzky crearon la primer webcam de la historia para evitar los pleitos en el
edificio en el cual trabajaban. No era para menos, ya que la cafetera -y todos sabemos que
el café es el combustible de los programadores- se encontraba en un departamento muy
alejado. Esto llevaba a que muchos de los programadores fueran a la habitación para
encontrarse con que un despreocupado colega se había servido sin rellenar con agua la
máquina que hacía el café. La solución fue simple pero a la vez ingeniosa, Quentin y Paul
programaron un cliente y un servidor llamado XCoffee que transmitía en vivo una imagen
de 128×128 px de la cafetera a través de la red universitaria. De esta manera, al saber que
eran vistos, todos la rellenaban y además se podía ver con anterioridad si había café
preparado antes de ir a buscarlo. Un año más tarde, utilizando el código de XCoffee
renombrado a XCam, salía a la venta la primer webcam comercial.
Una cámara web (en inglés webcam) es una pequeña cámara digital conectada a una
computadora, la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a
una página web o a otra u otras computadoras de forma privada.
Las cámaras web necesitan una computadora para transmitir las imágenes. Sin embargo,
existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red
informática, bien sea ethernet o inalámbrico. Para diferenciarlas las cámaras web se las
denomina cámaras de red.
También son muy utilizadas en mensajería instantánea y chat como en Windows Live
Messenger, Yahoo! Messenger, Ekiga, Skype etc. En el caso del MSN Messenger aparece
un icono indicando que la otra persona tiene cámara web. Por lo general puede transmitir
imágenes en vivo, pero también puede capturar imágenes o pequeños videos (dependiendo
del programa de la cámara web) que pueden ser grabados y transmitidos por Internet. Este
dispositivo se clasifica como de entrada, ya que por medio de él podemos transmitir
imágenes hacia la computadora.
En astronomía amateur las cámaras web de cierta calidad pueden ser utilizadas para
registrar toma planetaria, lunar y hasta hacer algunos estudios astrométricos de estrellas
binarias. Ciertas modificaciones pueden lograr exposiciones prolongadas que permiten
obtener imágenes de objetos tenues de cielo profundo como galaxias, nebulosas, etc.
Características

 Aplicaciones de captura de imágenes/Video: Una aplicación de captura da a una


webcam la capacidad de tomar fotos o video clips y guardarlos en el disco duro de
la computadora.

 Face Tracking: Las tecnologías de 'face tracking' (seguimiento de rostros) ayudan a


mantener automáticamente una cara en el cuadro incluso si el sujeto se mueve. Estas
tecnologías siguen la pista de la forma, el color y el movimiento de un rostro,
ajustando la visión de la cámara para mantener centrada la cara en la pantalla todo
el tiempo.

 Field of View: El campo de vista (field of view) es todo el rango que el lente de una
cámara estacionaria  puede ver en un momento determinado. El field of view está
representado por un número de grados.

 FireWire: También conocido como IEEE 1394, FireWire es una interfaz estándar
externa desarrollada primero por Apple. FireWire ofrece rápidas transferencia de
datos comparado con otros estándares. En lo que se refiere a las webcams, la
transferencia de datos no es normalmente el cuello de botella para un mejor
desempeño, de modo que esta interfaz no es usada comúnmente en estos
dispositivos.

 Interpolación de imagen: La interpolación de imagen es el uso de software para


crear una imagen más grande o de mayor resolución de lo que la cámara o la
webcam pueden capturar. A medida que el tamaño de una imagen es incrementado,
se crean huecos entre los pixeles originales. La interpolación llena esos huecos con
valores intermedios basándose en los pixeles circundantes.

 PTZ: Pan/Tilt/Zoom (PTZ) permite a los usuarios cambiar la vista de la cámara.


Algunas cámaras proporcionan una forma digital de paneo, inclinación y Zoom, lo
cual permite al usuario ajustar al cuadro de video para enfocarse en áreas
específicas dentro del campo de vista de la cámara.

Resolución Nativa o Real

Este término se refiere a la más alta resolución que una webcam puede producir si el uso de
software de interpolación. Una resolución a nativa, algunas veces mencionada como
resolución real, típicamente proporciona imágenes de mayor calidad que las producidas por
el software de interpolación.

Varios formatos estándar de resolución para cámaras y monitores:


1. VGA: Término usado para expresar una resolución de 640 columnas X 480 líneas

2. QVGA: Término usado para expresar una resolución de 320 columnas X 240 líneas

3. CIF: Término usado para expresar una resolución de 352 columnas X 288 líneas

4. QCIF (Quarter CIF): Término usado para expresar una resolución de 126 columnas
X 144 líneas

 Sensor CMOS: La calidad del sensor de la cámara es responsable en buena parte de


la calidad del video que la webcam puede producir. Los sensores CMOS
(Semiconductor Complementario de Óxido de Metal) usan un proceso estándar
nativo de las Unidades Centrales de Procesamiento (CPU). Como los chips CMOS
requieren menos energía que otros, la mayoría de las webcams, junto con muchas
cámaras de fotos digitales de alta resolución y muchos dispositivos electrónicos que
funcionan con baterías, use actualmente sensores CMOS.
 Sensor CCD: Los sensores CCD (Dispositivo de Carga Acoplada) hacen uso una
antigua tecnología de semiconductores. Hasta hace poco, los sensores CCD estándar
entregaban la mejor calidad de imagen (imágenes con poco ruido) en su clase. Sin
embargo, como resultado de la continua evolución de la tecnología CMOS, los
sensores CCD ahora enfrentan una seria competencia.
 USB 2.0: USB 2.0 es la versión más reciente del estándar USB. Añade un nuevo
modo de alta velocidad, 40 veces más rápido que el original modo de 12 Mbps.
 Video IM: Video IM es el uso de video en vivo en combinación con una aplicación
de mensajería instantánea (IM). MSN Messenger, Yahoo! Messenger y  AIM son
los ejemplos más comunes de aplicaciones de MI que soportan video.
 VideoCall/Video Calling: Video llamadas se refiere a capacidades de audio y
video completamente sincronizados diseñados específicamente para
comunicaciones de voz y visuales en tiempo real sobre Internet. Una aplicación de
video llamada debe proporcionar un mayor nivel de desempeño de audio y video en
una solución integrada y fácil de usar. Las video llamadas se están haciendo cada
vez más populares entre aquellos que desean ver y escuchar a sus amigos familiares
y aquellos a quienes ama y que están muy lejos geográficamente.

Periféricos de Salida

 Monitor
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA
(Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de
IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita,
cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los
monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron
comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar
CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por
comprar el monitor monocromático por su costo.

Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de
graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este
monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar
VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y
dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron,
desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para
este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy
conocidos como S3 Graphics, NVIDIA o ATI entre otros.

Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían
estando en la mayoría de hogares donde había un ordenador.

Parámetros de Pantalla

 Píxel: unidad mínima representable en un monitor. Los monitores pueden presentar


píxeles muertos o atascados.
 Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos
coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo
la distancia entre dos puntos del mismo color; resulta fundamental a grandes
resoluciones. Los tamaños de punto más pequeños producen imágenes más
uniformes. un monitor de 14 pulgadas suele tener un tamaño de punto de 0,28 mm o
menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor
medio, dependiendo de la disposición particular de los puntos de color en la
pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.
En LCD y en CRT de apertura de rejilla, es la distancia en horizontal, mientras que
en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en
este momento es que sea de 0,28mm. Para CAD o en general para diseño, lo ideal
sería de 0,25mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en
apertura de rejilla.
 Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para
representar los datos.
 Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que
se degrade demasiado la imagen. Se mide en grados.
 Luminancia: es la medida de luminosidad, medida en Candela.
 Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta
a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo.
 Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el
monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el
monitor.
 Coeficiente de Contraste de Imagen: se refiere a lo vivo que resultan los colores
por la proporción de brillo empleada. A mayor coeficiente, mayor es la intensidad
de los colores (30000:1 mostraría un colorido menos vivo que 50000:1).
 Consumo: cantidad de energía consumida por el monitor, se mide en Vatio.
 Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
 Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es
capaz de mostrar imágenes estables en la pantalla.
 Hz o frecuencia de refresco horizontal: similar al anterior pero en sentido
horizontal, para dibujar cada una de las líneas de la pantalla.
 Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas
externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o
semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del
tubo una plancha metálica en contacto con tierra o masa.
 Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de
máscara de sombra.
 Líneas de tensión: son unas líneas horizontales, que tienen los monitores de
apertura de rejilla para mantener las líneas que permiten mostrar los colores
perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también
los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.

Clasificación según estándares y tecnología de Monitores


Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido
evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la
calidad de las imágenes.

 Monitores MDA
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en
el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los
monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El
mismo creaba irritación en los ojos de sus usuarios.
Características:

 Sin modo gráfico.


 Resolución 720_350 píxeles.
 Soporte de texto monocromático.
 No soporta gráfico ni colores.
 La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
 Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

 Monitores CGA
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de
Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del
año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de
IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por
los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo
competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.

Características:

 Resoluciones 160_200, 320×200, 640×200 píxeles.


 Soporte de gráfico a color.
 Diseñado principalmente para juegos de computadoras.
 La tarjeta gráfica contenía 16 KB de memoria de vídeo.

 Monitores EGA
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM
para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una
mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería
sustituido por un monitor de mayores características.

Características:
 Resolución de 640_350 píxeles.
 Soporte para 16 colores.
 La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

 Monitores CRT
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más
conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que
hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se
realizan.

a. Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla,
una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo
en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá
representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el
máximo brillo.

b. Ventajas:

 Excelente calidad de imagen (definición, contraste, luminosidad).


 Económico.
 Tecnología robusta.
 Resolución de alta calidad.

c. Desventajas:

 Presenta parpadeo por el refrescado de imagen.


 Consumo de energía.
 Generación de calor.
 Generación de radiaciones eléctricas y magnéticas.
 Alto peso y tamaño.
 Monitores VGA
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987
por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores
empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores
anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

Características:

 Soporte de 720×400 píxeles en modo texto.


 Soporte de 640×480 píxeles en modo gráfico con 16 colores.
 Soporte de 320×200 píxeles en modo gráfico con 256 colores.
 Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

 Monitores SVGA
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también
conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados
para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este
estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características:

 Resolución de 800×600, 1024_768 píxeles y superiores.


 Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas
como: ATI, GeForce, NVIDIA, entre otros.

 Pantallas LCD
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas
en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español.
Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre
otros.

a. Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las
propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente
que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un
cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente
eléctrica que cambie su polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente
de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el
color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo,
verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles
de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje
que se aplica a los filtros.

b. Ventajas:

 Poco peso y tamaño.


 Buena calidad de colores.
 No contiene parpadeo.
 Poco consume de energía.
 Poca generación de calor.
 No genera radiaciones eléctricas y magnéticas.
c. Desventajas:

 Alto costo.
 Angulo limitado de visibilidad.
 Brillo limitado.
 Bajo tiempo de respuesta de píxeles.
 Contiene mercurio.

 Pantallas Plasma
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y
H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la
pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se
encuentran una la mayor resolución y ángulo de visibilidad.

a. Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas
luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma
funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un
pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda
estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una
diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de
plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material
fosforescente que recubre el interior de la celda. Cuando el material fosforescente
regresa a su estado energético natural, emite luz visible.

b. Ventajas:

 Excelente brillo.
 Alta resolución.
 Amplio ángulo de visión.
 No contiene mercurio.
 Tamaño de pantalla elevado.

c. Desventajas:
 Vida útil corta.
 Coste de fabricación elevado, superior a los LCD.
 Consumo de electricidad elevado.
 Poca pureza del color.
 Consumo energético y emisión de calor elevada.

 Impresora
Una impresora es un periférico de ordenador que permite producir una copia
permanente de textos o gráficos de documentos almacenados en formato electrónico,
imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando
cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y
están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas
impresoras de red, tienen una interfaz de red interno (típicamente wireless o Ethernet),
y que puede servir como un dispositivo para imprimir en papel algún documento para
cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de
multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory
Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres.
También existen aparatos multifunción que constan de impresora, escáner o máquinas
de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar
básicamente como una fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que
no requieran virtualmente un tiempo de configuración para conseguir una copia de un
determinado documento. Sin embargo, las impresoras son generalmente dispositivos
lentos (10 páginas por minuto es considerado rápido), y el coste por página es
relativamente alto.
Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la
misma función que las impresoras pero están diseñadas y optimizadas para realizar
trabajos de impresión de gran volumen como sería la impresión de periódicos. Las
imprentas son capaces de imprimir cientos de páginas por minuto o más.
Las impresoras han aumentado su calidad y rendimiento, lo que ha permitido que los
usuarios puedan realizar en su impresora local trabajos que solían realizarse en tiendas
Características de la impresora

 Formación de los caracteres: utilización de caracteres totalmente formados con


trazo continuo (por ejemplo, los producidos por una impresora de margarita) frente
a los caracteres matriciales compuestos por patrones de puntos independientes
(como los que producen las impresoras estándar matriciales, de chorro de tinta y
térmicas). Aunque las impresoras láser son técnicamente impresoras matriciales, la
nitidez de la impresión y el tamaño muy reducido de los puntos, impresos con una
elevada densidad, permite considerar que los trazos de sus caracteres son continuos.
 Método de transmisión: paralelo (transmisión byte a byte) frente a serie
(transmisión BIT a BIT). Estas categorías se refieren al medio utilizado para enviar
los datos a la impresora, más que a diferencias mecánicas. Muchas impresoras están
disponibles tanto en versiones paralelo o serie, y algunas incorporan ambas
opciones, lo que aumenta la flexibilidad a la hora de instalarlas.
 Método de impresión: carácter a carácter, línea a línea o página a página. Las
impresoras de caracteres son las matriciales, las de chorro de tinta, las térmicas y las
de margarita. Las impresoras de líneas se subdividen en impresoras de cinta, de
cadena y de tambor, y se utilizan frecuentemente en grandes instalaciones o redes
informáticas. Entre las impresoras de páginas se encuentran las electrofotográficas,
como las impresoras láser.
 Capacidad de impresión: sólo texto frente a texto y gráficos. La mayoría de las
Impresoras de margarita y de bola sólo pueden imprimir textos, si bien existen
impresoras matriciales y láser que sólo trabajan con caracteres. Estas impresoras
sólo pueden reproducir caracteres previamente grabados, ya sea en relieve o en
forma de mapa de caracteres interno. Las impresoras de textos y gráficos, entre las
que se encuentran las matriciales, las de chorro de tinta y las láser reproducen todo
tipo de imágenes dibujándolas como patrones de puntos.

Tipos de impresora

 Impresora de Impacto
Estas impresoras componen cada signo a imprimir a través de una matriz de puntos. Cuanto
más compactos estén colocados estos puntos de impresión, más legible resultará la
resolución de la imagen impresa. En el mercado podemos encontrar impresoras con
diferente número de agujas: 9, 18, 24, 48. Cuantas más agujas se tengan, menos
reconocibles son cada uno de los puntos y en consecuencia el signo impreso se hace más
nítido y legible (mayor calidad cuanto mayor número de agujas). Para mejorar el resultado
final de la imagen escrita, un gran número de impresoras ofrecen el denominado modo
NQL (Near Letter Quality). Con este sistema, cada signo se imprime dos veces, pero no
superpuesto, sino ligeramente desplazado. Mediante este sistema se consigue una mayor
densidad de puntos. Sin embargo, la repetición de la impresión hace que se emplee más
tiempo.

 Impresora Matriz de puntos [Dot-Matricial] o de aguja


El funcionamiento de la impresora de impacto es manejado por un microprocesador (que
ejecuta un programa que está en ROM de la impresora) que forma parte de la misma.
También en ROM están contenidas las matrices de puntos que conforman cada carácter a
imprin-dr, y en distintos tipos (Roman, Sans Serif, etc).
Esta forma de almacenar cada letra mediante un mapa o matriz de unos y ceros, que definen
una matriz de puntos (representados por los unos) prestablecidos se conoce como tipos de
letra fuentes "bit map". Cada letra se caracteriza por una matriz particular, que es única para
cada estilo de letra y tamaño.
Muchas impresoras presentan además una RAM para definir matrices de otras tipografías
no incorporadas.
La operatoria en modo texto es la siguiente. Desde memoria llegarán al port de la
impresora, byte por byte, caracteres codificados en ASCII para ser impresos, y un código
acerca del tipo y estilo de cada carácter. Cada uno será transferido a través del cable de
conexionado. Al buffer RAM de la impresora (de 8 KB), donde se almacenarán. Según la
fuente y el código ASCII de cada carácter a imprimir, el microprocesador de la impresora
localiza en la ROM la matriz de puntos que le corresponde.
 Luego este procesador -también ejecutando programas que están en ROM-
determina:
 los caracteres (matrices de puntos) que entrarán en el renglón (línea) a imprimir,
 el movimiento óptimo del cabezal de impresión (a derecha o izquierda, en función
de la posición donde este se halla en cada momento),
 qué agujas se deben disparar en cada posición del cabezal, para imprimir la línea
vertical de puntos que forma la matriz de un caracter en el papel.

Ventajas
Las impresoras matriciales, como cualquier impresora de impacto, puede imprimir en papel
multicapa o hacer copias carbón. Dichas impresoras tienen un bajo coste de impresión por
página. Conforme se termina la tinta, la impresión pierde intensidad gradualmente en lugar
de terminar repentinamente durante un trabajo. Pueden trabajar con papel continuo en lugar
de requerir hojas individuales, lo que las hace útiles para impresión de registros de datos.
Son buenas en general para situaciones en las que la resistencia y durabilidad sea más
importante que la calidad de impresión.

Desventajas
Las impresoras de impacto suelen ser ruidosas, hasta el punto de que existen carcasas
aislantes para su uso en entornos silenciosos. Sólo pueden imprimir texto y gráficos, con
una resolución de color limitada, relativamente baja calidad y a poca velocidad. Aunque
suelen ser la mejor solución para imprimir etiquetas y tickets, son propensas a que falle uno
de los pines del cabezal de impresión, dejando zonas apagadas en el texto
 Impresora de chorro de tinta
Otra técnica de impresión es el sistema de chorro de tinta, el cual se diferencia del anterior
sobre todo en lo que se refiere a su trabajo silencioso; es decir, que prácticamente trabaja
sin ruido. También la velocidad de impresión es en este caso más elevada, y lo mismo
ocurre con la calidad de impresión. Además no se precisa cinta de impresión. El cabezal de
impresión no se pone en ningún momento en contacto con el papel; en realidad se
imprimen minúsculas gotitas de tinta al papel a presión, a través de pequeños tubos
accionados por impulsos eléctricos. De esta forma una pequeña cantidad de tinta sale a
fuerte velocidad, y prácticamente se seca cuando se pone en contacto con el papel. Como
inconvenientes de esta técnica de impresión podemos decir que no se pueden usar papeles
de calco, y que no se puede usar cualquier papel si queremos una impresión de calidad. El
papel ha de ser muy absorbente pero no muy vasto para que la tinta no se corra.
La impresión de inyección de tinta, como la impresión láser, es un método de no-impacto.
La tinta es emitida por boquillas que se encuentran en el cabezal de impresión. El cabezal
de impresión recorre la página en franjas horizontales, usando un motor para moverse
lateralmente, y otro para pasar el papel en pasos verticales. Una franja de papel es impresa,
entonces el papel se mueve, listo para una nueva franja. Para acelerar el proceso, la cabeza
impresora no imprime sólo una simple línea de píxeles en cada pasada, sino también una
línea vertical de píxeles a la vez. La tinta se obtiene de unos cartuchos reemplazables.
Algunas impresoras utilizan dos cartuchos, uno para la tinta negra y otro para la de color,
en donde suelen están los tres colores básicos. Estas impresoras tienen como virtud la
facilidad de manejo, pero en contra, si utilizamos más un color que otro, nos veremos
obligados a realizar la sustitución del cartucho cuando cualquiera de los tres colores se
agote, aunque en los demás compartimentos todavía nos quede tinta de otros colores. La
mayoría de las impresoras de nueva generación utilizan cartuchos individuales por cada
color, esto permite al usuario reemplazar solo el color que se agote. Ademas con la
finalidad de mejorar los tonos claros y obscuros las nuevas impresoras fotográficas cuentan
con hasta doce colores diferentes (magenta claro, cyan claro, negro claro, azul marino,
naranja, rojo y verde entre otros).

Características
Las características principales de una impresora de inyección de tinta son la velocidad, que
se mide en páginas por minuto (ppm) y que suele ser distinta dependiendo de si
imprimimos en color o en monocromo, y la resolución máxima, que se mide en puntos por
pulgada (ppp). En ambos valores, cuanto mayores mejor

Ventajas
 La principal ventaja es que tienen un coste inicial muy inferior al de otras
impresoras.
 La nuevas impresoras cuentan con una velocidad de impresión igual o superior a las
impresoras laser de mediano tamaño.
 La instalación de un sistema de alimentación continuo de tinta baja los costos de
impresión a menos de 0,01 centavos de dolar por página a color.
 Otra ventaja adicional es su reducido tamaño frente a las impresoras láser a color,
debido a que estas últimas tienen que almacenar cuatro toners (cian, amarillo,
magenta y negro) de grandes dimensiones en su interior.

Desventajas
 El coste por copia respecto a otras impresoras es mucho mayor (con cartuchos
originales), debido a que el cartucho de tinta se consume con rapidez y es bastante
costoso.
 Otra importante desventaja que tienen es la relativa rapidez con que quedan
inservibles los cabezales de impresión si no se usan durante algunos meses. Esto ha
hecho que muchos usuarios con necesidades intermitentes de impresión se hayan
visto obligados a adquirir una impresora láser a color, a pesar de que su precio no
justifica su adquisición para la impresión de un número reducido de copias.

 Impresoras láser
Es la de más aceptación en la actualidad, junto con las impresoras de chorro de tinta. Ofrece
gran variedad de tipos de escritura, un nivel de ruido mínimo y una elevada rapidez en el
trabajo. Utilizan básicamente la misma técnica de impresión que las fotocopiadoras. La
impresión no es línea a línea, sino por páginas. Esto le obliga a disponer de una memoria de
trabajo lo suficientemente grande. Las representaciones gráficas fácilmente ocupan varios
Mbytes, mientras las matriciales debido a su técnica de impresión por líneas, necesitan
solamente un buffer de unos pocos Kbytes.
El color se lleva al papel mediante carboncillo (tóner), que es incinerado a continuación. La
luz y el calor de un láser crean la imagen de impresión. Una característica más importante
de estas impresoras es que el texto y los gráficos se elaboran e imprimen conjuntamente. La
calidad de impresión es muy alta y también lo es la velocidad.
Un grupo especial entre las impresoras láser lo constituyen los denominados láser
PostScript. Bajo este concepto se entiende un lenguaje de impresión de páginas. A través de
este lenguaje, los contenidos de cada página no son enviados a la impresora en forma de
matriz de puntos, sino en forma de gráfica vectorial. Mientras que la impresora en el
sistema convencional recibe de la computadora cada uno de los puntos a imprimir, con este
lenguaje se puede comunicar a la impresora instrucciones del tipo imprime un círculo con
centro en el centro de la página, 5 cm. de radio y 2 mm de grueso de línea.
El principio de funcionamiento visto para impresión monocroma también se conserva en las
impresoras láser color. Los cuatro colores (CYMK) de tóner están contenidos en el
cartucho. Un procedimiento de impresión requiere una secuencia de cuatro vueltas del
tambor (o correa de transferencia) para imprimir una página, a razón de una por color. En
cada vuelta, el haz láser (o un sistema de efectos equivalentes) "dibuja" los puntos del
cilindro que deben atraer las partículas de tóner con uno de esos cuatro colores. El tóner de
otro color adherido en vueltas anteriores se mantiene en la superficie del cilindro. En la
cuarta vuelta también tiene lugar el proceso de fijación de los colores de tóner al papel.
 Impresoras de margarita

Emplean el mismo principio de impresión que las máquinas de escribir de margarita. Los
caracteres de impresión (típicamente 96) se encuentran albergados en un pequeño disco que
gira hasta conseguir la posición adecuada. A continuación, un martillo golpea el carácter
contra la cinta, llevando el símbolo al papel. La velocidad de impresión es mucho más lenta
que en las vistas hasta ahora, pero la impresión ofrecida es precisa y nítida. Otro
inconveniente es el elevado ruido que provocan.

 Impresión térmica

Es una técnica de impresión menos extendida. Se basa en el sistema de termoreacción y la


técnica de transferencia térmica. Las impresoras térmicas exigen un papel especial que
libera color a través de una reacción química que se produce en presencia de calor. La
materia colorante del papel térmico, al reaccionar con el calor producido por el cabezal de
la impresora, crea la imagen de impresión. Estas impresoras no necesitan ningún tipo de
cinta y la impresión que se produce es extremadamente silenciosa. Suministran una
impresión muy nítida con un negro intenso. El gran inconveniente es que no son
recomendables para importantes volúmenes de papel debido fundamentalmente a su
elevado costo. A parte de las impresoras que acabamos de comentar, que funcionan por
termoreacción, se ofrecen en el mercado impresoras de transferencia térmica, que emplean
papel normal. Con esta técnica de impresión la materia colorante se encuentra no en el
papel, sino en una cinta especial. Tampoco resulta una impresión demasiado económica.
Un inconveniente decisivo de los productos de impresión realizados con impresoras
térmicas consiste en el hecho de que la impresión resultante no es resistente a la luz.
Además las hojas impresas son sensibles también al calor. Por efecto de un calor elevado
podría darse el caso de que la impresión desapareciera

 Plotters

Se trata de unos aparatos destinados a la impresión de planos para proyectos de arquitectura


o ingeniería, por lo que trabajan con enormes formatos, DIN-A1 (59,4x84 cm) o superiores.
Antiguamente consistían en una serie de plumillas móviles de diferentes grosores y colores
que se movían por la hoja reproduciendo el plano en cuestión, lo que era bastante incómodo
por el mantenimiento de las plumillas y podía ser impreciso al dibujar elementos tales como
grandes círculos. En la actualidad casi todos tienen mecanismos de inyección de tinta,
facilitando mucho el mantenimiento, que se reduce a cambiar los cartuchos; son auténticas
impresoras de tinta, sólo que el papel es mucho más ancho y suele venir en rollos de
decenas de metros.

 Impresoras para fotos

Constituyen una categoría de reciente aparición; usan métodos avanzados como la


sublimación o las ceras o tintas sólidas, que garantizan una pureza de color excepcional, si
bien con un coste relativamente elevado en cuanto a consumibles y una velocidad baja. La
calidad de estas impresoras suele ser tal, que muchas veces el resultado es indistinguible de
una copia fotográfica tradicional, incluso usando resoluciones relativamente bajas como
200 ppp. Sin embargo, son más bien caras y los formatos de impresión no suelen exceder el
clásico 10x15 cm., ya que cuando lo hacen los precios suben vertiginosamente y nos
encontramos ante impresoras más apropiadas para pruebas de imprenta y autoedición.

 Impresoras de gran formato

Resulta un calificativo tan bueno como cualquier otro para definir a las impresoras, casi
exclusivamente de tinta, que imprimen en formatos hasta el A2 (42x59,4 cm.). Son
impresoras que aúnan las ventajas de las impresoras de tinta en cuanto a velocidad, color y
resolución aceptables junto a un precio bastante ajustado, menos de 150.000 pts, lo que es
una pequeña fracción del precio de un plotter. Se utilizan para realizar carteles o póster,
pequeños planos o pruebas de planos grandes, así como cualquier tarea para la que sea
apropiada una impresora de tinta de menor formato: cartas, informes, gráficos... Hasta hace
poco sólo existían un par de modelos, ahora las hay de Epson, Canon, HP...

 Impresoras para grupos

Son impresoras de gran capacidad, preparadas para funcionar en una red incluso sin
depender de un ordenador de la misma. Suelen ser impresoras láser, en ocasiones con
soporte para color, con bandejas para 500 hojas o más, velocidades de más de 12 ppm
(reales) y memoria por encima de 6 MB. Últimamente se tiende a que tengan funciones de
fotocopiadora o capacidad para realizar pequeñas tiradas sin necesidad de emplear una
fotocopiadora, e incluso clasifican y encuadernan.
 Altavoz
También llamado parlantes o bocinas son periféricos externos, equipados comúnmente de
un amplificador interno de baja potencia. La conexión audio estándar es una estereofonía de
3.5m m (1/8 pulgada) enchufe del gato verde a menudo color-cifrado de la cal (siguiente
PC 99 estándar) para la computadora tarjetas de los sonidos. Un enchufe y un zócalo para
(señal y tierra) un cable coaxial de dos hilos que es ampliamente utilizado conectar
componentes audio y video análogos. También llamó un “conectador del phono,” las filas
de los zócalos de RCA se encuentran en las partes posteriores de amplificadores estéreos y
de productos numerosos de A/V. El diente es 1/8 " densamente por 5/16 " largo. Algunos
utilizan Conectador de RCA para la entrada. Hay también USB altavoces que se accionan
de los 5 voltios en 200 miliamperios proporcionó por el puerto del USB, permitiendo sobre
mitad del vatio de de potencia de salida.

Los altavoces de la computadora se extienden extensamente en calidad y en precio. Los


altavoces de la computadora empaquetados típicamente con los sistemas informáticos son
cajas plásticas pequeñas con calidad de sonido mediocre. Algunos de los altavoces
levemente mejores de la computadora tienen características de la igualación tales como
controles bajos y triples, mejorando su calidad de sonido algo.
Los amplificadores internos requieren una fuente de energía externa, conocida como
“pared-verruga”. Altavoces más sofisticados de la computadora pueden tener una unidad
del “subwoofer”, para realzar salida baja, y estas unidades incluyen generalmente los
amplificadores de energía ambos para el altavoz bajo, y los altavoces “basados en los
satélites” pequeños.
Altavoz de la PC es el sistema más primitivo de los sonidos usado adentro PC compatibles
con IBM. Era la única fuente del sonido disponible para Juegos de la PC antes de avanzado
más tecnológico tarjetas de los sonidos por ejemplo A voluntad y Arenador de los sonidos
fueron introducidos como ISA tarjetas enchufables a el final de los '80. Sin embargo,
incluso algunos años después de que estas tarjetas de los sonidos llegaron a ser de corriente
y ampliamente utilizadas, fabricantes del juego continuaron apoyando el sonido/la música
del altavoz en sus juegos para maximizar su base de cliente. Esto estaba en la parte debido
al hecho de que las tarjetas de los sonidos no siguieron ningún estándar comúnmente
acordado y eran originalmente en gran parte incompatibles con uno a, mientras que el
altavoz de la PC era el único sistema de los sonidos que se podría mirar como universal
presente.
El altavoz de la PC es caracterizado lo más mejor posible por su inhabilidad de jugar más
de un tono inmediatamente, la forma de onda que es generada por Contador de intervalos
programable. Debido a esto, a menudo fue apodado a Beeper de la PC o Squeaker de la
PC, especialmente cuando las tarjetas de los sonidos llegaron a estar extensamente
disponibles. A pesar de su naturaleza limitada, el altavoz de la PC era de uso frecuente de
maneras muy innovadoras de crear la impresión de polyphonic música o efectos sonoros
dentro de juegos de computadora de su era, tales como LucasArts serie de juegos de la
aventura a partir de los mid-1990s, el usar rápido arpeggios. Varios programas, incluyendo
P.M. (módulo Player, 1989), ScreamTracker, Perseguidor rápido, Perseguidor del impulso,
e incluso a Microsoft Windows el driver de dispositivo, podía jugar modulación del pulso-
código (PCM) suene a través del altavoz de la PC usando las técnicas especiales explicadas
más adelante en este artículo. Varios juegos por ejemplo Hulk del espacio y Fantasías del
billar automático fueron observados para sus efectos sonoros elaborados; El Hulk del
espacio particularmente iguala tenía discurso completo. Sin embargo, porque el método
usado para reproducir el PCM era muy sensible a las ediciones de la sincronización, estos
efectos causaron lentitud sensible en PC más lentas, o fallado a veces totalmente en PC más
rápidas (es decir, perceptiblemente más rápidamente que el programa fue convertido
originalmente para).
Todo moderno sistema operativo incluya un sonido genérico API, de modo que los usos
necesiten no más saber los específicos de cada tarjeta de los sonidos.
Correspondientemente, el uso del hardware sano de alta calidad ha llegado a ser corriente.
Consecuentemente, el altavoz de la PC se ocupa hoy principalmente de las señales de
peligro bajas tales como errores del start-up. Cueste lo que cueste, el interfaz del altavoz ha
seguido siendo igual y que tales pueden todavía ser utilizados (mientras no se han reducido
a onboard la miniatura piezo locutor, que características acústicas son perceptiblemente
diferentes de los altavoces de papel más viejos del cono tales que la mayor parte de el
trabajo más complejo de las técnicas de la generación de los sonidos no más).

 Modulación del Pulse-width


El altavoz de la PC se significa normalmente para reproducir una onda cuadrada vía
solamente 2 niveles de salida, conducidos por el canal 2 del Intel 8253 (PC, XT) o 8254
(EN y más adelante) Contador de intervalos programable funcionamiento en el modo tres
(señal cuadrada de la onda). El hardware sí mismo del altavoz es directamente accesible vía
puerto de la entrada-salida de la PC 61H (61 hexadecimal) vía el pedacito 1 y puede ser
manipulado físicamente para 2 niveles de salida (es decir. 1-pedacito sonido). Sin embargo,
cuidadosamente midiendo el tiempo de un cortocircuito pulso (es decir. yendo a partir de
un nivel de producción al otro y entonces de nuevo al primer), es posible conducir el
altavoz a los varios niveles de producción entre los dos niveles definidos. Esto permite con
eficacia que el locutor funcione como un petróleo bruto DAC, de tal modo permitiendo el
aparato de lectura aproximado del audio del PCM. Se llama esta técnica modulación del
pulse-width (PWM) y se utiliza notablemente adentro clase D audio amplificadores.
Conseguir una salida del sonido de la alta fidelidad de esta técnica requiere la frecuencia de
la conmutación entre los niveles de sonido mínimos y máximos ser mucho más alto que las
audiofrecuencias significadas para ser reproducido (típicamente con un cociente de 10:1 o
más), y el voltaje de la salida para ser bipolar para hacer un uso mejor la gama dinámica y
la energía de los dispositivos de salida (e.g. haciendo un altavoz vibre en ambas
direcciones). En el altavoz de la PC, sin embargo, el voltaje de la salida es o cero o TTL
nivel (unipolar). Consecuentemente, la precisión de esta técnica cuando está utilizada en el
altavoz de la PC es comparable en el mejor de los casos a un pedacito 6 PCM DAC,
mientras que los resultados audio finales dependerán de la sincronización exacta y de la
naturaleza del sonido reproducido.
La fidelidad audio de esta técnica será disminuida más a fondo por la carencia de un
dinámico correctamente clasificada altavoz, de máquinas modernas y particularmente
típicas computadoras portátiles, ese uso a piezoeléctrico altavoz. La razón de esto es ésa
PWM- el audio producido requiere a filtro low-pass antes de que la salida final para
suprimir el ruido y los armónicos altos, algo de la conmutación que un altavoz dinámico
normal puede hacer en la su propia derecha, mientras que un altavoz piezoeléctrico dejará
la mayoría del paso del ruido de la conmutación, como muchos empalmes directos.

 Características comunes

Las características varían por el fabricante, pero pueden incluir el siguiente:

 LED indicador de energía.


 3.5 milímetros (1/8-inch) auricular gato.
 Controles para el volumen, y a veces bajo y triple.
 Un control de volumen alejado.

Periféricos de Entrada y Salida E/S


 Memoria USB (Pendrive)
Las primeras unidades flash fueron fabricadas por la empresa israelí M-Systems bajo la
marca "Disgo" en tamaños de 8 MB, 16 MB, 32 MB y 64 MB. Estos fueron promocionados
como los "verdaderos reemplazos del disquete", y su diseño continuó hasta los 256 MB.
Los fabricantes asiáticos pronto fabricaron sus propias unidades más baratas que las de la
serie Disgo.
Modelos Anteriores de este dispositivo utilizaban baterías, en vez de la alimentación de la
PC
Las modernas unidades flash (2009) poseen conectividad USB 3.0 y almacenan hasta 256
GB de memoria (lo cual es 1024 veces mayor al diseño de M-Systems). También hay
dispositivos, que aparte de su función habitual, poseen una Memoria USB como aditamento
incluido, (como algunos ratones ópticos inalámbricos) o Memorias USB con aditamento
para reconocer otros tipos de memorias (microSD, m2, etc.
En Agosto de 2010, Imation anuncia el lanzamiento al mercado de la nueva línea de USB
de seguridad Flash Drive Defender F200, con capacidad de 1GB, 2GB, 4GB, 8GB, 16GB y
32GB. Estas unidades de almacenamiento cuentan con un sensor biométrico ergonómico
basado en un hardware que valida las coincidencias de las huellas dactilares de
identificación antes de acceder a la información. Entre su diseño destaca la gran resistencia
al polvo, agua y a ser falsificadas; fuera de toda característica física el dispositivo
proporciona seguridad avanzada a través de FIPS 140-2, encripción AES de 256-bit nivel 3,
autenticación, administración y seguridad biométrica; incluye también controles
administrativos para gestionar hasta 10 usuarios y políticas de contraseñas complejas y
personalizadas.
 Componentes primarios
Las partes típicas de una memoria USB son las siguientes:

 Un conector USB macho tipo A (1): Provee la interfaz física con la


computadora.
 Controlador USB de almacenamiento masivo (2): Implementa el controlador
USB y provee la interfaz homogénea y lineal para dispositivos USB seriales
orientados a bloques, mientras oculta la complejidad de la orientación a bloques,
eliminación de bloques y balance de desgaste. Este controlador posee un
pequeño microprocesador RISC y un pequeño número de circuitos de memoria
RAM y ROM.
 Circuito de memoria Flash NAND (4): Almacena los datos.
 Oscilador de cristal (5): Produce la señal de reloj principal del dispositivo a 12
MHz y controla la salida de datos a través de un bucle de fase cerrado (phase-
locked loop)

 Componentes Adicionales
Un dispositivo típico puede incluir también:

 Puentes y Puntos de prueba (3): Utilizados en pruebas durante la fabricación


de la unidad o para la carga de código dentro del procesador.
 LEDs (6): Indican la transferencia de datos entre el dispositivo y la
computadora.
 Interruptor para protección de escritura (7): Utilizado para proteger los datos
de operaciones de escritura o borrado.
 Espacio Libre (8): Se dispone de un espacio para incluir un segundo circuito
de memoria. Esto le permite a los fabricantes utilizar el mismo circuito
impreso para dispositivos de distintos tamaños y responder así a las
necesidades del mercado.
 Tapa del conector USB: Reduce el riesgo de daños y mejora la apariencia
del dispositivo. Algunas unidades no presentan una tapa pero disponen de
una conexión USB retráctil. Otros dispositivos poseen una tapa giratoria que
no se separa nunca del dispositivo y evita el riesgo de perderla.
 Ayuda para el transporte: En muchos casos, la tapa contiene una abertura
adecuada para una cadena o collar, sin embargo este diseño aumenta el
riesgo de perder el dispositivo. Por esta razón muchos otros tiene dicha
abertura en el cuerpo del dispositivo y no en la tapa, la desventaja de este
diseño está en que la cadena o collar queda unida al dispositivo mientras está
conectado. Muchos diseños traen la abertura en ambos lugares
 Disco Duro Externo
Un disco duro portátil (o disco duro externo) es un disco duro que es fácilmente
transportable de un lado a otro sin necesidad de consumir energía eléctrica o batería.
Desde que los CD-R y CD-RW se han extendido como almacenamiento barato, se ha
cambiado la filosofía de tener el mismo tipo de almacenamiento de disco intercambiables
tanto para almacenamiento como para copia de seguridad o almacenamiento definitivo.
Antes normalmente eran discos magnéticos o magneto-ópticos. Ahora se tiende a tener el
almacenamiento óptico para un uso más definitivo y otro medio sin discos intercambiable
para transporte. Este el caso de las memorias USB y los discos duros portátiles.
Un disco duro portátil puede ser desde un microdisco hasta un disco duro normal de
sobremesa con una carcasa adaptadora. Las conexiones más habituales son USB 2.0 y
Firewire, menos las SCSI y las SATA. Estas últimas no estaban concebidas para uso
externo pero dado su longitud del cable permitida y su capacidad Hot-plug, no es difícil
usarlas de este modo.
Los discos USB microdrive y portátiles (2,5") se pueden alimentar de la conexión USB.
Aunque algunas veces no es suficiente y requieren ser enchufados a dos USB a la vez.
Los SCSI y ATA no pueden suministrar corriente para alimentación por lo que siempre
requieren un transformador para ellos. Los Firewire se alimentan de la conexión sin
problemas.
Los discos duros de sobremesa (3,5") requieren también transformador por su alto
consumo.
Las capacidades van desde el 2GB de los microdiscos a los cientos de Gb de los de 3,5".
Lo habitual es que por los menos tengan conexión USB, lo que permite la compatiblidad
con casi cualquier ordenador fabricado después de 1998.

Hay 4 tipos básicos de discos duros externos:

1. Discos duros externos portátiles.


Son discos duros con un tamaño reducido, del orden de las 2.5 pulgadas de diámetro (2.5")
y un diseño que permite transportarlos fácilmente de un lugar a otro, por lo que cuenta con
características de protección contra golpes y sacudidas.
Los conectores de datos con que cuenta pueden ser USB 2.0/ USB 3.0, eSATA ó ambos
dependiendo el modelo. Las capacidades actuales de almacenamiento fluctúan entre 60
Gigabytes (Gb) hasta 640 Gb.

2. Discos duros externos de escritorio.


Son discos duros con un tamaño considerable en comparación con el portátil, es decir 3.5
pulgadas de diámetro (3.5"), por lo que cuenta con una base que permite colocarlo de
manera segura en una superficie plana. Los conectores de datos con que cuenta pueden ser
USB 2.0/USB 3.0, eSATA, FireWire, LAN RJ45, WirelessG ó una combinación entre los
anteriores dependiendo el modelo. Las capacidades actuales de almacenamiento fluctúan
entre 80 GB hasta 2.0 Terabytes (Tb).
3. Mini Discos duros externos.
Son discos duros con un tamaño sumamente pequeño (4.5 cm. x 5 cm.), que permiten ser
usados de manera similar a una memoria USB, pero con una capacidad superior de
almacenamiento. 
El conector de datos con que cuenta es un USB. Las capacidades actuales de
almacenamiento fluctúan entre 16 Gb hasta 32 Gigabytes. Se alimenta eléctricamente por
medio del puerto USB de la computadora.
Estos dispositivos no lograron la popularidad de las memorias USB, por lo que su
comercialización no fue exitosa, actualmente es difícil encontrar estos dispositivos en el
mercado.

4. Convertidor de disco duro interno a externo.


No es propiamente un disco duro externo, sino un gabinete metálico (case), listo para se
armado, que permite reconocer un disco duro IDE ó un disco duro SATA / SATA II como
externo,  y de esta manera poder transportarlo de un lugar a otro.
El tipo de conector que utiliza para conectarse a la computadora es un USB y se alimenta
eléctricamente por medio de un convertidor AC/DC que se coloca directamente a la
corriente del enchufe de pared. La capacidad está en función del disco duro de 3.5" ó 2.5"
elegido para montar en el case (desde 10 Megabytes (Mb) hasta 1.5 Terabytes (Tb).

 Unidad Óptica CD
El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés
Toshitada Doi, de Sony, en 1979. Al año siguiente, Sony y Philips, que habían desarrollado
el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero
las ventas no tuvieron éxito por la depresión económica de aquella época. Entonces
decidieron abarcar el mercado de la música clásica, de mayor calidad. Comenzaba el
lanzamiento del nuevo y revolucionario formato de grabación audio que posteriormente se
extendería a otros sectores de la grabación de datos.
El sistema óptico fue desarrollado por Philips mientras que la Lectura y Codificación
Digital corrió a cargo de Sony, fue presentado en junio de 1980 a la industria y se
adhirieron al nuevo producto 40 compañías de todo el mundo mediante la obtención de las
licencias correspondientes para la producción de reproductores y discos.
En 1981, el director de orquesta Herbert von Karajan convencido del valor de los discos
compactos, los promovió durante el festival de Salzburgo y desde ese momento empezó su
éxito. Los primeros títulos grabados en discos compactos en Europa fueron la Sinfonía
alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el pianista
chileno Claudio Arrau y el álbum The Visitors de ABBA, en 1983 se produciría el primer
disco compacto en los Estados Unidos por CBS (Hoy Sony Music) siendo el primer título
en el mercado un álbum de Billy Joel. La producción de discos compactos se centralizó por
varios años en los Estados Unidos y Alemania de donde eran distribuidos a todo el mundo.
Ya entrada la década de los noventas se instalaron fábricas en diversos países como
ejemplo en 1992 Sonopress produjo en México el primer CD de Título "De Mil Colores" de
Daniela Romo.
Fue en Octubre de 1982 cuando, Sony y Philips comenzaron a comercializar el CD.
En el año 1984 salieron al mundo de la informática, permitiendo almacenar hasta 700 MB.
El diámetro de la perforación central de los discos compactos fue determinado en 15 mm,
cuando entre comidas, los creadores se inspiraron en el diámetro de la moneda de 10
centavos de florín de Holanda. En cambio, el diámetro de los discos compactos es de 12
cm, lo que corresponde a la anchura de los bolsillos superiores de las camisas para
hombres, porque según la filosofía de Sony, todo debía caber allí.

 Especificaciones

Lente óptica de un lector.

 Velocidad de la exploración: 1,2–1,4 m/s, equivale aproximadamente a entre 500


rpm (revoluciones por minuto) y 200 rpm, en modo de lectura CLV (Constant
Linear Velocity, 'Velocidad Lineal Constante').
 Distancia entre pistas: 1,6 µm.
 Diámetro del disco: 120 u 80 mm.
 Grosor del disco: 1,2 mm.
 Radio del área interna del disco: 25 mm.
 Radio del área externa del disco: 58 mm.
 Diámetro del orificio central: 15 mm.
 Tipos de disco compacto:
o Sólo lectura: CD-ROM (Compact Disc - Read Only Memory).
o Grabable: CD-R (Compact Disc - Recordable).
o Regrabable: CD-RW (Compact Disc - Re-Writable).
o De audio: CD-DA (Compact Disc - Digital Audio).

Un CD de audio se reproduce a una velocidad tal que se leen 150 KB por segundo. Esta
velocidad base se usa como referencia para identificar otros lectores como los de
ordenador, de modo que si un lector indica 24x, significa que lee 24 x 150 kB = 3.600 kB/s,
aunque se ha de considerar que los lectores con indicación de velocidad superior a 4x no
funcionan con velocidad angular variable como los lectores de CD-DA, sino que emplean
velocidad de giro constante, siendo el radio obtenible por la fórmula anterior el máximo
alcanzable (esto es, al leer los datos grabados junto al borde exterior del disco).

El área del disco es de 86,05 cm², de modo que la longitud del espiral grabable será de
86,05/1,6 = 5,38 km. Con una velocidad de exploración de 1,2 m/s, el tiempo de duración
de un CD-DA es 80 minutos, o alrededor de 700 MB de datos. Si el diámetro del disco en
vez de 120 milímetros fuera 115 mm, el máximo tiempo de duración habría sido 68
minutos, es decir, 12 minutos menos.
Conclusiones
Si bien estos no son todos los periféricos que puede
haber, son los que son más utilizados.

Dependiendo de las necesidades que tenga el usuario


se debe adquirir un dispositivo, así podremos obtener
un funcionamiento óptimo de nuestro computador.
Bibliografía
Wikipedia.com
Taringa.com
Informáticamoderna.com
Worldlingo.com
Monografias.com
Maestrosdelweb.com

You might also like