La caja de los ordenador se rige por una serie de características que debe tener para su correcta utilidad que son:
-Rigidez
-Ventilacion
-Peso
Las partes laterales, una de ellas esta cubierta mientras que la otra tiene orificios para una correcta ventilacion y que no se sobrecaliente.
La parte posterior de la caja se reserca para la fuente de alimentacion,la ranuras de expansión y el panel lateral de la placa.
La parte frontal ser reserva para las disqueteras y el botón de reinicio y encendido básicamente.
SEGÚN ESTAS CARACTERÍSTICAS,existen diferentes tipos de torres:
Microtorre
Minitorre
Semitorre
La torre normal
Gran Torre
Slim
Mini
Sobremesa
La fuente de alimentacion.
La fuente de alimentacion proporciona energía tanto al ordenador en si como a los componentes que se encuentran en su interior(disqueteras,memoria ram....)
Existen también diferentes modelos de fuentes de alimentacion como la AT o la ATX cada una con sus respectivas características.
Cuando se trata de un portátil cambia un poco la cosa por que carecen de fuente de alimentacion sustituyendola por un adaptador de corriente.
La Placa base.
La placa base determina tanto el modelo de torre como la fuente de alimentacion y es donde se conectan todos los componentes del ordenador.
El Microprocesador.
El microprocesador es el circuito que gobierna todos los componentes del ordenador.Se aloja en el socket.
Sus características mas importantes son:
-La velocidad del reloj
-El numero de núcleos
-El bus del sistema
-La memoria cache
A la hora de elegir un microprocesador hay que mirar bien las características que queremos que tenga y la utilidad que le vallamos a dar.
El sistema de refrigeracion.
El sistema de refrigeracion por aire esta compuesto por un conjunto de ventiladores y disipadores que mantienen una temperatura adecuada.
Para ello se fijan 2 objetivos:
-Reducir la temperatura de los componentes específicos del equipo que generen mucho calor.
-Reducir la temperatura del interior de la caja
El sistema de refrigeracion básico consta de un elemento llamado disipador.El disipador esta fabricado en una aleación que absorbe el calor.Se coloca encima del componente que va a refrigerar.Si el disipador no es suficiente se usa un ventilador que se fija a la parte superior y extrae el aire caliente.
La memoria RAM.
La memoria RAM es el dispositivo donde se almacenan los datos e instrucciones necesatios para el correcto funcionamiento del equipo.
Hay dos tipos:
-Estática:su contenido no se altera mientras haya corriente eléctrica.
-Dinámica:Su lectura es destructiva,por lo que hay que refrescar.
La memoria SRAM tiene una capacidad reducida pero su velocidad es muy rápida.
en cambio la DRAM es mucho mas lenta que la SRAM pero admite mayores capacidades y es mas barata.Hay dos tipo de DRAM pero,por su uso,destacamos la SDRAM,cuyas variables son: -SDR -DDR
La memoria RAM para portátiles es mas limitada.Los módulos se llaman SoDIMMy son mucho mas pequeños.
Mantiene la distinción de modelos usando la situación de la muesca en la zona de contacto.
Los dispositivos de almacenamiento.
En los dispositivos de almacenamiento se guardan, de forma temporal o permanente,datos y programas que se manejan en el equipo.
para empezar hay diferentes unidades de almacenamiento: -El disco duro:es el principal dispositivo de almacenamiento del equipo y su cometido es contener,entre otros datos,el sistema operativo.La capacidad de un disco duro puede ser muy variable.Se coloca en la parte frontal inferior de la caja.
-La disquetera:utiliza un soporte magnético llamado disquete para leer y escribir la información.Se coloca en la parte frontal debido a su tamaño reducido.
-La unidad óptica:dentro de este tipo de dispositivos se encuentran las unidades de lectura y gradación de CD, DVD o BlueRay.
-El lector de tarjetas:este dispositivo agrupa ranuras para diversos tipos de tarjetas flash. Dischas tarjetas suelen utilizarse en aparatos electrónicos como cámaras, teléfonos...Al tener el mismo tamaño que la disquetera, ocupa su lugar en la caja, aunque algunos modelos vienen con un adaptador para colocarlo en una ranura mas grande.
-Dispositivos de almacenamiento en portátiles:en los portátiles el disco duro es mucho mas pequeño, ya no existe la disquetera para portátiles, la unidad óptica suele ser combo y el lector de tarjetas esta integrado en la placa y no es tan completo.
Las tarjetas de expansión.
Se utilizan cuando un equipo carece de algunas de las funciones que proporcionan los diferentes tipos de tarjetas o cuando la placa base ofrece esas funciones pero queremos mejorarlas. -La tarjeta gráfica:es la tarjeta mas utilizada a pesar de venir integrada en la placa base.Es tan importante que tiene su propia GPU y memoria RAM.Las especificaciones que suelen aparecer en las tartjetas grafícas son:el fabricante, información sobre su RAM y el tipo de interfaz.
-La tarjeta de sonido:Se utiliza especialmente para videojuegos y multimedia.Salvo necesidades muy concretas, suele emplearse la que viene integrada en la placa.La tarjeta de sonido se basa en un chip que procesa la señal de audio, no tiene ni CPU ni RAM.
Existen otras tarjetas de expansión dedicadas a multimedia o a aumentar los puertos.
El la entrada anterior desmonte la fuente de alimentacion, las unicades de disco, los calbes ID y el disco duro.
Esta vez me toco desmontar eso y aparte la memoria RAM y la tarjeta de video.
Para quitar la memoria ram es muy sencillo solo hay que desanclarla de las ranura con unas pequeñas palanquitas que hay que presionar hacia afuera.
Tal como muestra la imagen y despues solo es tirar,pero con cuidado.
Para quitar la tarjeta de video solo tienes que quitar el tornilo que la ancla a la carcasa asi:
Despues hay que soltar una pequeña palanca que hay en la parte frontal y despues es solo tirar un poquito y saldra sola,como muestra la imagen:
Y ya esta,montarlo es mas facil y solo tienes que encajar.
Quitamos los claves de anclaje de la carcasa de la fuente de alimentacion
y desenchufamos los conectores,procediendo a sacarla y limpiarla.
Quitamos los cables ID tirando del enganche no del cable.
Ahora procedemos a desmontar las disquetera,CD-ROM y el disco duro quitando los tornillos de anclaje y dejándolos al lado de cada pieza para no confundirnos.
Estos son los pasos para desmontar algunos de los componentes del PC.
Montaje de la torre:
Es bastante mas rápido que el desmontaje lo único que hay que hacer es tener las piezas bien colocadas y colocar los tornillos adecuados.
Empezamos por colocar la disquetera,el CD-ROM y el disco duro.
Ahora conectamos los cables ID con cuidado de no doblar ninguna patilla.
Y por ultimo enganchamos la fuente de imantación a la carcasa y enchufamos los conectores.
Por ultimo cerramos las carcasas y las atornillamos,seria conveniente probar si funciona para ver si lo hemos hecho bien.
Es una tecnología que permite visualizar imágenes mediante un haz de rayos catódicos constante dirigido contra una pantalla de vidrio recubierta de fósforo y plomo. El fósforo permite reproducir la imagen proveniente del haz de rayos catódicos, mientras que el plomo bloquea los rayos X para proteger al usuario de sus radiaciones. Funcionamiento. El cañón electrónico se encarga de generar un fino haz de electrones que, después de atravesar los diferentes electrodos que lo constituyen, impacta en pantalla. Dicha emisión se basa en el principio de la (emisión termoiónica) la cual nos dice que por un conductor sometido ha una diferencia de potencial circulan electrones. Ha este conductor se le llama cátodo y es el que produce el haz. Para controlar esta emisión se le coloca la rejilla de control, que es la que nos controla el brillo y para que los electrones impacten en la pantalla, se utiliza otra rejilla denominada rejilla de pantalla que los atrae al estar a un mayor potencial que el cátodo. Para mantener estable el hazutilizamos una tercera rejilla la de enfoque que obliga a que los electrones sigan una trayectoria, para que al final impacten en el ánodo final (la pantalla).
Un sistema analógico tiene muchas limitaciones que los sistemas digitales permiten solventar; por ejemplo, un sistema analógico debe respertar unos criterios de calidad que afectan a la transmisión de la señal. Como la señal transmitida debe ser una réplica análoga de la señal original, es necesario que esta forma no se distorcione.
La calidad de recepció de estos sistemas depende de la potencia de la señal recbida y de la potencia del ruido que se le ha añadido a lo largo de todo el trayecto. La relación entre esas magnitudes se denomina relación señal a ruido, y sus límites condicionan el diseño de todo el sistema.
Los sistemas digitales tienen ventajas de diversa índole que permiten que se vayan imponiendo en todos los aspectos de las telecomunicaciones.
• Factores tecnológicos.
• La tecnología digital maneja señales sencillas y uniformes, independizándola del origen primero de la información.
• El almacenamiento de la información permite una gran densidad de almacenamiento y una gran facilidad para la gestión y mantenimiento.
• Factores sistemáticos.
• Los sistemas digitales son muy uniformes y no necesitan los complicados ajustes de los sistemas analógicos.
• Proporcionan una gran calidad, consiguiendo transportar la información sin ninguna degradación gracias a la regeneración completa de la señal en lo equipos amplificadores. El proceso de amplificado se realiza mediante un descodificado-codificado de la señal, por lo que se eliminan todos los efectos del ruido. El ruido en estos sistemas no es factor acumulativo a lo largo de distintos segmentos.
• Simplifican la integración de sistemas distintos, ya que son comunes las tareas de conmutación y control. Además las interfaces son fáciles de realizar y estandarizar.
• Factores económicos: los sistemas digitales aprovechan componentes de la industria de la microeléctrica, de los computadores, por lo que se benefician de las economías de escala que se producen en esta indutria. Los sistemas digitales son muy adecuados a su fabricación en serie debido a que no presentan los problemas de tolerancia tan crítico que tienen sus equivalentes analógicos.
• Ventajas del control y gestión: permiten una gran flexibilidad en el control de la red, permintiendo el uso de sitemas de control sofisticados que permiten nuevos servicios añadidos a los básicos. CONCLUSIÓN:
Los sistemas analógicos tienen muchas desventajas que los sistemas digitasles nos permiten solventar, sólo hay un problema y es que éstos últimos tienen la gran desventaja que la naturaleza es meramente analógica.
La Ciudad Condal acoge, un año más, a la mayor feria de telefonía móvil. Aunque el evento arranca mañana de forma oficial, hoy se celebran varias presentaciones. Las previsiones apuntan a que generará más de 300 millones de euros a la zona y que generará más de 6.000 trabajos temporales.
Llega con el lema Explora el nuevo horizonte móvil, y ha cambiado su sede habitual. Este año se celebra en las nuevas instalaciones de la Fira Gran Vía, que cuenta con 94.000 metros cuadrados (un 33% más que los 70.500 habituales), y donde habrá 1.500 expositores, en línea con el año pasado, de los que 113 serán de firmas españolas.
Noticias:
Samsung presentará un Galaxy Note de 8 pulgadas en Barcelona
Las grandes 'telecos' de todo el mundo se unen para luchar contra WhatsApp
Barcelona se convertirá en laboratorio de pruebas de la tecnología NFC
ETC.
Los 10 Avances mas destacados por mi.
Facebook Phone
Ex ingenieros de Apple han sido contratados por Mark Zuckerberg para dar vida al teléfono de Facebook, que los rumores sugieren, que llegará a las tiendas en 2013. De hecho, los rumores sobre un teléfono inteligente que llevaría la marca de la red social más popular del mundo allí desde finales de 2010 que cada año promete ser el año de su lanzamiento.
Pero, de nuevo, esto no debería suceder este año. Aunque las publicaciones de peso como The New York Times han propagado el rumor, diciendo incluso que Facebook también adquirió algunos software de Apple para esta empresa, Mark Zuckerberg, dijo él mismo a mediados de 2012 que la version del dispositivo aun no esta lista.
Por supuesto, no sería el primer caso en que un ejecutivo niega una versión que se confirmaría más tarde, pero tal vez no es realmente el momento para Facebook desde el mundo de los dispositivos, ya muy pobladas y lleno de gente. Recuerde también que la red social ahora se ha asociado con HTC, que produce dos modelos de servicios totalmente integrados creados por Zuckerberg.
Google Glass
2013 tampoco será el año de las gafas de realidad aumentada de Google que fueron considerados por la revista Time como el mejor invento del año 2012 . Sin embargo, el dispositivo, que funcionaría como un ordenador de verdad ante sus ojos, probablemente no llegue en este año.
Además de las críticas con respecto a temas tales como la invasión de la privacidad, la seguridad de datos e incluso riesgos para la salud, todo lo relacionado con Google Glass, el dispositivo debe ser puesto en marcha y se accede inicialmente sólo por un público muy restringido también por precio. En junio de 2012, los rumores eran conscientes de que el kit “Explorer” costaría alrededor de $ 3000.
Realidad Virtual
No es de hoy que la realidad virtual habita en la imaginación humana, pero aún debe tomar un tiempo para que usted sea capaz de comprar un dispositivo que funciona con este tipo de tecnología. Aunque algunos proyectos en etapa más avanzada, como Glass Google.La cantidad de investigación en el área, e incluso la robustez de algunos proyectos creen que pronto este tipo de productos debe estar disponible en el mercado. Sin embargo, para asegurarse de que no va a suceder en 2013.
Cargadores Wireless de baterías en lugares públicos
Recientemente, Nokia y HTC han lanzado teléfonos con soporte para la recepción de carga por inducción, un método que no requiere ningún cable conector para recargar la batería de su tableta o smartphone. La noticia refuerza la posibilidad de que esta práctica se convierte en una tendencia a estar disponibles en lugares públicos, como ya está ocurriendo con el internet inalámbrico.
Sin embargo, es poco probable que esto suceda ya en 2013, y en gran parte responsable de la demora es una “guerra de estándares” que se dibuja. Los teléfonos de Nokia y HTC usan el estándar Qi para la carga inalámbrica, sin embargo el móvil gigantes Samsung y Qualcomm llegaro a un acuerdo con el estándar AW4P (acrónimo de Alianza para el Wireless Power o en traducción libre, Alliance for Power Wireless).
Esto significa una cosa: las grandes compañías siguieron patrones distintos, que debe dejar los establecimientos que deseen ofrecer este tipo de servicio es un poco reacio a que uno elija. Hasta que se encuentre una solución al impase, cargue la batería de su dispositivo en un lugar público sin conectores será sólo una idea lejana.
Divulgación de pago por móvil
En julio de 2012, Bill Gajda, responsable de la industria móvil de Visa, anunció que los pagos a través del móvil debe popularizar una vez cada dos o tres años , con los primeros movimientos de ese cambio que ya está ocurriendo en 2013. De hecho, en algunas partes del mundo, especialmente de Estados Unidos, algunos operadores de telefonía móvil ya trabajan con Google Wallet sistema de pago NFC a través de la empresa también con el apoyo de algunas tiendas.
Sin embargo, a pesar de este paso inicial, el método no debe ser común para el año 2013. El analista de la industria Denee Carrington apostar a que este tipo de pago debe comenzar a hacerse popular, de hecho, sólo a partir de 2015. Además de los problemas operacionales, existe todavía el factor de resistencia de los consumidores en unirse a un método que tal vez no parece tan segura como las tarjetas de crédito y tarjetas de débito tradicionales.
Pantallas flexibles en tabletas y smartphones
Usted probablemente ha preguntado: ¿cuál es la de las pantallas flexibles El hecho es que, útil o no, están en los planes de las grandes empresas como Microsoft y Samsung . Al menos eso es lo que indica un reciente registro de patentes por la empresa de Bill Gates y también el número de inversiones en las pinturas de género por parte de la empresa de Corea del Sur.
Samsung, por cierto, parece ser el mismo gran entusiasta de las pantallas flexibles, con diversos rumores giran alrededor de sus lanzamientos. Sin embargo, salvo una gran sorpresa a pasar CES no será tan pronto como este tipo de pantalla va a ganar el mercado. De todos modos, 2013 no es el año de las pantallas flexibles.
REALIDAD VIRTUAL .
No es de hoy que
la realidad virtual habita en la imaginación humana, pero aún debe tomar un
tiempo para que usted sea capaz de comprar un dispositivo que funciona con este
tipo de tecnología. Aunque algunos proyectos en etapa más avanzada, como Glass
Google.La cantidad de investigación en el área, e incluso la robustez de algunos
proyectos creen que pronto este tipo de productos debe estar disponible en el
mercado. Sin embargo, para asegurarse de que no va a suceder en 2013.
LG OLED DE 55 PULGADAS.
LG ha lanzado un televisor OLED de 55 pulgadas
(140cm), dando inicio a la batalla de la próxima generación de pantallas de alta
calidad. Las pantallas OLED, que significa "diodos emisores de luz orgánicos",
son más eficientes que las alternativas de plasma y LCD (pantallas de cristal
líquido). El modelo de LG se venderá primero en Corea del Sur y, posteriormente,
le seguirán otros mercados, incluyendo Europa.
Tanto LG como Samsung
anunciaron las pantallas OLED de 55 pulgadas el año pasado, pero LG ha sido el
primero en sacarlas al mercado. Las empresas presentaron sus televisores en la
última Feria de dispositivos electrónicos de consumo, la Consumer Electronics
Show, que tuvo lugar en enero del año pasado en Las Vegas, pero hasta ahora
ninguna compañía había conseguido sacar un producto al mercado.
Esta
ventaja inicial de LG sobre su rival le ha dado un impulso del 5,4% al precio de
sus acciones. El televisor OLED 1080p (1920 x 1080 píxeles) se va a vender por
10.300 dólares. Según los analistas es poco probable que la tecnología se vuelva
más asequible, al menos hasta el 2015; y consideran que el objetivo de su salida
al mercado es más bien cimentar la posición de LG como líder del
mercado.
Independientemente, según la firma de investigación
DisplaySearch, se espera que las ventas globalesde televisores OLED aumenten
hasta 1,7 millones para el 2014.
Las pantallas OLED se han promocionado
como sucesoras de las populares pantallas de cristal líquido (LCD). La
tecnología permite visualizar unos negros más oscuros y profundos; y puede ser
más delgada que los otros métodos de visualización con los que
compite.
Las pantallas OLED más pequeñas ya se distribuyen en masa.
Samsung utiliza la tecnología en sus teléfonos inteligentes y la consola
portátil PlayStation Vita de Sony también utiliza esta tecnología delgada y
ligera. Sin embargo, las pantallas OLED de mayor tamaño han resultado ser
difíciles de fabricar debido, principalmente, a las restricciones de coste y
fiabilidad. Otra tecnología conocida como 4K también ha recibido mucha atención
por parte de los fabricantes. Apodada "Ultra HD", la tecnología 4K ofrece 8
millones de píxeles por frame (cuatro veces la resolución de las pantallas 1080p
de alta definición), por lo que es especialmente adecuada para pantallas extra
grandes. Se espera que se muestren modelos de 110 pulgadas (279cm) en la Feria
CES de la próxima semana. Los actuales televisores 4K están basados en los LCD.
Sin embargo, según algunos puristas, los OLED ofrecen una calidad de
visualización más rica, por lo que podrían ser una mejor opción para las
pantallas de 55 pulgadas.
CÁMARA SIN LENTE .
De la investigación de un sistema de
formación de imágenes sin lente podrían surgir unos sensores baratos que ayuden
a evitar colisiones de automóviles. Unos científicos estadounidenses han usado
metamateriales para construir el sistema de formación de imágenes, que muestrea
la luz infrarroja y de microondas.
Los metamateriales son materiales
cuyas propiedades están diseñadas con un fin, en lugar de estar determinadas por
su composición química. El sensor también comprime las imágenes que captura, a
diferencia de los sistemas de compresión actuales, que sólo comprimen imágenes
después de que hayan sido tomadas.
La mayoría de los sistemas de
formación de imágenes, como los que se encuentran en las cámaras digitales,
utilizan una lente para enfocar una escena en un sensor repleto de millones de
sensores diminutos. Un mayor número de sensores implica que se captan más
detalles y, en general, produce una imagen de mayor resolución.
El
sistema de formación de imágenes desarrollado por el estudiante de posgrado John
Hunt y sus colegas de la Universidad de Duke, en Carolina del Norte, no tiene
ninguna lente y, en su lugar, combina una abertura o máscara de metamateriales y
unas matemáticas complejas para generar una imagen de una escena. La abertura se
utiliza para enfocar, sobre un detector, diferentes longitudes de onda de la luz
presente en diferentes partes de una escena. Las diferentes frecuencias captadas
en la escena se muestrean secuencialmente. Este muestreo ayudó a elaborar la
distribución y mezcla de las longitudes de onda de la luz captadas en una
escena, y sus intensidades relativas, señaló Hunt. "Luego utilizamos algunas
matemáticas muy elegantes desarrolladas en la formación de imágenes
computacional para convertir esos datos en una imagen 2D", añadió.
El
muestreo de las longitudes de onda se lleva a cabo electrónicamente, por lo que
tiene lugar muy rápido. Actualmente, el sistema de formación de imágenes podría
tomar cerca de 10 imágenes por segundo, según el investigador. Aunque ya existen
sistemas de formación de imágenes que captan las longitudes de onda infrarrojas
y de microondas, por lo general son muy costosos, voluminosos o complicados de
construir. Por el contrario, el sistema de formación de imágenes de Duke utiliza
una tira delgada de metamaterial combinada con algo de electrónica y un software
de procesamiento. Y si bien todavía no ha trabajado con longitudes de onda
visibles de la luz, Hunt señala que podría dar lugar a una serie de sensores
baratos, pequeños y portátiles que podrían tener un papel importante en muchos
campos diferentes.
NUEVA TÉCNICA PARA DETENER HEMORRAGIAS . Dos líquidos que se convierten
en una espuma sólida tras ser inyectados en el cuerpo podrían, algún día, salvar
la vida de los soldados y los civiles heridos al frenar las hemorragias
internas, de modo que puedan llegar a un hospital. La agencia estadounidense
DARPA (Defense Advanced Research Projects Agency) concedió a Arsenal Medical una
subvención de 15,5 millones de dólares en diciembre para ampliar el desarrollo
de esta tecnología, que se administraría a un soldado herido a través del
ombligo.
En la actualidad, los médicos y paramédicos del campo de batalla
no tienen herramientas para detener las hemorragias internas antes de que el
herido llegue a un hospital. Ahora, la compañía Arsenal Medical, de Watertown,
Massachusetts, ha diseñado una sustancia que llena la cavidad abdominal y forma
una espuma sólida capaz de retardar la hemorragia interna. La espuma se forma a
partir de dos líquidos.
"La mezcla de los dos componentes líquidos
origina una reacción química que impulsa el material a lo largo de la cavidad
abdominal", señala Upma Sharma, director de investigación de la tecnología en
Arsenal. La idea es que la espuma ejerza suficiente presión sobre la zona de la
lesión como para ralentizar el sangrado hasta tres horas, con el fin de que el
soldado pueda ser trasladado a un hospital. Allí, un cirujano retirará el bloque
de espuma y atenderá las heridas del soldado.
La empresa probó más de
1.200 mezclas diferentes antes de encontrar la combinación con las propiedades
adecuadas. La espuma no puede formarse demasiado rápido ni demasiado lento, no
puede ser demasiado dura ni demasiado blanda cuando se vuelve sólida y los
cirujanos deben ser capaces de retirarla sin causar más daños al soldado. La
espuma endurecida es un poliuretano, una familia de materiales que ya se utiliza
en el cemento óseo, en injertos vasculares y en otras situaciones médicas;
además de en los asientos de automóviles y el aislamiento. El equipo está
probando la espuma en cerdos a los que se les causa una lesión interna que corta
el hígado y una vena importante. Con el tratamiento, casi tres cuartas partes
continúan vivos tres horas después. Además, están realizando un seguimiento de
los cerdos para estudiar los efectos a largo plazo una vez retirada la espuma.
La compañía planea empezar a trabajar con la FDA (Food and Drug Administration)
estadounidense este año para determinar cómo probar la tecnología en el campo de
batalla.
El codificador y
decodificador estan en el segundo paso de la imagen, despues de capturar la
imagen hay que transformarla en 0 y 1 para que pueda leerlo un
ordenador. ·Codificador: dispositivo para la conversión de datos o
señales empleando un determinado código.Normalmente se usa con cuatro
propósitosclaramente diferenciados: 1) Eliminar las interferenciasde la información;2) Aumentar la rebundancia de modo que el decodificador
pueda detectar y corregir errores que se hayan producido en la
recepción de señales o símbolos, hablándose en este caso de codificador de
canal.3)Para hacer que los datos codificados sean ilegibles salvo que se
conozca el código, mediante encriptadores o cifradores. 4)Permitir la
transmisión de datos sobre un canal con unos determinados recursos y
limitaciones, que correspondería en el modelo empleadoen la TMC al
transmisor-codificador y que (especialmente en telecomunicaciones) es denominado
modulador.
·Decodificador:
Es el dispositivo que realiza la operación conversa, sea cual sea el
propósito del código: el decodificador defuente tratara de devolver la
rebundancia eliminada; el de canal retiraría la introducida por el codificadorcorrespondiente, corrigiendo los errores que fuera capaz de detectar; el
descifrador haría que los datos resultaran legibles; y el demodulador (o
receptor-decodificador) identificaría el símbolo transmitido por el canal
–normalmente bajo un criterio de máxima verosimilitud- y reexpresando los datos
con la forma que tenían antes del modulador.