jueves, 23 de mayo de 2013

Tema 4 - Componentes internos del ordenador.

La caja del ordenador.

La caja de los ordenador se rige por una serie de características que debe tener para su correcta utilidad que son:
-Rigidez      
-Ventilacion
-Peso           
Las partes laterales, una de ellas esta cubierta mientras que la otra tiene orificios para una correcta ventilacion y que no se sobrecaliente.
La parte posterior de la caja se reserca para la fuente de alimentacion,la ranuras de expansión y el panel lateral de la placa.
La parte frontal ser reserva para las disqueteras y el botón de reinicio y encendido básicamente.
SEGÚN ESTAS CARACTERÍSTICAS,existen diferentes tipos de torres:
Microtorre
Minitorre
Semitorre
La torre normal
Gran Torre
Slim
Mini
Sobremesa
La fuente de alimentacion.
La fuente de alimentacion proporciona energía tanto al ordenador en si como a los componentes que se encuentran en su interior(disqueteras,memoria ram....) 
Existen también diferentes modelos de fuentes de alimentacion como la AT o la ATX cada una con sus respectivas características.
Cuando se trata de un portátil cambia un poco la cosa por que carecen de fuente de alimentacion sustituyendola por un adaptador de corriente.
La Placa base.

La placa base determina tanto el modelo de torre como la fuente de alimentacion y es donde se conectan todos los componentes del ordenador.
El Microprocesador.
El microprocesador es el circuito que gobierna todos los componentes del ordenador.Se aloja en el socket.
Sus características mas importantes son:
-La velocidad del reloj
-El numero de núcleos
-El bus del sistema
-La memoria cache
A la hora de elegir un microprocesador hay que mirar bien las características que queremos que tenga y la utilidad que le vallamos a dar.
El sistema de refrigeracion.
El sistema de refrigeracion por aire esta compuesto por un conjunto de ventiladores y disipadores que mantienen una temperatura adecuada.
Para ello se fijan 2 objetivos:
-Reducir la temperatura de los componentes específicos del equipo que generen mucho calor.
-Reducir la temperatura del interior de la caja
El sistema de refrigeracion básico consta de un elemento llamado disipador.El disipador esta fabricado en una aleación que absorbe el calor.Se coloca encima del componente que va a refrigerar.Si el disipador no es suficiente se usa un ventilador que se fija a la parte superior y extrae el aire caliente.
 La memoria RAM.
La memoria RAM es el dispositivo donde se almacenan los datos e instrucciones necesatios para el correcto funcionamiento del equipo.
Hay dos tipos:
-Estática:su contenido no se altera mientras haya corriente eléctrica.


-Dinámica:Su lectura es     destructiva,por lo que hay que refrescar.

La memoria SRAM tiene una capacidad reducida pero su velocidad es muy rápida.
en cambio la DRAM es mucho mas lenta que la SRAM pero admite mayores capacidades y es mas barata.Hay dos tipo de DRAM pero,por su uso,destacamos la SDRAM,cuyas variables son:
-SDR
-DDR
La memoria RAM para portátiles es mas limitada.Los módulos se llaman SoDIMMy son mucho mas pequeños.
Mantiene la distinción de modelos usando la situación de la muesca en la zona de contacto.

Los dispositivos de almacenamiento.

En los dispositivos de almacenamiento se guardan, de forma temporal o permanente,datos y programas que se manejan en el equipo.
para empezar hay diferentes unidades de almacenamiento:
-El disco duro:es el principal dispositivo de almacenamiento del equipo y su cometido es contener,entre otros datos,el sistema operativo.La capacidad de un disco duro puede ser muy variable.Se coloca en la parte frontal inferior de la caja.
-La disquetera:utiliza un soporte magnético llamado disquete para leer y escribir la información.Se coloca en la parte frontal debido a su tamaño reducido.
-La unidad óptica:dentro de este tipo de dispositivos se encuentran las unidades de lectura y gradación de CD, DVD o BlueRay.
-El lector de tarjetas:este dispositivo agrupa ranuras para diversos tipos de tarjetas flash. Dischas tarjetas suelen utilizarse en aparatos electrónicos como cámaras, teléfonos...Al tener el mismo tamaño que la disquetera, ocupa su lugar en la caja, aunque algunos modelos vienen con un adaptador para colocarlo en una ranura mas grande.
-Dispositivos de almacenamiento en portátiles:en los portátiles el disco duro es mucho mas pequeño, ya no existe la disquetera para portátiles, la unidad óptica suele ser combo y el lector de tarjetas esta integrado en la placa y no es tan completo.

Las tarjetas de expansión.

Se utilizan cuando un equipo carece de algunas de las funciones que proporcionan los diferentes tipos de tarjetas o cuando la placa base ofrece esas funciones pero queremos mejorarlas.
-La tarjeta gráfica:es la tarjeta mas utilizada a pesar de venir integrada en la placa base.Es tan importante que tiene su propia GPU y memoria RAM.Las especificaciones que suelen aparecer en las tartjetas grafícas son:el fabricante, información sobre su RAM y el tipo de interfaz.


-La tarjeta de sonido:Se utiliza especialmente para videojuegos y multimedia.Salvo necesidades muy concretas, suele emplearse la que viene integrada en la placa.La tarjeta de sonido se basa en un chip que procesa la señal de audio, no tiene ni CPU ni RAM.



Existen otras tarjetas de expansión dedicadas a multimedia o a aumentar los puertos.

jueves, 16 de mayo de 2013

Desontaje y montaje 2

El la entrada anterior desmonte la fuente de alimentacion, las unicades de disco, los calbes ID y el disco duro.

Esta vez me toco desmontar eso y aparte la memoria RAM y la tarjeta de video.
Para quitar la memoria ram es muy sencillo solo hay que desanclarla de las ranura con unas pequeñas palanquitas que hay que presionar hacia afuera.

Tal como muestra la imagen y despues solo es tirar,pero con cuidado.

Para quitar la tarjeta de video solo tienes que quitar el tornilo que la ancla a la carcasa asi:
 
 
Despues hay que soltar una pequeña palanca que hay en la parte frontal y despues es solo tirar un poquito y saldra sola,como muestra la imagen:





 
 



 
 
Y ya esta,montarlo es mas facil y solo tienes que encajar.


jueves, 9 de mayo de 2013

Montaje y desmontaje de PC.

Desmontaje de la torre:
  1. Se quitan las carcasas laterales.
  2. Quitamos los claves de anclaje de la carcasa de la fuente de alimentacion




     y desenchufamos los conectores,procediendo a sacarla y limpiarla.
  3. Quitamos los cables ID tirando del enganche no del cable.
  4. Ahora procedemos a desmontar las disquetera,CD-ROM y el disco duro quitando los tornillos de anclaje y dejándolos al lado de cada pieza para no confundirnos.
Estos son los pasos para desmontar algunos de los componentes del PC.

Montaje de la torre:

Es bastante mas rápido que el desmontaje lo único que hay que hacer es tener las piezas bien colocadas y colocar los tornillos adecuados.
  1. Empezamos por  colocar la disquetera,el CD-ROM y el disco duro.
  2. Ahora conectamos los cables ID con cuidado de no doblar ninguna patilla.
  3. Y por ultimo enganchamos la fuente de imantación a la carcasa y enchufamos los conectores.
Por ultimo cerramos las carcasas y las atornillamos,seria conveniente probar si funciona para ver si lo hemos hecho bien.

viernes, 15 de marzo de 2013

TRC.

 Tubo de rayos catodicos.
 
 
Es una tecnología que permite visualizar imágenes mediante un haz de rayos catódicos constante dirigido contra una pantalla de vidrio recubierta de fósforo y plomo. El fósforo permite reproducir la imagen proveniente del haz de rayos catódicos, mientras que el plomo bloquea los rayos X para proteger al usuario de sus radiaciones.

Funcionamiento.

El cañón electrónico se encarga de generar un fino haz de electrones que, después de atravesar los diferentes electrodos que lo constituyen, impacta en pantalla.
Dicha emisión se basa en el principio de la (emisión termoiónica) la cual nos dice que por un conductor sometido ha una diferencia de potencial circulan electrones. Ha este conductor se le llama cátodo y es el que produce el haz.
Para controlar esta emisión se le coloca la rejilla de control, que es la que nos controla el brillo y para que los electrones impacten en la pantalla, se utiliza otra rejilla denominada rejilla de pantalla que los atrae al estar a un mayor potencial que el cátodo. Para mantener estable el hazutilizamos una tercera rejilla la de enfoque que obliga a que los electrones sigan una trayectoria, para que al final impacten en el ánodo final (la pantalla).



 

jueves, 14 de marzo de 2013

Analógico Vs Digital.


Un sistema analógico tiene muchas limitaciones que los sistemas digitales permiten solventar; por ejemplo, un sistema analógico debe respertar unos criterios de calidad que afectan a la transmisión de la señal. Como la señal transmitida debe ser una réplica análoga de la señal original, es necesario que esta forma no se distorcione.

La calidad de recepció de estos sistemas depende de la potencia de la señal recbida y de la potencia del ruido que se le ha añadido a lo largo de todo el trayecto. La relación entre esas magnitudes se denomina relación señal a ruido, y sus límites condicionan el diseño de todo el sistema.

Los sistemas digitales tienen ventajas de diversa índole que permiten que se vayan imponiendo en todos los aspectos de las telecomunicaciones.

• Factores tecnológicos.

• La tecnología digital maneja señales sencillas y uniformes, independizándola del origen primero de la información.

• El almacenamiento de la información permite una gran densidad de almacenamiento y una gran facilidad para la gestión y mantenimiento.

• Factores sistemáticos.

• Los sistemas digitales son muy uniformes y no necesitan los complicados ajustes de los sistemas analógicos.

• Proporcionan una gran calidad, consiguiendo transportar la información sin ninguna degradación gracias a la regeneración completa de la señal en lo equipos amplificadores. El proceso de amplificado se realiza mediante un descodificado-codificado de la señal, por lo que se eliminan todos los efectos del ruido. El ruido en estos sistemas no es factor acumulativo a lo largo de distintos segmentos.

• Simplifican la integración de sistemas distintos, ya que son comunes las tareas de conmutación y control. Además las interfaces son fáciles de realizar y estandarizar.

• Factores económicos: los sistemas digitales aprovechan componentes de la industria de la microeléctrica, de los computadores, por lo que se benefician de las economías de escala que se producen en esta indutria. Los sistemas digitales son muy adecuados a su fabricación en serie debido a que no presentan los problemas de tolerancia tan crítico que tienen sus equivalentes analógicos.

• Ventajas del control y gestión: permiten una gran flexibilidad en el control de la red, permintiendo el uso de sitemas de control sofisticados que permiten nuevos servicios añadidos a los básicos.

CONCLUSIÓN:

Los sistemas analógicos tienen muchas desventajas que los sistemas digitasles nos permiten solventar, sólo hay un problema y es que éstos últimos tienen la gran desventaja que la naturaleza es meramente analógica.

Feria de Barcelona.



La Ciudad Condal acoge, un año más, a la mayor feria de telefonía móvil. Aunque el evento arranca mañana de forma oficial, hoy se celebran varias presentaciones.
Las previsiones apuntan a que generará más de 300 millones de euros a la zona y que generará más de 6.000 trabajos temporales.

Llega con el lema Explora el nuevo horizonte móvil, y ha cambiado su sede habitual. Este año se celebra en las nuevas instalaciones de la Fira Gran Vía, que cuenta con 94.000 metros cuadrados (un 33% más que los 70.500 habituales), y donde habrá 1.500 expositores, en línea con el año pasado, de los que 113 serán de firmas españolas.

Noticias:
  • Samsung presentará un Galaxy Note de 8 pulgadas en Barcelona
  • Las grandes 'telecos' de todo el mundo se unen para luchar contra WhatsApp
  • Barcelona se convertirá en laboratorio de pruebas de la tecnología NFC
  • ETC.
 
Los 10 Avances mas destacados por mi.


Facebook Phone




Ex ingenieros de Apple han sido contratados por Mark Zuckerberg para dar vida al teléfono de Facebook, que los rumores sugieren, que llegará a las tiendas en 2013. De hecho, los rumores sobre un teléfono inteligente que llevaría la marca de la red social más popular del mundo allí desde finales de 2010 que cada año promete ser el año de su lanzamiento.

Pero, de nuevo, esto no debería suceder este año. Aunque las publicaciones de peso como The New York Times han propagado el rumor, diciendo incluso que Facebook también adquirió algunos software de Apple para esta empresa, Mark Zuckerberg, dijo él mismo a mediados de 2012 que la version del dispositivo aun no esta lista.

Por supuesto, no sería el primer caso en que un ejecutivo niega una versión que se confirmaría más tarde, pero tal vez no es realmente el momento para Facebook desde el mundo de los dispositivos, ya muy pobladas y lleno de gente. Recuerde también que la red social ahora se ha asociado con HTC, que produce dos modelos de servicios totalmente integrados creados por Zuckerberg.


Google Glass




2013 tampoco será el año de las gafas de realidad aumentada de Google que fueron considerados por la revista Time como el mejor invento del año 2012 . Sin embargo, el dispositivo, que funcionaría como un ordenador de verdad ante sus ojos, probablemente no llegue en este año.

Además de las críticas con respecto a temas tales como la invasión de la privacidad, la seguridad de datos e incluso riesgos para la salud, todo lo relacionado con Google Glass, el dispositivo debe ser puesto en marcha y se accede inicialmente sólo por un público muy restringido también por precio. En junio de 2012, los rumores eran conscientes de que el kit “Explorer” costaría alrededor de $ 3000.
 
Realidad Virtual


No es de hoy que la realidad virtual habita en la imaginación humana, pero aún debe tomar un tiempo para que usted sea capaz de comprar un dispositivo que funciona con este tipo de tecnología. Aunque algunos proyectos en etapa más avanzada, como Glass Google.La cantidad de investigación en el área, e incluso la robustez de algunos proyectos creen que pronto este tipo de productos debe estar disponible en el mercado. Sin embargo, para asegurarse de que no va a suceder en 2013.



Cargadores Wireless de baterías en lugares públicos




Recientemente, Nokia y HTC han lanzado teléfonos con soporte para la recepción de carga por inducción, un método que no requiere ningún cable conector para recargar la batería de su tableta o smartphone. La noticia refuerza la posibilidad de que esta práctica se convierte en una tendencia a estar disponibles en lugares públicos, como ya está ocurriendo con el internet inalámbrico.

Sin embargo, es poco probable que esto suceda ya en 2013, y en gran parte responsable de la demora es una “guerra de estándares” que se dibuja. Los teléfonos de Nokia y HTC usan el estándar Qi para la carga inalámbrica, sin embargo el móvil gigantes Samsung y Qualcomm llegaro a un acuerdo con el estándar AW4P (acrónimo de Alianza para el Wireless Power o en traducción libre, Alliance for Power Wireless).

Esto significa una cosa: las grandes compañías siguieron patrones distintos, que debe dejar los establecimientos que deseen ofrecer este tipo de servicio es un poco reacio a que uno elija. Hasta que se encuentre una solución al impase, cargue la batería de su dispositivo en un lugar público sin conectores será sólo una idea lejana.


Divulgación de pago por móvil




En julio de 2012, Bill Gajda, responsable de la industria móvil de Visa, anunció que los pagos a través del móvil debe popularizar una vez cada dos o tres años , con los primeros movimientos de ese cambio que ya está ocurriendo en 2013. De hecho, en algunas partes del mundo, especialmente de Estados Unidos, algunos operadores de telefonía móvil ya trabajan con Google Wallet sistema de pago NFC a través de la empresa también con el apoyo de algunas tiendas.

Sin embargo, a pesar de este paso inicial, el método no debe ser común para el año 2013. El analista de la industria Denee Carrington apostar a que este tipo de pago debe comenzar a hacerse popular, de hecho, sólo a partir de 2015. Además de los problemas operacionales, existe todavía el factor de resistencia de los consumidores en unirse a un método que tal vez no parece tan segura como las tarjetas de crédito y tarjetas de débito tradicionales.


Pantallas flexibles en tabletas y smartphones





Usted probablemente ha preguntado: ¿cuál es la de las pantallas flexibles El hecho es que, útil o no, están en los planes de las grandes empresas como Microsoft y Samsung . Al menos eso es lo que indica un reciente registro de patentes por la empresa de Bill Gates y también el número de inversiones en las pinturas de género por parte de la empresa de Corea del Sur.

Samsung, por cierto, parece ser el mismo gran entusiasta de las pantallas flexibles, con diversos rumores giran alrededor de sus lanzamientos. Sin embargo, salvo una gran sorpresa a pasar CES no será tan pronto como este tipo de pantalla va a ganar el mercado. De todos modos, 2013 no es el año de las pantallas flexibles.
 
 
REALIDAD VIRTUAL .

 No es de hoy que la realidad virtual habita en la imaginación humana, pero aún debe tomar un tiempo para que usted sea capaz de comprar un dispositivo que funciona con este tipo de tecnología. Aunque algunos proyectos en etapa más avanzada, como Glass Google.La cantidad de investigación en el área, e incluso la robustez de algunos proyectos creen que pronto este tipo de productos debe estar disponible en el mercado. Sin embargo, para asegurarse de que no va a suceder en 2013.

 
 
 
LG OLED DE 55 PULGADAS.
LG ha lanzado un televisor OLED de 55 pulgadas (140cm), dando inicio a la batalla de la próxima generación de pantallas de alta calidad. Las pantallas OLED, que significa "diodos emisores de luz orgánicos", son más eficientes que las alternativas de plasma y LCD (pantallas de cristal líquido). El modelo de LG se venderá primero en Corea del Sur y, posteriormente, le seguirán otros mercados, incluyendo Europa.

Tanto LG como Samsung anunciaron las pantallas OLED de 55 pulgadas el año pasado, pero LG ha sido el primero en sacarlas al mercado. Las empresas presentaron sus televisores en la última Feria de dispositivos electrónicos de consumo, la Consumer Electronics Show, que tuvo lugar en enero del año pasado en Las Vegas, pero hasta ahora ninguna compañía había conseguido sacar un producto al mercado.

Esta ventaja inicial de LG sobre su rival le ha dado un impulso del 5,4% al precio de sus acciones. El televisor OLED 1080p (1920 x 1080 píxeles) se va a vender por 10.300 dólares. Según los analistas es poco probable que la tecnología se vuelva más asequible, al menos hasta el 2015; y consideran que el objetivo de su salida al mercado es más bien cimentar la posición de LG como líder del mercado.

Independientemente, según la firma de investigación DisplaySearch, se espera que las ventas globales
de televisores OLED aumenten hasta 1,7 millones para el 2014.

Las pantallas OLED se han promocionado como sucesoras de las populares pantallas de cristal líquido (LCD). La tecnología permite visualizar unos negros más oscuros y profundos; y puede ser más delgada que los otros métodos de visualización con los que compite.

Las pantallas OLED más pequeñas ya se distribuyen en masa. Samsung utiliza la tecnología en sus teléfonos inteligentes y la consola portátil PlayStation Vita de Sony también utiliza esta tecnología delgada y ligera. Sin embargo, las pantallas OLED de mayor tamaño han resultado ser difíciles de fabricar debido, principalmente, a las restricciones de coste y fiabilidad. Otra tecnología conocida como 4K también ha recibido mucha atención por parte de los fabricantes. Apodada "Ultra HD", la tecnología 4K ofrece 8 millones de píxeles por frame (cuatro veces la resolución de las pantallas 1080p de alta definición), por lo que es especialmente adecuada para pantallas extra grandes. Se espera que se muestren modelos de 110 pulgadas (279cm) en la Feria CES de la próxima semana. Los actuales televisores 4K están basados en los LCD. Sin embargo, según algunos puristas, los OLED ofrecen una calidad de visualización más rica, por lo que podrían ser una mejor opción para las pantallas de 55 pulgadas.
 
 
 
CÁMARA SIN LENTE .

De la investigación de un sistema de formación de imágenes sin lente podrían surgir unos sensores baratos que ayuden a evitar colisiones de automóviles. Unos científicos estadounidenses han usado metamateriales para construir el sistema de formación de imágenes, que muestrea la luz infrarroja y de microondas.

Los metamateriales son materiales cuyas propiedades están diseñadas con un fin, en lugar de estar determinadas por su composición química. El sensor también comprime las imágenes que captura, a diferencia de los sistemas de compresión actuales, que sólo comprimen imágenes después de que hayan sido tomadas.

La mayoría de los sistemas de formación de imágenes, como los que se encuentran en las cámaras digitales, utilizan una lente para enfocar una escena en un sensor repleto de millones de sensores diminutos. Un mayor número de sensores implica que se captan más detalles y, en general, produce una imagen de mayor resolución.

El sistema de formación de imágenes desarrollado por el estudiante de posgrado John Hunt y sus colegas de la Universidad de Duke, en Carolina del Norte, no tiene ninguna lente y, en su lugar, combina una abertura o máscara de metamateriales y unas matemáticas complejas para generar una imagen de una escena. La abertura se utiliza para enfocar, sobre un detector, diferentes longitudes de onda de la luz presente en diferentes partes de una escena. Las diferentes frecuencias captadas en la escena se muestrean secuencialmente. Este muestreo ayudó a elaborar la distribución y mezcla de las longitudes de onda de la luz captadas en una escena, y sus intensidades relativas, señaló Hunt. "Luego utilizamos algunas matemáticas muy elegantes desarrolladas en la formación de imágenes computacional para convertir esos datos en una imagen 2D", añadió.

El muestreo de las longitudes de onda se lleva a cabo electrónicamente, por lo que tiene lugar muy rápido. Actualmente, el sistema de formación de imágenes podría tomar cerca de 10 imágenes por segundo, según el investigador. Aunque ya existen sistemas de formación de imágenes que captan las longitudes de onda infrarrojas y de microondas, por lo general son muy costosos, voluminosos o complicados de construir. Por el contrario, el sistema de formación de imágenes de Duke utiliza una tira delgada de metamaterial combinada con algo de electrónica y un software de procesamiento. Y si bien todavía no ha trabajado con longitudes de onda visibles de la luz, Hunt señala que podría dar lugar a una serie de sensores baratos, pequeños y portátiles que podrían tener un papel importante en muchos campos diferentes.

 
 
 NUEVA TÉCNICA PARA DETENER HEMORRAGIAS .
Dos líquidos que se convierten en una espuma sólida tras ser inyectados en el cuerpo podrían, algún día, salvar la vida de los soldados y los civiles heridos al frenar las hemorragias internas, de modo que puedan llegar a un hospital. La agencia estadounidense DARPA (Defense Advanced Research Projects Agency) concedió a Arsenal Medical una subvención de 15,5 millones de dólares en diciembre para ampliar el desarrollo de esta tecnología, que se administraría a un soldado herido a través del ombligo.

En la actualidad, los médicos y paramédicos del campo de batalla no tienen herramientas para detener las hemorragias internas antes de que el herido llegue a un hospital. Ahora, la compañía Arsenal Medical, de Watertown, Massachusetts, ha diseñado una sustancia que llena la cavidad abdominal y forma una espuma sólida capaz de retardar la hemorragia interna. La espuma se forma a partir de dos líquidos.

"La mezcla de los dos componentes líquidos origina una reacción química que impulsa el material a lo largo de la cavidad abdominal", señala Upma Sharma, director de investigación de la tecnología en Arsenal. La idea es que la espuma ejerza suficiente presión sobre la zona de la lesión como para ralentizar el sangrado hasta tres horas, con el fin de que el soldado pueda ser trasladado a un hospital. Allí, un cirujano retirará el bloque de espuma y atenderá las heridas del soldado.

La empresa probó más de 1.200 mezclas diferentes antes de encontrar la combinación con las propiedades adecuadas. La espuma no puede formarse demasiado rápido ni demasiado lento, no puede ser demasiado dura ni demasiado blanda cuando se vuelve sólida y los cirujanos deben ser capaces de retirarla sin causar más daños al soldado. La espuma endurecida es un poliuretano, una familia de materiales que ya se utiliza en el cemento óseo, en injertos vasculares y en otras situaciones médicas; además de en los asientos de automóviles y el aislamiento.

El equipo está probando la espuma en cerdos a los que se les causa una lesión interna que corta el hígado y una vena importante. Con el tratamiento, casi tres cuartas partes continúan vivos tres horas después. Además, están realizando un seguimiento de los cerdos para estudiar los efectos a largo plazo una vez retirada la espuma. La compañía planea empezar a trabajar con la FDA (Food and Drug Administration) estadounidense este año para determinar cómo probar la tecnología en el campo de batalla.

lunes, 11 de marzo de 2013

El 2º paso de la imagen.

2º Paso de la imagen.
 
Cofificando y decodificando:
El codificador y decodificador estan en el segundo paso de la imagen, despues de capturar la imagen hay que transformarla en 0 y 1 para que pueda leerlo un ordenador.
·Codificador: dispositivo para la conversión de datos o señales empleando un determinado código.Normalmente se usa con cuatro propósitos claramente diferenciados: 1) Eliminar las interferencias de la información;2) Aumentar la rebundancia de modo que el decodificador pueda  detectar y corregir errores que se hayan producido en la recepción de señales o símbolos, hablándose en este caso de codificador de canal.3) Para hacer que los datos codificados sean ilegibles salvo que se conozca el código, mediante encriptadores o cifradores. 4) Permitir la transmisión de datos sobre un canal con unos determinados recursos y limitaciones, que correspondería en el modelo empleado en la TMC al transmisor-codificador y que (especialmente en telecomunicaciones) es denominado modulador.


·Decodificador: Es el dispositivo que realiza la operación conversa, sea cual sea el propósito del código: el decodificador de fuente tratara de devolver la rebundancia eliminada; el de canal retiraría la introducida por el codificador correspondiente, corrigiendo los errores que fuera capaz de detectar; el descifrador haría que los datos resultaran legibles; y el demodulador (o receptor-decodificador) identificaría el símbolo transmitido por el canal –normalmente bajo un criterio de máxima verosimilitud- y reexpresando los datos con la forma que tenían antes del modulador.