CLAUDE ELWOOD SHANNON
Nació el 30 de abril de 1916 en Ptoskey,
Michigan.En 1948, Claude Shannon publicó un artículo en el Bell System
Technical Journal titulado A Mathematical Theory of Communication. En 1949,
este artículo fundamental se une al de Warren Weaver y está publicado en un
libro titulado The Mathematical Theory of Communication. En menos de un año,
una teoría de la comunicación se vuelve “La Teoría de la comunicación”. La
teoría expuesta por Shannon rápidamente se llamará “La teoría de la
información”.
La teoría de la información o, de manera más
precisa, la teoría estadística de la comunicación es el resultado de trabajos
de un gran número de investigadores (H. Nyquist, R.W.L. Hartley, D.Gabor) sobre
la buena utilización de los medios de transmisión de la información (teléfono,
telégrafo, televisión…).
La idea fundamental es que la información debe ser transmitida con la
ayuda de un canal (línea telefónica, ondas hertzianas). Estudió, por una parte,
la información propiamente dicha (cantidad de información, entropía de una
fuente de información…) y, por otra, las propiedades de los canales
(transinformación, capacidad…) y, por fin, las relaciones que existen entre la
información a transmitir y el canal empleado para una utilización óptima de
éste.
MODELO DE COMUNICACIÓN
En el año 1949,
ligada a la investigación dirigida a optimizar la acción bélica y armamentista
de Estados Unidos, Claude Shannon, desarrolla el modelo matemático de la
comunicación, con el objetivo de aumentar la velocidad de trasmisión de los
mensajes y analizar las condiciones óptimas de su transmisión. Al desarrollar
este esquema logra plantear la dimensión social y cultural del lenguaje pero su
concepto de comunicación sigue basado en la trasmisión de información. Las
únicas acciones comunicativas son CODIFICAR y DECODIFICAR y no hay circulación
entre Emisor y Receptor. Aparece por primera vez la noción de código como un
sistema de equivalencias que permiten la comprensión entre los dos puntos del
esquema.
Para describir la
comunicación entre máquinas, el artículo de 1948 y el libro de 1949 empiezan
ambos por un esquema que ha conocido entonces un éxito sorprendente en las
ciencias de la comunicación y la información.
El esquema estructura
la comunicación entre máquinas en cinco elementos:
Fuente –> emisor
–> mensaje –> receptor –> destinatario, en un contexto de ruido
Este esquema es la
traducción “cívica” de un esquema que anterior utilizado en el contexto
militar:
Fuente –>
codificador –> señal –> decodificador –> destinatario, en un contexto
de ruido
Los elementos básicos
de cualquier sistema de comunicaciones general incluyen:
1. Una fuente de
información que es un dispositivo que se transmite y transforma la información
o el mensaje en una forma conveniente para la transmisión por un medio en
particular.
2. El medio o el
canal en el cual se transmite el mensaje.
3. Un dispositivo de
recepción que descifra el mensaje nuevamente dentro de una cierta aproximación
de la forma original.
4. La destinación o
el recipiente previsto del mensaje.
5. Una fuente del
ruido (interferencia o distorsión) que cambia el mensaje de maneras
imprevisibles durante la transmisión.
Adecuado para
describir la comunicación entre máquinas, este esquema solo estructura la
comunicación humana de manera imperfecta. Sin embargo, su éxito es enorme y ha
participado ampliamente a la creación de un campo disciplinario, las ciencias
de la información y la comunicación.
Esta teoría de la
información se ha aplicado extensamente por los ingenieros de la comunicación y
algunos conceptos han sido aplicados en psicología y en lingüística.
No hay comentarios:
Publicar un comentario