En 1948, Shannon y Weaver lanzaron una teoría matemática de la comunicación conocida también como Teoría de la información o Teoría matemática de la información.
Su primera versión apareció en el Bell System Technical Journal de octubre de 1948, perteneciente a la Bell Telephone Laboratories, organización a la que Shannon se encontraba profesionalmente ligado.
Poco después el sociólogo Warren Weaver redactó un ensayo destinado a enfatizar las bondades de esta propuesta, que fue publicado junto al texto anterior en julio de 1949. El trabajo de Shannon se titula The Mathematical Theory of communication.
Este, consiste en un modelo de comunicación, más exactamente, una teoría de la información pensada en función de la cibernética, la cual es el estudio del funcionamiento y eficiencia de las máquinas, especialmente, las máquinas electrónicas.
Cuando Shannon habla de información, utiliza el término con un sentido completamente diferente del que se le atribuye en general (noticias que nos traen a diario la prensa, la radio y la TV). Para el matemático, información es una unidad cuantificable que no tiene en cuenta el contenido del mensaje.
Según Denis McQuail, este modelo se centraba en la eficiencia técnica de los canales de comunicación para la transmisión de información.
Además, concibe la comunicación como un proceso secuencial que comienza desde una fuente, que elige un mensaje, que es transmitido, en forma de señal y mediante un canal de comunicación, hacia un receptor, que vuelve a convertir la señal en un mensaje dirigido a un destino.
El modelo de Claude Elwood Shannon se aplica entonces a cualquier mensaje independiente de su significación, sobre esto él matemático refiere:
“Con frecuencia los mensajes tienen significado; es decir, se refieren o están correlacionados de acuerdo con algún sistema con ciertas entidades físicas o conceptuales. Estos aspectos semánticos de la comunicación son irrelevantes para el problema de ingeniería. El aspecto significativo es que el mensaje real es uno seleccionado de un conjunto de mensajes posibles”
Shannon, C. E. (1948). A mathematical theory of communication. Bell system technical journal, 27(3), 379-423.
Esta teoría permite, sobre todo, estudiar la cantidad de información de un mensaje en función de la capacidad del sistema para transmitir y/o almacenar. Esta capacidad se mide según el sistema binario (dos posibilidades I / O) en bits (binary digits) asociados a la velocidad de transmisión del mensaje, pudiendo esta velocidad ser disminuida por el ruido. Claude Shannon dice que el tiempo necesario para transmitir información es proporcional a la cantidad de información transmitida o sea, si se transmite más información, será necesario mayor tiempo.
Además el autor trata de establecer a través de esta teoría una ecuación matemática para poder medir el valor informativo de los mensajes (la fidelidad con la que es transmitido el mensaje del emisor al receptor), tomando en consideración la «información» como un valor cuantificable en los procesos de comunicación.
Elementos del modelo
El modelo de Shannon (Gráfico) se representa por un esquema compuesto por distintos elementos: una fuente (information source), un transmisor (transmitter), un canal, un receptor (Receptor), un destino (destination). Dentro de este modelo y como novedad para la época, se incluye el concepto de ruido (Noise source), que aporta una cierta perturbación.
Fuente: El elemento emisor inicial del proceso de comunicación; produce un cierto número de palabras o signos que forman el mensaje a transmitir. Por ejemplo, puede ser la persona que, habiendo descolgado el teléfono y marcado el número comienza a hablar. Puede ser, del mismo modo, la persona que habla a través de la radio, televisión, podcast, etc. Una fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de datos se tomará como fuente el archivo a comprimir y como mensajes los caracteres que conforman dicho archivo.Es importante también destacar, que este modelo distingue distintos tipos de fuente.
a) aleatoria cuando no es posible predecir cuál será el próximo mensaje a emitir por la misma.
b) estructurada cuando posee un cierto nivel de redundancia, es decir es predecible, repetitiva.
La fuente aleatoria posee la particularidad de emitir mensajes que no es posible comprimir, es decir la información pura no puede ser comprimida sin que se pierda un grado de significación (valor) sobre el mensaje emitido.
Mensaje: El mensaje para la teoría de la información, es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red, es decir, cualquier cosa que tenga una representación binaria puede considerarse un mensaje.
El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos casi siempre a mensajes binarios.
El transmisor: Es el emisor técnico, el que transforma el mensaje emitido en un conjunto de señales o códigos que serán adecuados al canal encargado de transmitirlos. Así en nuestro ejemplo, el transmisor transformará la voz en impulsos eléctricos que podrán ser transmitidos por el canal.
El canal (Signal en el Gráfico): Es el medio técnico que debe transportar las señales codificadas por el transmisor. Este medio será, en el caso del teléfono, los cables, o la red de microondas por la empresa telefónica en comunicaciones internacionales.
El código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Es importante destacar que la forma de codificación es arbitraria, es decir responde a una convención preestablecida.
La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje, por eso hacemos hincapié en la naturaleza matemática y primordialmente funcional de este modelo. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo un mensaje y hemos leído «cadena de c….«; la probabilidad de que el mensaje continúe con «caracteres» es muy alta. Así, cuando efectivamente recibimos a continuación «caracteres» la cantidad de información que nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes menos probables, es decir es más eficiente y por lo tanto positiva al sistema. Este concepto lo ampliaremos más adelante en el concepto de «Entropia».
El receptor: También aquí se trata del receptor técnico, cuya actividad es la inversa de la del transmisor. Su función consiste en decodificar el mensaje. Importante, no confundir con el receptor de otros modelos.
El destinatario: Constituye el verdadero receptor a quien está destinado el mensaje. Será entonces la persona a quien se dirige el llamado telefónico o el conjunto de persona-audiencia de radio o de TV.
El ruido: Fue un concepto novedoso en el campo de la comunicación. El ruido o distorsión es un perturbador, que altera en diverso grado la señal durante su transmisión: «nieve» en la pantalla de TV, «fritura», ruidos de interferencia en la radio, también la voz demasiado baja o cubierta por la música; en el plano visual puede ser una mancha sobre la pantalla, un defecto en el objetivo del proyector, una falla de registro gráfico, etc. También se debe considerar, muy especialmente, el ruido no técnico. Esto es, aquel que proviene del contexto psicosocial. Todos los elementos precedentes son considerados como ruidos que pueden, entonces, provenir del canal, del emisor, del receptor, del mensaje, etcétera.
Otros conceptos importantes del modelo: Entropía de la información.
La entropía de la información es un término usado por Shannon en que explica cómo se puede considerar la cantidad de información promedio que contienen los símbolos usados.
Los símbolos con menor probabilidad son los que aportan mayor información, es decir en un texto no es lo mismo el sustantivo que un artículo. Digamos que el sustantivo aporta mayor información, debido a su “valor textual” (N.del.Profesor: Término en el que me refiero al valor que posee este como elemento sustancial en el texto) a diferencia con respecto al artículo que no posee dicho valor textual. Es decir podemos entender un texto con errores que cuente con faltantes en, por ejemplo artículos o adjetivos pero será más difícil de entender si faltan sustantivos.
El término entropía fue utilizado en otras ciencias como por ejemplo la sociología (Emile Durkheim) y siempre esta relacionado con el desorden, es decir la capacidad del sistema hacia la destrucción. En este caso, para la teoría de la información es un concepto más relacionado con “la medida del desorden” es decir, cómo controlarlo y predecirlo, a través de un análisis cuantitativo de sus elementos.
“Si todos los elementos de la señal son equiprobables (igual de probables) a la hora de aparecer, entonces la entropía será máxima.”
Claude Shannon
Es decir, todos los elementos poseen el mismo valor, ninguno esta subordinado a otro, por lo tanto el mensaje es ininteligible, posee el máximo de ruido posible.
A modo de conclusión
El modelo de Shannon y Weaver es muy atractivo debido a su sencillez y flexibilidad. Asimismo representó un aporte trascendente en el desarrollo de las tecnologías de la información que utilizamos hoy en día.
Es cierto que, no deja de ser un enfoque meramente instrumental y conductista, pero no olvidemos que todos los procesos de comunicación que transportan información pueden estar subsumidos a un limitado número de preguntas disyuntivas, casi representadas en una estructura binaria, es decir, digital, (si/no), (I/O).
Esta visión es un enfoque quizás, resulta meramente funcional a los intereses de las partes implicadas en la Fuente/emisor y no considera cuestiones inherentes a el receptor/ consumidor del mensaje. Pero no olvidemos que todos los mensajes pueden ser analizados como dijimos antes, “a vuelo de pájaro” de una manera meramente instrumental, para poder reconocer falencias o mejoras que puedan ser aplicadas en su proceso comunicativo.
No obstante, quizás como humilde crítica muestra que en realidad no es mucho más que un modelo Estímulo -Respuesta ampliado. Ya que al no tomar las condiciones cualitativas del mensaje no logra explicar de manera acabada las particularidades de la comunicación humana.
Bibliografía recomendada
- Shannon, C. E. (1948). A mathematical theory of communication. Bell system technical journal, 27(3), 379-423.
- Mattelart, A., & Mattelart, M. (2013). Historia de las teorías de la comunicación. Paidós Comunicación.
- McQuail, D. (2000). Introducción a la teoría de la comunicación de masas. Paidós,.
Lic. Agustín Layús, 2020
Tweet