Teoría de la Información

Origenes

La primera formulación fue realizada
por Hartley (1928). Posteriormente, Shannon y Weaver (1949) desarrollaron los principios
definitivos de esta teoría.

Definición

Es empleado en un sentido que "quedan incluidos todos los procedimientos mediante los
cuales una mente puede influir en otra"

En el proceso de comunicación es posible distinguir por lo menos tres niveles de análisis
diferentes: el técnico, el semántico y el pragmático.

Nivel semántico: se estudia todo aquello que se refiera al
significado del mensaje y su interpretación.

Nivel técnico: se analizan aquellos problemas que surgen en torno a la fidelidad con que la información puede ser transmitida desde el emisor hasta el receptor.

Nivel pragmático: se analizan los efectos conductuales de la comunicación, la influencia o efectividad del mensaje en tanto da lugar a una conducta.

Modelo de Comunicación

Fue desarrollado por Shannon y Weaver se basa en un sistema de
comunicación general que puede ser representado de la siguiente manera:

Información

SEÑAL: mensaje codificado por el transmisor.

CANAL: medio a través del cual las señales son transmitidas al punto de recepción.

TRANSMISOR: transforma o codifica esta información en una forma apropiada al canal.

FUENTE DE RUIDO: conjunto de distorsiones o adiciones no deseadas por la fuente de
información que afectan a la señal.

FUENTE DE INFORMACION: selecciona el mensaje deseado de un conjunto de mensajes
posibles.

RECEPTOR: decodifica o vuelve a transformar la señal transmitida en el mensaje original o
en una aproximación de este haciéndolo llegar a su destino.

como el grado de libertad de una fuente
para elegir un mensaje de un conjunto de posibles mensajes.

Principios.

El concepto de información supone la existencia de duda o incertidumbre.

Alternativas se refieren a cualquier conjunto de signos construidos para
comunicarse, sean estos letras, palabras, números, ondas, etc.

Incertidumbre implica que existen diferentes alternativas que deberán ser elegidas, seleccionadas o discriminadas

Primer principio: Este establece que mientras más probable sea un mensaje menos información proporcionará.

Segundo principio: Establece que si son seleccionados los mensajes X e Y, la cantidad de información proporcionada por ambos mensajes será igual a la cantidad de información proporcionada por X más la cantidad de información proporcionada por Y, dado que X ya ha sido seleccionada.

Unidad de información

Una vez seleccionado el mensaje expresado en un lenguaje determinado es posible transcribirlo a un código de tipo binario.

Consta de dos tipos que indican Si o No, y que generalmente se codifican como 1 o 0. La cantidad de información proporcionada por cada elección entre dos alternativas posibles constituye la unidad básica de información, y se denomina dígito binario, o abreviadamente bit

Redundancia

Se refiere a que las posibilidades dentro de un mensaje se repiten, y se repiten de una cierta manera predecible. Mientras mayor sea, entonces, la redundancia de un mensaje, menor será su incertidumbre y menor la información que contenga.

Permite ahorrar tiempo en la decodificación de los mensajes. Generalmente, no leemos cada una de las letras y palabras que conforman un texto, sino que vamos adivinando lo que viene.

Capacidad de Canal

Medio a través del cual las señales son transmitidas al punto de recepción.

La presencia de ruido durante la transmisión provocará que el mensaje recibido contenga ciertos errores que contribuirán a aumentar la incertidumbre.si el ruido aumenta la incertidumbre, aumentará la información.

El teorema para la capacidad de un canal con ruido se define como el ritmo máximo a que la información útil (incertidumbre total menos la incertidumbre debida al ruido) puede ser transmitida a través del canal

A partir de la acelerada difusión y especialización de los medios de
comunicación en el procesamiento y transmisión de información