TALLER:
TEORÍA MATEMÁTICA DE LA INFORMACIÓN
1. Señale cuales son las ideas centrales o más relevantes de esta teoría:
- Considera la transmisión de la información como un fenómeno estadístico y que ofrece a los ingenieros en comunicaciones una forma de determinar la capacidad de un canal de comunicación en términos comunes de medida llamados bits.
- La cantidad de información contenida en un mensaje se define en función de la frecuencia relativa de utilización de los diferentes símbolos que lo componen:
b- para que el mensaje pueda recorrer esa vía debe ser codificado,
c- y luego, descodificado para que lo comprenda convenientemente el destinatario.
- Formulada a finales de los 40 por el ingeniero Claude E. Shannon.
- Se refiere solo a las condiciones técnicas de la transmisión de mensajes, pero eso no impidió que lograra una amplia repercusión y terminara elevada a la calidad paradigma.
- A lo largo de este movimiento orientado linealmente se encuentra un conjunto de componentes que pueden ser distinguidos en forma precisa, por su ubicación y su función.
Fuente: Componente de naturaleza humana o mecánica que determina el tipo de mensaje que transmitirá y se grado de complejidad.
Transmisor: Recurso técnico que transmite el mensaje originado por la fuente de infamación en señales apropiadas.
Canal: medio generalmente físico que transporta las señales en el espacio .cumple una función simple de mediación y transporte.
Ruido: Expresión genérica utilizada para referirse a barias distorsiones en forma externa de la información.
Receptor: Recuso técnico que trasforma las señales recibidas en el mensaje concebido por la fuente de infamación.
Destino: componente terminal del proceso de comunicación, al cual está dirigido el mensaje. Es el elemento decisivo para pronunciarse sobre la fila fidelidad de la comunicación.
· Cuando yo hablo con usted, mi cerebro es la fuente de información, el suyo el destinatario, el sistema vocal e el transmisor, y su oído, con su octavo par de nervios craneanos, es el receptor.
· Los problemas que han de estudiarse de un sistema de comunicación tiene que ver con la cantidad de información, la capacidad del canal de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje de una señal y efectos del ruido.
· El problema de la comunicación consiste en reproducir en un punto, sea exacto o aproximadamente, un mensaje seleccionado en otro punto. . El sistema debe ser activado para operar cada posible selección, no solo de la que fue elegida sino también desde una desconocida en el momento de ser activada.
· Frecuentemente el mensaje tiene significado; este se refiere o esta correlacionado con algún sistema con ciertas entidades físicas o conceptuales.
· Privilegiar los problemas de codificación, magnitud de la información y capacidad del canal, es poner la experiencia de la comunicación por debajo de su complejidad y riqueza.
La teoría de la información es toda propiedad una teoría de la transmisión, bien adaptada para responder a los requerimientos técnicos de una empresa telefónica, pero incapaz de servir de marco explicativo para una experiencia social como es la comunicación interpersonal.
2. Subraye los conceptos o categorías más importantes que se presentan en la teoría y consígnelas en un cuadro de la siguiente forma:
CONCEPTO
|
DEFINICIÓN
|
Expresión de la teoría
|
Mensaje Señal Emitida Señal Recibida.
Fuente transmisor canal receptor destinatario .
|
| Fuente de ruido |
La fuente de información seleccionada a partir de un conjunto de posibles mensajes el mensaje deseado. El transmisor transforma el mensaje en una señal que es enviada por el canal de comunicación al receptor. Todos los cambios en la señal pueden ser llamados ruidos.
|
3. Esquema de la teoría de la información de Shannon y Weaver.
4. Biografía
WARREN WEAVER (1894-1978):
Nacido en Reedsburg, Wisconsin, en 1894. Estudió en la Universidad de Wisconsin. Inició su actividad docente en el Throop College de Pasadena (1917-1918) y en el California Institute of Technology (1919-1920), antes de ingresar en la Universidad de Wisconsin, donde enseñó durante doce años y fue director del Departamento de Matemáticas (1928-1932). En 1932 fue nombrado director de la División de Ciencias Naturales del Instituto Rockefeller, que ejerció hasta 1955, y más tarde vicepresidente de la División de Ciencias Naturales y Médicas (1955-1959). Desde el Instituto Rockefeller promovió el trabajo de los científicos jóvenes, especialmente en líneas de investigación como la genética y la 'biología molecular', término que enunció el propio Weaver en 1932. Durante la segunda guerra mundial encabezó el Applied Mathematics Panel, que reunió a destacados científicos en el estudio de soluciones que tendrían una gran influencia en los desarrollos de la posguerra. Vicepresidente del Instituto Sloan-Kettering de investigación sobre el cáncer (1950).
Interesado en el estudio de los procesos técnicos de la comunicación durante los años de la guerra (criptografía, decodificación automática, etc.), en 1949 escribió con Claude E. Shannon The Mathematical Theory of Communication. Este mismo año, en un informe para la Fundación Rockefeller, Weaver señaló que existía una analogía entre la decodificación mecánica y la traducción, por lo que promovió la investigación para el desarrollo de sistemas de traducción automática, cuyos primeros resultados aparecieron en la Universidad de Georgetown con el empleo de las lenguas rusa e inglesa. Fue un entusiasta en los beneficios para el desarrollo y progreso de la sociedad a través de la divulgación de la ciencia (en 1954 fue nombrado presidente de la American Association for the Advancement of Science). En 1967 publicó Science and Imagination. Escribió una autobiografía bajo el título Scene of Change. A Lifetime in American Science, Scribners, Nueva York, 1970.
Entre las numerosas condecoraciones, le fue otorgada la medalla británica por la Cause of Freedom (1948), la de oficial de la Legión de Honor de Francia (1951), el premio Kalinga de la UNESCO (1964), así como diversos doctorados 'honoris causa', entre ellos por la Universidad de São Paulo (1952).
PENSAMIENTO Y EXPRESIÓN CIENTÍFICA
El papel de Weaver es muy relevante en la definición de la teoría matemática de la información, como hoy se conoce la que en origen se definió como 'The Mathematical Theory of Communication'. Le dio un alcance que en el planteamiento inicial de Shannon no tenía, ya que se restringía al ámbito de los lenguajes máquina y a la transmisión de estos mensajes.
A ambos se debe el conocido esquema lineal de la comunicación, en el que se define la secuencia fuente, transmisor, canal, ruido, receptor y destino.
Las aportaciones del veterano Weaver al joven y brillante Shannon dieron mucha mayor proyección al planteamiento teórico inicial, incluso con un acercamiento al campo de las ciencias sociales. Weaver no hablaba ya de mensajes independientes de su contenido, cuantificables en términos matemáticos y observados en el decurso de su flujo, sino un marco de análisis aplicable, por ejemplo, al mundo de los medios escritos, sonoros, visuales... "La teoría -señaló- revela que se aplican a todas estas formas de comunicación y a muchas otras".
Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.
Weaver define tres planos o niveles en los que se superpone el hecho comunicativo: técnico, semántico y pragmático. El técnico hace referencia a la bondad, capacidad y precisión del emisor para enviar un mensaje; el semántico advierte sobre el significado e interpretación de los mensajes, y el pragmático se ocupa del efecto alcanzado, de la efectividad de la comunicación.
· CLAUDE SHANNON:
(Claude Elwood Shannon; Gaylord, EE UU, 1916) Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa.
Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.

No hay comentarios:
Publicar un comentario