Explicación de la teoría de la información de Shannon
La ciencia de la información cuántica es un campo joven, cuyos fundamentos aún están sentando un gran número de investigadores [véase “Rules for a Complex Quantum World”, de Michael A. Nielsen; Scientific American, noviembre de 2002]. La ciencia clásica de la información, por el contrario, surgió hace unos 50 años del trabajo de un hombre extraordinario: Claude E. Shannon. En un artículo escrito en los laboratorios Bell en 1948, Shannon definió en términos matemáticos qué es la información y cómo puede transmitirse en presencia de ruido. Lo que hasta entonces se consideraban modos de comunicación muy distintos -el telégrafo, el teléfono, la radio y la televisión- se unificaron en un único marco.
Shannon nació en 1916 en Petoskey (Michigan), hijo de un juez y una maestra. Entre otras invenciones, de joven construyó un telégrafo de su casa a la de un amigo con alambre de esgrima. En 1936 se licenció en Ingeniería Eléctrica y Matemáticas por la Universidad de Michigan y estudió en el MIT, donde trabajó con Vannevar Bush, pionero de la informática, en un ordenador analógico llamado analizador diferencial.
¿En qué consiste la teoría de la comunicación de Shannon?
Su innovador planteamiento introdujo una sencilla abstracción de la comunicación humana, denominada canal. El canal de comunicación de Shannon consistía en un emisor (una fuente de información), un medio de transmisión (con ruido y distorsión) y un receptor (cuyo objetivo es reconstruir los mensajes del emisor).
¿Qué es la teoría de la información de Claude Shannon?
Shannon definió la cantidad de información producida por una fuente -por ejemplo, la cantidad en un mensaje- mediante una fórmula similar a la ecuación que define la entropía termodinámica en física. En sus términos más básicos, la entropía informativa de Shannon es el número de dígitos binarios necesarios para codificar un mensaje.
Claude shannon teoría de la información
En 1948, Shannon era un matemático americano, ingeniero electrónico y Weaver era un científico americano, ambos se unieron para escribir un artículo en “Bell System Technical Journal” llamado “A Mathematical Theory of Communication” y también llamado “Shannon-Weaver model of communication”.
Este modelo está especialmente diseñado para desarrollar la comunicación efectiva entre emisor y receptor. También encuentra factores que afectan al proceso de comunicación llamado “Ruido”. Al principio, el modelo se desarrolló para mejorar la comunicación técnica. Más tarde se aplicó ampliamente en el campo de la comunicación.
Nota: Los mensajes del emisor se convierten en señales como ondas o datos binarios que se pueden compactar para transmitir los mensajes a través de cables o satélites. Por ejemplo: En el teléfono, la voz se convierte en señales de ondas y se transmite a través de cables.
Nota: El receptor convierte esos datos binarios u ondas en mensajes que sean cómodos y comprensibles para el receptor. De lo contrario, el receptor no puede recibir el mensaje exacto y esto afectará a la comunicación efectiva entre emisor y receptor.
Claude shannon teoría de la información pdf
La ciencia cuántica de la información es un campo joven, cuyos fundamentos aún están sentando un gran número de investigadores [véase “Rules for a Complex Quantum World”, de Michael A. Nielsen; Scientific American, noviembre de 2002]. La ciencia clásica de la información, por el contrario, surgió hace unos 50 años del trabajo de un hombre extraordinario: Claude E. Shannon. En un artículo escrito en los laboratorios Bell en 1948, Shannon definió en términos matemáticos qué es la información y cómo puede transmitirse en presencia de ruido. Lo que hasta entonces se consideraban modos de comunicación muy distintos -el telégrafo, el teléfono, la radio y la televisión- se unificaron en un único marco.
Shannon nació en 1916 en Petoskey (Michigan), hijo de un juez y una maestra. Entre otras invenciones, de joven construyó un telégrafo de su casa a la de un amigo con alambre de esgrima. En 1936 se licenció en Ingeniería Eléctrica y Matemáticas por la Universidad de Michigan y estudió en el MIT, donde trabajó con Vannevar Bush, pionero de la informática, en un ordenador analógico llamado analizador diferencial.
Teoría de la información de la comunicación
ResumenA finales de la década de 1940, dos investigaciones en tiempos de guerra se enfrentaron al problema de reproducir fielmente una señal en presencia de ruido parásito. En el MIT, Norbert Wiener, más conocido como el inventor de la cibernética, buscaba una predicción fiable para el control automático del fuego. Claude Shannon, que trabajaba en los Laboratorios Telefónicos Bell, quería hacer un uso óptimo de los canales de comunicación para la transmisión de mensajes codificados. Estos dos hombres sentaron las bases de lo que hoy se conoce como teoría estadística o matemática de la comunicación (o, más popularmente, teoría de la información). En este capítulo exploramos aspectos de las contribuciones de Shannon, tal y como se exponen en su artículo de 1948 titulado “The Mathematical Theory of Communication” (Teoría matemática de la comunicación).Palabras claveEstas palabras clave han sido añadidas por máquina y no por los autores. Este proceso es experimental y las palabras clave pueden actualizarse a medida que mejore el algoritmo de aprendizaje.