Claude shannon

Compartir Imprimir Citar
Matemático americano y teorista de información

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense conocido como el "padre de la teoría de la información".

Como estudiante de maestría de 21 años en el Instituto Tecnológico de Massachusetts (MIT), escribió su tesis demostrando que las aplicaciones eléctricas del álgebra booleana podían construir cualquier relación numérica lógica. Shannon contribuyó al campo del criptoanálisis para la defensa nacional de los Estados Unidos durante la Segunda Guerra Mundial, incluido su trabajo fundamental sobre descifrado de códigos y telecomunicaciones seguras.

Biografía

Infancia

La familia Shannon vivía en Gaylord, Michigan, y Claude nació en un hospital en las cercanías de Petoskey. Su padre, Claude Sr. (1862–1934), era un hombre de negocios y, durante un tiempo, juez de sucesiones en Gaylord. Su madre, Mabel Wolf Shannon (1890–1945), era profesora de idiomas y también fue directora de la escuela secundaria Gaylord. Claude Sr. era descendiente de colonos de Nueva Jersey, mientras que Mabel era hija de inmigrantes alemanes.

La mayor parte de los primeros 16 años de la vida de Shannon los pasó en Gaylord, donde asistió a la escuela pública y se graduó de Gaylord High School en 1932. Shannon mostró una inclinación por las cosas mecánicas y eléctricas. Sus mejores materias fueron ciencias y matemáticas. En casa construyó dispositivos tales como modelos de aviones, un modelo de barco controlado por radio y un sistema de telégrafo de alambre de púas a la casa de un amigo a media milla de distancia. Mientras crecía, también trabajó como mensajero para la empresa Western Union.

El héroe de la infancia de Shannon fue Thomas Edison, de quien más tarde supo que era un primo lejano. Tanto Shannon como Edison eran descendientes de John Ogden (1609–1682), un líder colonial y antepasado de muchas personas distinguidas.

Circuitos lógicos

En 1932, Shannon ingresó a la Universidad de Michigan, donde conoció el trabajo de George Boole. Se graduó en 1936 con dos licenciaturas: una en ingeniería eléctrica y otra en matemáticas.

En 1936, Shannon comenzó sus estudios de posgrado en ingeniería eléctrica en el MIT, donde trabajó en el analizador diferencial de Vannevar Bush, una de las primeras computadoras analógicas. Mientras estudiaba los complicados circuitos ad hoc de este analizador, Shannon diseñó circuitos de conmutación basados en los conceptos de Boole. En 1937, escribió su tesis de maestría, A Symbolic Analysis of Relay and Switching Circuits. Un artículo de esta tesis se publicó en 1938. En este trabajo, Shannon demostró que sus circuitos de conmutación podían usarse para simplificar la disposición de los relés electromecánicos que se usaban durante ese tiempo en los conmutadores de enrutamiento de llamadas telefónicas. A continuación, amplió este concepto, demostrando que estos circuitos podían resolver todos los problemas que podía resolver el álgebra booleana. En el último capítulo, presentó diagramas de varios circuitos, incluido un sumador completo de 4 bits.

Usar esta propiedad de los interruptores eléctricos para implementar la lógica es el concepto fundamental que subyace a todas las computadoras digitales electrónicas. El trabajo de Shannon se convirtió en la base del diseño de circuitos digitales, ya que se volvió ampliamente conocido en la comunidad de ingeniería eléctrica durante y después de la Segunda Guerra Mundial. El rigor teórico del trabajo de Shannon reemplazó los métodos ad hoc que habían prevalecido anteriormente. Howard Gardner llamó a la tesis de Shannon 'posiblemente la tesis de maestría más importante, y también la más destacada, del siglo'.

Shannon recibió su doctorado en matemáticas del MIT en 1940. Vannevar Bush había sugerido que Shannon debería trabajar en su disertación en el Laboratorio Cold Spring Harbor, a fin de desarrollar una formulación matemática para la genética mendeliana. Esta investigación resultó en la tesis doctoral de Shannon, llamada An Algebra for Theoretical Genetics.

En 1940, Shannon se convirtió en investigadora nacional en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey. En Princeton, Shannon tuvo la oportunidad de discutir sus ideas con científicos y matemáticos influyentes como Hermann Weyl y John von Neumann, y también tuvo encuentros ocasionales con Albert Einstein y Kurt Gödel. Shannon trabajó libremente en todas las disciplinas, y esta habilidad puede haber contribuido a su posterior desarrollo de la teoría matemática de la información.

Investigación en tiempo de guerra

Shannon luego se unió a Bell Labs para trabajar en sistemas de control de incendios y criptografía durante la Segunda Guerra Mundial, bajo un contrato con la sección D-2 (sección de Sistemas de control) del Comité de Investigación de Defensa Nacional (NDRC).

A Shannon se le atribuye la invención de los gráficos de flujo de señales en 1942. Descubrió la fórmula de ganancia topológica mientras investigaba el funcionamiento funcional de una computadora analógica.

Durante dos meses a principios de 1943, Shannon entró en contacto con el destacado matemático británico Alan Turing. Turing había sido enviado a Washington para compartir con el servicio criptoanalítico de la Marina de los EE. UU. los métodos utilizados por la Escuela de Código y Cifrado del Gobierno Británico en Bletchley Park para descifrar los cifrados utilizados por los submarinos de la Kriegsmarine en el Océano Atlántico norte. También estaba interesado en el cifrado del habla y, con este fin, pasó un tiempo en Bell Labs. Shannon y Turing se encontraron a la hora del té en la cafetería. Turing le mostró a Shannon su artículo de 1936 que definía lo que ahora se conoce como la "máquina universal de Turing". Esto impresionó a Shannon, ya que muchas de sus ideas complementaron las suyas.

En 1945, cuando la guerra estaba llegando a su fin, la NDRC estaba emitiendo un resumen de los informes técnicos como último paso antes de su eventual cierre. Dentro del volumen sobre control de incendios, un ensayo especial titulado Suavizado de datos y predicción en sistemas de control de incendios, en coautoría con Shannon, Ralph Beebe Blackman y Hendrik Wade Bode, trató formalmente el problema de suavizar los datos en control de incendios por analogía con "el problema de separar una señal del ruido de interferencia en los sistemas de comunicaciones." En otras palabras, modeló el problema en términos de procesamiento de datos y señales y, por lo tanto, anunció la llegada de la era de la información.

El trabajo de Shannon sobre criptografía estaba aún más estrechamente relacionado con sus publicaciones posteriores sobre teoría de la comunicación. Al final de la guerra, preparó un memorándum clasificado para Bell Telephone Labs titulado 'Una teoría matemática de la criptografía', con fecha de septiembre de 1945. Una versión desclasificada de este artículo se publicó en 1949 como 'Comunicación Teoría de los sistemas secretos" en el Bell System Technical Journal. Este documento incorporó muchos de los conceptos y formulaciones matemáticas que también aparecieron en su Una teoría matemática de la comunicación. Shannon dijo que sus ideas sobre la teoría de la comunicación y la criptografía durante la guerra se desarrollaron simultáneamente y que "estaban tan juntas que no podía separarlas". En una nota al pie cerca del comienzo del informe clasificado, Shannon anunció su intención de "desarrollar estos resultados... en un próximo memorando sobre la transmisión de información".

Mientras estaba en Bell Labs, Shannon demostró que el bloc de notas criptográfico de un solo uso es irrompible en su investigación clasificada que se publicó más tarde en 1949. El mismo artículo también demostró que cualquier sistema irrompible debe tener esencialmente las mismas características que el único. bloc de tiempo: la clave debe ser verdaderamente aleatoria, tan grande como el texto sin formato, nunca reutilizada en su totalidad o en parte, y mantenida en secreto.

Teoría de la información

En 1948, el memorándum prometido apareció como "Una teoría matemática de la comunicación", un artículo en dos partes en las ediciones de julio y octubre del Bell System Technical Journal. Este trabajo se centra en el problema de cómo codificar mejor el mensaje que un emisor quiere transmitir. Shannon desarrolló la entropía de la información como una medida del contenido de información de un mensaje, que es una medida de la incertidumbre reducida por el mensaje. Al hacerlo, esencialmente inventó el campo de la teoría de la información.

El libro The Mathematical Theory of Communication reimprime el artículo de Shannon de 1948 y la popularización de Warren Weaver, que es accesible para los no especialistas. Weaver señaló que la palabra "información" en la teoría de la comunicación no está relacionado con lo que dices, sino con lo que podrías decir. Es decir, la información es una medida de la libertad de elección de uno cuando selecciona un mensaje. Los conceptos de Shannon también se popularizaron, sujetos a su propia revisión, en Symbols, Signals, and Noise de John Robinson Pierce.

La contribución fundamental de la teoría de la información al procesamiento del lenguaje natural y la lingüística computacional se estableció aún más en 1951, en su artículo "Predicción y entropía del inglés impreso", que muestra los límites superior e inferior de la entropía en el estadísticas del inglés: brinda una base estadística para el análisis del idioma. Además, demostró que tratar los espacios en blanco como la letra 27 del alfabeto en realidad reduce la incertidumbre en el lenguaje escrito, proporcionando un vínculo cuantificable claro entre la práctica cultural y la cognición probabilística.

Otro artículo notable publicado en 1949 es "Teoría de la comunicación de los sistemas secretos", una versión desclasificada de su trabajo de guerra sobre la teoría matemática de la criptografía, en el que demostró que todos los cifrados teóricamente indescifrables deben tener el mismo requisitos como el bloc de notas de una sola vez. También se le atribuye la introducción de la teoría del muestreo, que se ocupa de representar una señal de tiempo continuo a partir de un conjunto discreto (uniforme) de muestras. Esta teoría fue esencial para permitir que las telecomunicaciones pasaran de los sistemas de transmisión analógicos a los digitales en la década de 1960 y más tarde.

Regresó al MIT para ocupar una cátedra en 1956.

Enseñanza en el MIT

En 1956, Shannon se unió a la facultad del MIT para trabajar en el Laboratorio de Investigación de Electrónica (RLE). Continuó sirviendo en la facultad del MIT hasta 1978.

Vida posterior

Shannon desarrolló la enfermedad de Alzheimer y pasó los últimos años de su vida en un hogar de ancianos; murió en 2001, le sobreviven su esposa, un hijo y una hija, y dos nietas.

Pasatiempos e inventos

Minivac 601, un entrenador de ordenador digital diseñado por Shannon

Aparte de las actividades académicas de Shannon, estaba interesado en los malabares, andar en bicicleta y el ajedrez. También inventó muchos dispositivos, incluida una computadora de números romanos llamada THROBAC, máquinas de malabares. Construyó un dispositivo que podía resolver el rompecabezas del cubo de Rubik.

Shannon diseñó el Minivac 601, un entrenador digital de computadoras para enseñar a los empresarios cómo funcionan las computadoras. Fue vendido por Scientific Development Corp a partir de 1961.

También se le considera co-inventor de la primera computadora portátil junto con Edward O. Thorp. El dispositivo se utilizó para mejorar las probabilidades al jugar a la ruleta.

Vida personal

Shannon se casó con Norma Levor, una rica intelectual judía de izquierda en enero de 1940. El matrimonio terminó en divorcio después de aproximadamente un año. Levor luego se casó con Ben Barzman.

Shannon conoció a su segunda esposa, Betty Shannon (de soltera Mary Elizabeth Moore), cuando ella era analista numérica en Bell Labs. Se casaron en 1949. Betty ayudó a Claude a construir algunos de sus inventos más famosos. Tuvieron tres hijos.

Shannon se presentó como apolítico y ateo.

Homenajes

Hay seis estatuas de Shannon esculpidas por Eugene Daub: una en la Universidad de Michigan; uno en el MIT en el Laboratorio de Sistemas de Información y Decisión; uno en Gaylord, Míchigan; uno en la Universidad de California, San Diego; uno en Bell Labs; y otro en AT&T Shannon Labs. La estatua en Gaylord se encuentra en el Parque Memorial Claude Shannon. Después de la disolución de Bell System, la parte de Bell Labs que permaneció en AT&T Corporation se llamó Shannon Labs en su honor.

Según Neil Sloane, miembro de AT&T que coeditó la gran colección de artículos de Shannon en 1993, la perspectiva introducida por la teoría de la comunicación de Shannon (ahora llamada teoría de la información) es la base de la revolución digital, y cada dispositivo que contiene un microprocesador o microcontrolador es un descendiente conceptual de la publicación de Shannon en 1948: "Él es uno de los grandes hombres del siglo". Sin él, nada de lo que conocemos hoy existiría. Toda la revolución digital empezó con él." La unidad de criptomoneda shannon (un sinónimo de gwei) lleva su nombre.

A Mind at Play, una biografía de Shannon escrita por Jimmy Soni y Rob Goodman, se publicó en 2017.

El 30 de abril de 2016, Shannon recibió un Doodle de Google para celebrar su vida en lo que habría sido su cumpleaños número 100.

The Bit Player, un largometraje sobre Shannon dirigido por Mark Levinson que se estrenó en el Festival Mundial de la Ciencia en 2019. Basado en entrevistas realizadas con Shannon en su casa en la década de 1980, el filme se estrenó el Amazon Prime en agosto de 2020.

La teoría matemática de la comunicación

Contribución del tejedor

La teoría matemática de la comunicación de Shannon comienza con una interpretación de su propio trabajo por parte de Warren Weaver. Aunque todo el trabajo de Shannon trata sobre la comunicación en sí misma, Warren Weaver comunicó sus ideas de tal manera que aquellos que no estaban aclimatados a la teoría y las matemáticas complejas podían comprender las leyes fundamentales que exponía. El acoplamiento de sus habilidades e ideas únicas de comunicación generó el modelo de Shannon-Weaver, aunque los fundamentos matemáticos y teóricos emanan completamente del trabajo de Shannon después de la introducción de Weaver. Para el lego, la introducción de Weaver comunica mejor La teoría matemática de la comunicación, pero la lógica, las matemáticas y la precisión expresiva posteriores de Shannon fueron responsables de definir el problema en sí.

Otro trabajo

Shannon y su ratón electromecánico Theseus (llamado después de Tesis de la mitología griega) que trató de resolver el laberinto en uno de los primeros experimentos en inteligencia artificial

Ratón de Shannon

"Theseus", creado en 1950, era un ratón mecánico controlado por un circuito de relé electromecánico que le permitía moverse por un laberinto de 25 cuadrados. La configuración del laberinto era flexible y podía modificarse arbitrariamente reorganizando las particiones móviles. El mouse fue diseñado para buscar a través de los corredores hasta encontrar el objetivo. Habiendo viajado a través del laberinto, el ratón podría colocarse en cualquier lugar en el que hubiera estado antes y, debido a su experiencia previa, podría ir directamente al objetivo. Si se colocaba en un territorio desconocido, estaba programado para buscar hasta llegar a un lugar conocido y luego procedería al objetivo, agregando el nuevo conocimiento a su memoria y aprendiendo un nuevo comportamiento. El mouse de Shannon parece haber sido el primer dispositivo de aprendizaje artificial de este tipo.

Estimación de Shannon para la complejidad del ajedrez

En 1949, Shannon completó un artículo (publicado en marzo de 1950) que estima la complejidad del árbol de juego del ajedrez, que es de aproximadamente 10120. Este número ahora se conoce como el 'número de Shannon', y todavía se considera hoy en día como una estimación precisa de la complejidad del juego. El número a menudo se cita como una de las barreras para resolver el juego de ajedrez utilizando un análisis exhaustivo (es decir, análisis de fuerza bruta).

Programa de ajedrez informático de Shannon

El 9 de marzo de 1949, Shannon presentó un artículo titulado "Programación de una computadora para jugar al ajedrez". El documento fue presentado en la Convención del Instituto Nacional de Ingenieros de Radio en Nueva York. Describió cómo programar una computadora para jugar al ajedrez en función de la puntuación de posición y la selección de movimientos. Propuso estrategias básicas para restringir el número de posibilidades a considerar en un juego de ajedrez. En marzo de 1950 se publicó en Philosophical Magazine, y se considera uno de los primeros artículos publicados sobre el tema de la programación de una computadora para jugar al ajedrez y el uso de una computadora para resolver el juego.

Su proceso para que la computadora decidiera qué jugada realizar era un procedimiento minimax, basado en una función de evaluación de una posición de ajedrez determinada. Shannon dio un ejemplo aproximado de una función de evaluación en la que el valor de la posición negra se restaba del valor de la posición blanca. El material se contaba según el valor relativo habitual de las piezas de ajedrez (1 punto por peón, 3 puntos por caballo o alfil, 5 puntos por torre y 9 puntos por reina). Consideró algunos factores posicionales, restando ½ punto por cada peón doblado, peón atrasado y peón aislado; La movilidad se incorporó añadiendo 0,1 puntos por cada movimiento legal disponible.

La máxima de Shannon

Shannon formuló una versión de Kerckhoffs' principio como "El enemigo conoce el sistema". De esta forma se conoce como "máxima de Shannon".

Conmemoraciones

Centenario de Shannon

Claude Shannon Centenario

El centenario de Shannon, 2016, marcó la vida y la influencia de Claude Elwood Shannon en el centenario de su nacimiento el 30 de abril de 1916. Fue inspirado en parte por el Año de Alan Turing. Un comité ad hoc de la Sociedad de Teoría de la Información del IEEE, que incluye a Christina Fragouli, Rüdiger Urbanke, Michelle Effros, Lav Varshney y Sergio Verdú, coordinó los eventos en todo el mundo. La iniciativa fue anunciada en el Panel de Historia en el Taller de Teoría de la Información de IEEE de 2015 en Jerusalén y en el Boletín de la Sociedad de Teoría de la Información de IEEE.

Una lista detallada de eventos confirmados estaba disponible en el sitio web de la IEEE Information Theory Society.

Algunas de las actividades planeadas incluyeron:

Lista de premios y distinciones

El Premio Claude E. Shannon se estableció en su honor; también fue su primer destinatario, en 1972.

  • Stuart Ballantine Medalla del Instituto Franklin, 1955
  • Miembro de la Academia Americana de Artes y Ciencias, 1957
  • Premio Harvey, Tecnión de Haifa, Israel, 1972
  • Premio Alfred Noble, 1939 (en adelante de las sociedades de ingeniería civil en Estados Unidos)
  • Medalla Nacional de la Ciencia, 1966, presentada por el Presidente Lyndon B. Johnson
  • Kyoto Prize, 1985
  • Premio en memoria de Morris Liebmann del Instituto de Ingenieros de Radio, 1949
  • United States National Academy of Sciences, 1956
  • Medalla de Honor del Instituto de Ingenieros Eléctricos y Electrónicos, 1966
  • Premio Golden Plate de la American Academy of Achievement, 1967
  • Royal Netherlands Academy of Arts and Sciences (KNAW), foreign member, 1975
  • Miembro de la Sociedad Filosófica Americana, 1983
  • Premio básico de investigación, Fundación Eduard Rhein, Alemania, 1991
  • Marconi Society Lifetime Achievement Premio, 2000

Obras seleccionadas