Metamatemáticas

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Estudio de las matemáticas en sí
La página de título de la Principia Mathematica (versión cortada), un importante trabajo de metamatemática.

Metamatemáticas es el estudio de las propias matemáticas utilizando métodos matemáticos. Este estudio produce metateorías, que son teorías matemáticas sobre otras teorías matemáticas. El énfasis en las metamatemáticas (y tal vez la creación del término mismo) se debe al intento de David Hilbert de asegurar las bases de las matemáticas a principios del siglo XX. Las metamatemáticas proporcionan "una técnica matemática rigurosa para investigar una gran variedad de problemas fundamentales para las matemáticas y la lógica" (Kleene 1952, p. 59). Una característica importante de las metamatemáticas es su énfasis en diferenciar entre el razonamiento desde dentro de un sistema y desde fuera de un sistema. Una ilustración informal de esto es categorizar la proposición "2+2=4" como perteneciente a las matemáticas al categorizar la proposición "'2+2=4' es válido" como pertenecientes a las metamatemáticas.

Historia

Los metateoremas metamatemáticos sobre las matemáticas mismas se diferenciaron originalmente de los teoremas matemáticos ordinarios en el siglo XIX para centrarse en lo que entonces se llamaba la crisis fundamental de las matemáticas. La paradoja de Richard (Richard 1905) con respecto a ciertas 'definiciones' de números reales en el idioma inglés es un ejemplo del tipo de contradicciones que pueden ocurrir fácilmente si uno no logra distinguir entre matemáticas y metamatemáticas. Algo similar puede decirse en torno a la conocida paradoja de Russell (¿Se contiene a sí mismo el conjunto de todos aquellos conjuntos que no se contienen a sí mismos?).

La metamatemática estaba íntimamente relacionada con la lógica matemática, por lo que las primeras historias de los dos campos, a finales del siglo XIX y principios del XX, se superponen en gran medida. Más recientemente, la lógica matemática a menudo ha incluido el estudio de nuevas matemáticas puras, como la teoría de conjuntos, la teoría de categorías, la teoría de la recursión y la teoría de modelos puros, que no está directamente relacionada con las metamatemáticas.

La reflexión metamatemática seria comenzó con el trabajo de Gottlob Frege, especialmente su Begriffsschrift, publicado en 1879.

David Hilbert fue el primero en invocar el término "mematemáticas" con regularidad (ver el programa de Hilbert), a principios del siglo XX. En sus manos, significaba algo parecido a la teoría de la demostración contemporánea, en la que se utilizan métodos finitos para estudiar varios teoremas matemáticos axiomatizados (Kleene 1952, p. 55).

Otras figuras prominentes en el campo incluyen a Bertrand Russell, Thoralf Skolem, Emil Post, Alonzo Church, Alan Turing, Stephen Kleene, Willard Quine, Paul Benacerraf, Hilary Putnam, Gregory Chaitin, Alfred Tarski y Kurt Gödel.

Hoy en día, la metalógica y la metamatemática se superponen ampliamente, y ambas han sido subsumidas sustancialmente por la lógica matemática en la academia.

Hitos

El descubrimiento de la geometría hiperbólica

El descubrimiento de la geometría hiperbólica tuvo importantes consecuencias filosóficas para las metamatemáticas. Antes de su descubrimiento solo existía la geometría y las matemáticas; la idea de que existiera otra geometría se consideraba improbable.

Cuando Gauss descubrió la geometría hiperbólica, se dice que no publicó nada al respecto por miedo al "alboroto de los beocios", que arruinaría su condición de princeps mathematicorum (latín, "el príncipe de los matemáticos"). El "alboroto de los beocios" vino y se fue, y dio un impulso a las metamatemáticas y grandes avances en el rigor matemático, la filosofía analítica y la lógica.

Begriffsschrift

Begriffsschrift (alemán para, más o menos, "concept-script") es un libro sobre lógica de Gottlob Frege, publicado en 1879, y el sistema formal establecido en ese libro.

Begriffsschrift se suele traducir como escritura de conceptos o notación de conceptos; el título completo del libro lo identifica como "un lenguaje de fórmulas, inspirado en el de la aritmética, del pensamiento puro". La motivación de Frege para desarrollar su enfoque formal de la lógica se parecía a la motivación de Leibniz para su cálculo raciocinador (a pesar de que, en su Prólogo, Frege niega claramente haber alcanzado este objetivo, y también que su objetivo principal sería construir un lenguaje ideal como el de Leibniz, lo que Frege declara ser una tarea bastante difícil e idealista, sin embargo, no imposible). Frege pasó a emplear su cálculo lógico en su investigación sobre los fundamentos de las matemáticas, llevada a cabo durante el próximo cuarto de siglo.

Principios matemáticos

Principia Mathematica, o "PM" como a menudo se abrevia, fue un intento de describir un conjunto de axiomas y reglas de inferencia en lógica simbólica a partir de los cuales todas las verdades matemáticas podrían, en principio, probarse. Como tal, este ambicioso proyecto es de gran importancia en la historia de las matemáticas y la filosofía, siendo uno de los principales productos de la creencia de que tal empresa puede ser alcanzable. Sin embargo, en 1931, el teorema de incompletitud de Gödel demostró definitivamente que PM, y de hecho cualquier otro intento, nunca podría lograr este objetivo; es decir, para cualquier conjunto de axiomas y reglas de inferencia propuestos para encapsular las matemáticas, de hecho habría algunas verdades de las matemáticas que no podrían deducirse de ellas.

Una de las principales inspiraciones y motivaciones para PM fue el trabajo anterior de Gottlob Frege sobre lógica, que Russell descubrió que permitía la construcción de conjuntos paradójicos. PM trató de evitar este problema descartando la creación sin restricciones de conjuntos arbitrarios. Esto se logró al reemplazar la noción de un conjunto general con la noción de una jerarquía de conjuntos de diferentes 'tipos', un conjunto de cierto tipo solo puede contener conjuntos de tipos estrictamente inferiores. Las matemáticas contemporáneas, sin embargo, evitan paradojas como las de Russell de maneras menos difíciles de manejar, como el sistema de teoría de conjuntos de Zermelo-Fraenkel.

Teorema de incompletitud de Gödel

Los teoremas de incompletitud de Gödel son dos teoremas de lógica matemática que establecen limitaciones inherentes a todos los sistemas axiomáticos capaces de hacer aritmética, excepto a los más triviales. Los teoremas, probados por Kurt Gödel en 1931, son importantes tanto en la lógica matemática como en la filosofía de las matemáticas. Los dos resultados se interpretan ampliamente, pero no universalmente, como que muestran que el programa de Hilbert para encontrar un conjunto completo y consistente de axiomas para todas las matemáticas es imposible, dando una respuesta negativa al segundo problema de Hilbert.

El primer teorema de incompletitud establece que ningún sistema consistente de axiomas cuyos teoremas puedan enumerarse mediante un "procedimiento efectivo" (por ejemplo, un programa de computadora, pero podría ser cualquier tipo de algoritmo) es capaz de probar todas las verdades sobre las relaciones de los números naturales (aritmética). Para cualquier sistema de este tipo, siempre habrá afirmaciones sobre los números naturales que sean verdaderas, pero que no se puedan probar dentro del sistema. El segundo teorema de incompletitud, una extensión del primero, muestra que tal sistema no puede demostrar su propia consistencia.

Definición de Tarski de satisfacción del modelo teórico

El esquema T o esquema de verdad (que no debe confundirse con la 'Convención T') se usa para dar una definición inductiva de la verdad que se encuentra en el corazón de cualquier realización de Alfred Tarski's teoría semántica de la verdad. Algunos autores se refieren a él como el "Esquema de equivalencia", un sinónimo introducido por Michael Dummett.

El esquema T a menudo se expresa en lenguaje natural, pero se puede formalizar en una lógica de predicados de orden múltiple o en una lógica modal; tal formalización se denomina teoría T. Las teorías T forman la base de mucho trabajo fundamental en lógica filosófica, donde se aplican en varias controversias importantes en filosofía analítica.

Como se expresa en lenguaje seminatural (donde 'S' es el nombre de la oración abreviado como S): 'S' es verdadera si y solo si S

Ejemplo: 'la nieve es blanca' es verdadera si y solo si la nieve es blanca.

La indecidibilidad del Entscheidungsproblem

El Entscheidungsproblem (en alemán, 'problema de decisión') es un desafío planteado por David Hilbert en 1928. El Entscheidungsproblem pide un algoritmo que tome como entrada una declaración de una lógica de primer orden (posiblemente con un número finito de axiomas más allá de los axiomas habituales de la lógica de primer orden) y responde "Sí" o "No" según si el enunciado es universalmente válido, es decir, válido en toda estructura que satisfaga los axiomas. Según el teorema de completitud de la lógica de primer orden, un enunciado es universalmente válido si y solo si puede deducirse de los axiomas, por lo que el Entscheidungsproblem también se puede considerar como una solicitud de un algoritmo para decidir si una declaración dada es demostrable a partir de los axiomas usando las reglas de la lógica.

En 1936, Alonzo Church y Alan Turing publicaron artículos independientes que mostraban que una solución general al Entscheidungsproblem es imposible, asumiendo que la notación intuitiva de "efectivamente calculable" es capturado por las funciones computables por una máquina de Turing (o equivalentemente, por aquellas expresables en el cálculo lambda). Esta suposición ahora se conoce como la tesis de Church-Turing.

Contenido relacionado

Ecuación de Klein-Gordon

El Klein-Gordon ecuación es una ecuación de onda relativista, relacionada con la ecuación Schrödinger. Es segundo orden en el espacio y el tiempo y...

Algoritmo de Bellman-Ford

Bellman-Ford corre dentro O()SilencioVSilencio⋅ ⋅ SilencioESilencio){displaystyle O(vivir a la muerte)} tiempo, donde SilencioVSilencio{displaystyle...

Teoría de juego

Teoría de juegos es el estudio de modelos matemáticos de interacciones estratégicas entre agentes racionales. Tiene aplicaciones en todos los campos de las...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save