Fundamentos de las matematicas

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Fundamentos de las matemáticas es el estudio de las bases filosóficas y lógicas y/o algorítmicas de las matemáticas o, en un sentido más amplio, la investigación matemática de lo que subyace a las teorías filosóficas sobre la naturaleza de las matemáticas.. En este último sentido, la distinción entre fundamentos de las matemáticas y filosofía de las matemáticas resulta vaga. Los fundamentos de las matemáticas se pueden concebir como el estudio de los conceptos matemáticos básicos (conjunto, función, figura geométrica, número, etc.) y cómo forman jerarquías de estructuras y conceptos más complejos, especialmente las estructuras fundamentalmente importantes que forman el lenguaje de las matemáticas. (fórmulas, teorías y sus modelos que dan sentido a fórmulas, definiciones, demostraciones, algoritmos, etc.) también llamados conceptos metamatemáticos, con miras a los aspectos filosóficos y la unidad de las matemáticas. La búsqueda de los fundamentos de las matemáticas es una cuestión central de la filosofía de las matemáticas; la naturaleza abstracta de los objetos matemáticos presenta desafíos filosóficos especiales.

Los fundamentos de las matemáticas como un todo no pretende contener los fundamentos de todos los temas matemáticos. Generalmente, los fundamentos de un campo de estudio se refieren a un análisis más o menos sistemático de sus conceptos más básicos o fundamentales, su unidad conceptual y su ordenamiento natural o jerarquía de conceptos, lo que puede ayudar a conectarlo con el resto del conocimiento humano. El desarrollo, el surgimiento y la clarificación de los fundamentos pueden llegar tarde en la historia de un campo y es posible que no todos los vean como su parte más interesante.

Las Matemáticas juegan un papel especial en el pensamiento científico, sirviendo desde la antigüedad como modelo de verdad y rigor para la investigación racional, y dando herramientas o incluso fundamento para otras ciencias (especialmente la Física). Matemáticas' muchos desarrollos hacia abstracciones superiores en el siglo XIX trajeron nuevos desafíos y paradojas, urgiendo a un examen más profundo y sistemático de la naturaleza y los criterios de la verdad matemática, así como a la unificación de las diversas ramas de las matemáticas en un todo coherente.

La búsqueda sistemática de los fundamentos de las matemáticas comenzó a fines del siglo XIX y formó una nueva disciplina matemática llamada lógica matemática, que luego tuvo fuertes vínculos con la informática teórica. Pasó por una serie de crisis con resultados paradójicos, hasta que los descubrimientos se estabilizaron durante el siglo XX como un cuerpo grande y coherente de conocimiento matemático con varios aspectos o componentes (teoría de conjuntos, teoría de modelos, teoría de la demostración, etc.), cuyas propiedades detalladas y las posibles variantes siguen siendo un campo de investigación activo. Su alto nivel de sofisticación técnica inspiró a muchos filósofos a conjeturar que puede servir como modelo o patrón para los fundamentos de otras ciencias.

Contexto histórico

Matemáticas griegas antiguas

Si bien la práctica de las matemáticas se había desarrollado previamente en otras civilizaciones, el interés especial por sus aspectos teóricos y fundamentales era claramente evidente en el trabajo de los antiguos griegos.

Los primeros filósofos griegos discutían sobre qué era más básico, la aritmética o la geometría. Zenón de Elea (490 - c. 430 a. C.) produjo cuatro paradojas que parecen mostrar la imposibilidad del cambio. La escuela pitagórica de matemáticas insistió originalmente en que solo existen los números naturales y racionales. El descubrimiento de la irracionalidad de 2, la proporción de la diagonal de un cuadrado a su lado (alrededor del siglo V a. C.), fue un golpe para ellos que solo aceptaron de mala gana. La discrepancia entre racionales y reales fue finalmente resuelta por Eudoxo de Cnido (408-355 a. C.), alumno de Platón, quien redujo la comparación de dos proporciones irracionales a comparaciones de múltiplos de las magnitudes involucradas. Su método anticipó el del corte de Dedekind en la definición moderna de números reales de Richard Dedekind (1831-1916).

En los Análisis posteriores, Aristóteles (384–322 a. C.) estableció el método axiomático para organizar lógicamente un campo de conocimiento por medio de conceptos primitivos, axiomas, postulados, definiciones y teoremas. Aristóteles tomó la mayoría de sus ejemplos de la aritmética y la geometría. Este método alcanzó su punto culminante con los Elementos de Euclides (300 a. C.), un tratado de matemáticas estructurado con estándares muy altos de rigor: Euclides justifica cada proposición mediante una demostración en forma de cadenas de silogismos (aunque no siempre ajustarse estrictamente a las plantillas aristotélicas). La lógica silogística de Aristóteles, junto con el método axiomático ejemplificado por los Elementos de Euclides, se reconocen como logros científicos de la antigua Grecia.

El platonismo como filosofía de las matemáticas

A partir de finales del siglo XIX, una visión platónica de las matemáticas se hizo común entre los matemáticos practicantes.

Los conceptos o, como dirían los platónicos, los objetos de las matemáticas son abstractos y están alejados de la experiencia perceptiva cotidiana: las figuras geométricas se conciben como idealidades que deben distinguirse de dibujos efectivos y formas de objetos, y los números no se confunden con el conteo de objetos concretos. Su existencia y naturaleza presentan desafíos filosóficos especiales: ¿Cómo difieren los objetos matemáticos de su representación concreta? ¿Están ubicados en su representación, o en nuestras mentes, o en algún otro lugar? ¿Cómo podemos conocerlos?

Los antiguos filósofos griegos se tomaban muy en serio estas cuestiones. De hecho, muchas de sus discusiones filosóficas generales se llevaron a cabo con amplia referencia a la geometría y la aritmética. Platón (424/423 a. C. - 348/347 a. C.) insistió en que los objetos matemáticos, al igual que otras Ideas (formas o esencias) platónicas, deben ser perfectamente abstractos y tener un tipo de existencia separada e inmaterial. en un mundo de objetos matemáticos independientes de los humanos. Él creía que las verdades sobre estos objetos también existen independientemente de la mente humana, pero son descubiertas por los humanos. En el Meno, el maestro de Platón, Sócrates, afirma que es posible llegar a conocer esta verdad mediante un proceso similar a la recuperación de la memoria.

Sobre la puerta de entrada a la academia de Platón apareció una famosa inscripción: "Que nadie que no sepa geometría entre aquí". De esta manera Platón indicó su alta opinión de la geometría. Consideró la geometría como "lo primero esencial en la formación de los filósofos", por su carácter abstracto.

Esta filosofía del realismo matemático platónico es compartida por muchos matemáticos. Algunos autores argumentan que el platonismo de alguna manera se presenta como una suposición necesaria que subyace a cualquier trabajo matemático.

Desde este punto de vista, las leyes de la naturaleza y las leyes de las matemáticas tienen un estatus similar, y la efectividad deja de ser irrazonable. No son nuestros axiomas, sino el mundo muy real de los objetos matemáticos los que forman la base.

Aristóteles diseccionó y rechazó este punto de vista en su Metafísica. Estas preguntas proporcionan mucho combustible para el análisis y el debate filosófico.

Realismo aristotélico

Edad Media y Renacimiento

Durante más de 2000 años, los Elementos de Euclides se mantuvieron como una base perfectamente sólida para las matemáticas, ya que su metodología de exploración racional guió a matemáticos, filósofos y científicos hasta bien entrado el siglo XIX.

La Edad Media vio una disputa sobre el estatus ontológico de los universales (Ideas platónicas): el realismo afirmaba su existencia independientemente de la percepción; el conceptualismo afirmaba su existencia sólo dentro de la mente; el nominalismo negó cualquiera de los dos, solo viendo los universales como nombres de colecciones de objetos individuales (siguiendo especulaciones más antiguas de que son palabras, "logoi").

René Descartes publicó La Géométrie (1637), con el objetivo de reducir la geometría al álgebra por medio de sistemas de coordenadas, dando al álgebra un papel más fundamental (mientras que los griegos usaban longitudes para definir los números que actualmente son llamados números reales). Descartes El libro se hizo famoso después de 1649 y allanó el camino hacia el cálculo infinitesimal.

Isaac Newton (1642–1727) en Inglaterra y Leibniz (1646–1716) en Alemania desarrollaron de forma independiente el cálculo infinitesimal sobre una base que requería nuevos fundamentos. En particular, Leibniz describió los infinitesimales como números infinitamente cercanos a cero, un concepto que no encaja en el marco fundamental anterior de las matemáticas y que no se formalizó antes del siglo XX. Las fuertes implicaciones del cálculo infinitesimal en los fundamentos de las matemáticas se ilustran en un panfleto del filósofo protestante George Berkeley (1685-1753), quien escribió: "[Los infinitesimales] no son cantidades finitas, ni cantidades infinitamente pequeñas, ni tampoco nada". ¿No podemos llamarlos los fantasmas de las cantidades que se van?". Leibniz también trabajó en lógica, pero la mayoría de sus escritos sobre ella permanecieron inéditos hasta 1903.

Entonces las matemáticas se desarrollaron muy rápidamente y con éxito en aplicaciones físicas.

Siglo XIX

En el siglo XIX, las matemáticas se volvieron cada vez más abstractas. Las preocupaciones sobre los vacíos lógicos y las inconsistencias en diferentes campos llevaron al desarrollo de sistemas axiomáticos.

Análisis reales

Cauchy (1789–1857) inició el proyecto de formular y probar los teoremas del cálculo infinitesimal de manera rigurosa, rechazando el principio heurístico de la generalidad del álgebra explotado por autores anteriores. En su trabajo de 1821 Cours d'Analyse, define cantidades infinitamente pequeñas en términos de secuencias decrecientes que convergen a 0, que luego usó para definir la continuidad. Pero no formalizó su noción de convergencia.

La definición moderna (ε, δ) de funciones límite y continuas fue desarrollada por primera vez por Bolzano en 1817, pero permaneció relativamente desconocida. Brinda una base rigurosa de cálculo infinitesimal basado en el conjunto de números reales, posiblemente resolviendo las paradojas de Zenón y los argumentos de Berkeley.

Matemáticos como Karl Weierstrass (1815–1897) descubrieron funciones patológicas como funciones continuas, no diferenciables en ninguna parte. Las concepciones anteriores de una función como regla para el cálculo, o un gráfico uniforme, ya no eran adecuadas. Weierstrass comenzó a abogar por la aritmetización del análisis, para axiomatizar el análisis utilizando las propiedades de los números naturales.

En 1858, Dedekind propuso una definición de los números reales como cortes de números racionales. Esta reducción de números reales y funciones continuas en términos de números racionales, y por lo tanto de números naturales, fue posteriormente integrada por Cantor en su teoría de conjuntos, y axiomatizada en términos de aritmética de segundo orden por Hilbert y Bernays.

Teoría de grupos

Por primera vez, se exploraron los límites de las matemáticas. Niels Henrik Abel (1802–1829), noruego, y Évariste Galois (1811–1832), francés, investigaron las soluciones de varias ecuaciones polinómicas y demostraron que no existe una solución algebraica general para las ecuaciones de grado mayor que cuatro (Abel –Teorema de Ruffini). Con estos conceptos, Pierre Wantzel (1837) demostró que la regla y el compás por sí solos no pueden trisecar un ángulo arbitrario ni duplicar un cubo. En 1882, Lindemann, basándose en el trabajo de Hermite, demostró que una cuadratura del círculo con regla y compás (construcción de un cuadrado de área igual a un círculo dado) también era imposible al demostrar que π es un número trascendental. Los matemáticos habían intentado resolver todos estos problemas en vano desde la época de los antiguos griegos.

Los trabajos de Abel y Galois abrieron el camino para el desarrollo de la teoría de grupos (que luego se usaría para estudiar la simetría en la física y otros campos) y el álgebra abstracta. Los conceptos de espacios vectoriales surgieron desde la concepción de las coordenadas baricéntricas de Möbius en 1827, hasta la definición moderna de espacios vectoriales y mapas lineales de Peano en 1888. La geometría ya no estaba limitada a tres dimensiones. Estos conceptos no generalizaron números, sino que combinaron nociones de funciones y conjuntos que aún no estaban formalizados, rompiendo con los objetos matemáticos familiares.

Geometrías no euclidianas

Después de muchos intentos fallidos de derivar el postulado de las paralelas a partir de otros axiomas, el estudio de la todavía hipotética geometría hiperbólica de Johann Heinrich Lambert (1728–1777) lo llevó a introducir las funciones hiperbólicas y calcular el área de un triángulo hiperbólico (donde la suma de los ángulos es menor de 180°). Luego, el matemático ruso Nikolai Lobachevsky (1792–1856) estableció en 1826 (y publicó en 1829) la coherencia de esta geometría (por lo tanto, la independencia del postulado de las paralelas), en paralelo con el matemático húngaro János Bolyai (1802–1860) en 1832. y con Gauss. Más tarde, en el siglo XIX, el matemático alemán Bernhard Riemann desarrolló la geometría elíptica, otra geometría no euclidiana en la que no se pueden encontrar paralelos y la suma de los ángulos en un triángulo es superior a 180°. Se demostró que era consistente al definir punto como un par de puntos antípodas en una esfera fija y línea como un gran círculo en la esfera. En ese momento, el método principal para probar la consistencia de un conjunto de axiomas era proporcionar un modelo para ello.

Geometría proyectiva

Una de las trampas en un sistema deductivo es el razonamiento circular, un problema que parecía afectar a la geometría proyectiva hasta que fue resuelto por Karl von Staudt. Como explican los historiadores rusos:

A mediados del siglo XIX hubo una polémica acrimoniosa entre los proponentes de métodos sintéticos y analíticos en la geometría proyectiva, los dos lados se acusaban mutuamente de mezclar conceptos proyectivos y métricos. De hecho, el concepto básico que se aplica en la presentación sintética de la geometría proyectiva, la relación de cuatro puntos de una línea, se introdujo mediante el examen de las longitudes de intervalos.

El enfoque puramente geométrico de von Staudt se basó en el cuadrilátero completo para expresar la relación de conjugados armónicos proyectivos. Luego creó un medio para expresar las propiedades numéricas familiares con su Álgebra de lanzamientos. Las versiones en inglés de este proceso de deducir las propiedades de un campo se pueden encontrar en el libro de Oswald Veblen y John Young, Projective Geometry (1938), o más recientemente en el libro de John Stillwell. Cuatro pilares de la geometría (2005). Stillwell escribe en la página 120

... geometría proyectiva es simpler que álgebra en cierto sentido, porque usamos sólo cinco axiomas geométricos para derivar los nueve axiomas de campo.

El álgebra de lanzamientos suele verse como una característica de las proporciones cruzadas, ya que los estudiantes suelen confiar en los números sin preocuparse por su base. Sin embargo, los cálculos de proporciones cruzadas utilizan características métricas de la geometría, características no admitidas por los puristas. Por ejemplo, en 1961 Coxeter escribió Introducción a la geometría sin mencionar la razón cruzada.

Álgebra booleana y lógica

Los intentos de un tratamiento formal de las matemáticas comenzaron con Leibniz y Lambert (1728–1777) y continuaron con trabajos de algebristas como George Peacock (1791–1858). Los tratamientos matemáticos sistemáticos de la lógica llegaron con el matemático británico George Boole (1847), quien ideó un álgebra que pronto evolucionó a lo que ahora se llama álgebra booleana, en la que los únicos números eran 0 y 1 y combinaciones lógicas (conjunción, disyunción, implicación y negación).) son operaciones similares a la suma y multiplicación de números enteros. Además, De Morgan publicó sus leyes en 1847. La lógica se convirtió así en una rama de las matemáticas. El álgebra booleana es el punto de partida de la lógica matemática y tiene importantes aplicaciones en informática.

Charles Sanders Peirce se basó en el trabajo de Boole para desarrollar un sistema lógico para relaciones y cuantificadores, que publicó en varios artículos entre 1870 y 1885.

El matemático alemán Gottlob Frege (1848–1925) presentó un desarrollo independiente de la lógica con cuantificadores en su Begriffsschrift (lenguaje de fórmulas) publicado en 1879, un trabajo generalmente considerado como un punto de inflexión en la historia de la lógica. Expuso las deficiencias en la Lógica de Aristóteles y señaló las tres propiedades esperadas de una teoría matemática.

  1. Consistencia: imposibilidad de probar declaraciones contradictorias.
  2. Completeness: cualquier declaración es provable o refutable (es decir, su negación es provable).
  3. Decidibilidad: hay un procedimiento de decisión para probar cualquier declaración en la teoría.

Luego mostró en Grundgesetze der Arithmetik (Leyes básicas de la aritmética) cómo se podía formalizar la aritmética en su nueva lógica.

El trabajo de Frege fue popularizado por Bertrand Russell cerca del cambio de siglo. Pero la notación bidimensional de Frege no tuvo éxito. Las notaciones populares eran (x) para cuantificadores universales y (∃x) para existenciales, provenientes de Giuseppe Peano y William Ernest Johnson hasta que Gerhard Gentzen introdujo el símbolo ∀ en 1935 y se volvió canónico en la década de 1960.

De 1890 a 1905, Ernst Schröder publicó Vorlesungen über die Algebra der Logik en tres volúmenes. Este trabajo resumió y amplió el trabajo de Boole, De Morgan y Peirce, y fue una referencia completa a la lógica simbólica tal como se entendía a fines del siglo XIX.

Aritmética de Peano

La formalización de la aritmética (la teoría de los números naturales) como una teoría axiomática comenzó con Peirce en 1881 y continuó con Richard Dedekind y Giuseppe Peano en 1888. Esta era todavía una axiomatización de segundo orden (expresando la inducción en términos de subconjuntos arbitrarios, por lo tanto con un uso implícito de la teoría de conjuntos) ya que aún no se entendía la preocupación por expresar teorías en lógica de primer orden. En el trabajo de Dedekind, este enfoque parece caracterizar completamente los números naturales y proporcionar definiciones recursivas de suma y multiplicación a partir de la función sucesora y la inducción matemática.

Crisis fundacional

La crisis fundacional de las matemáticas (en alemán Grundlagenkrise der Mathematik) surgió a finales del siglo XIX y principios del XX con el descubrimiento de varias paradojas o resultados contra-intuitivos.

La primera fue la prueba de que el postulado de las paralelas no se puede demostrar. Esto resulta de una construcción de una geometría No-Euclidiana dentro de la geometría Euclidiana, cuya inconsistencia implicaría la inconsistencia de la geometría Euclidiana. Una paradoja bien conocida es la paradoja de Russell, que consiste en mostrar que la frase "el conjunto de todos los conjuntos" es autocontradictorio. Otros problemas filosóficos fueron la prueba de la existencia de objetos matemáticos que no se pueden calcular ni describir explícitamente, y la prueba de la existencia de teoremas de la aritmética que no se pueden probar con la aritmética de Peano.

Varias escuelas de filosofía de las matemáticas se enfrentaron a estos problemas en el siglo XX y se describen a continuación. Finalmente, se produjo un consenso entre los matemáticos, que consiste en el método axiomático. Es decir, una teoría matemática consiste en un sistema de axiomas y reglas de inferencia que permite probar teoremas. Esto permite también hacer de la lógica matemática una parte de las matemáticas y demostrar teoremas al respecto.

Puntos de vista filosóficos

A principios del siglo XX se opusieron tres escuelas de filosofía de las matemáticas: el formalismo, el intuicionismo y el logicismo. La Segunda Conferencia sobre Epistemología de las Ciencias Exactas celebrada en Königsberg en 1930 dio espacio a estas tres escuelas.

Formalismo

Se ha afirmado que los formalistas, como David Hilbert (1862–1943), sostienen que las matemáticas son solo un lenguaje y una serie de juegos. De hecho, usó las palabras "juego de fórmula" en su respuesta de 1927 a las críticas de L. E. J. Brouwer:

¿Y en qué medida ha hecho posible el juego de fórmulas? Este juego de fórmulas nos permite expresar todo el contenido de pensamiento de la ciencia de las matemáticas de manera uniforme y desarrollarlo de tal manera que, al mismo tiempo, las interconexiones entre las proposiciones individuales y los hechos se vuelven claras... El juego de fórmulas que Brouwer tan deprecates tiene, además de su valor matemático, un importante significado filosófico general. Para este juego de fórmulas se lleva a cabo de acuerdo a ciertas reglas definidas, en las cuales el técnica de nuestro pensamiento se expresa. Estas reglas forman un sistema cerrado que puede ser descubierto y definitivamente declarado.

Así, Hilbert insiste en que las matemáticas no son un juego arbitrario con reglas arbitrarias; más bien debe estar de acuerdo con cómo procede nuestro pensamiento, y luego nuestro hablar y escribir.

No estamos hablando aquí de arbitrariedad en ningún sentido. Las matemáticas no son como un juego cuyas tareas se determinan por reglas estipuladas arbitrariamente. Más bien, es un sistema conceptual que posee una necesidad interna que sólo puede ser así y por ningún otro medio.

La filosofía fundamental del formalismo, como lo ejemplifica David Hilbert, es una respuesta a las paradojas de la teoría de conjuntos y se basa en la lógica formal. Prácticamente todos los teoremas matemáticos actuales pueden formularse como teoremas de la teoría de conjuntos. La verdad de un enunciado matemático, desde este punto de vista, está representada por el hecho de que el enunciado puede derivarse de los axiomas de la teoría de conjuntos usando las reglas de la lógica formal.

Simplemente, el uso del formalismo por sí solo no explica varias cuestiones: por qué debemos usar los axiomas que usamos y no otros, por qué debemos usar las reglas lógicas que usamos y no otras, por qué "verdadero&# 34; los enunciados matemáticos (por ejemplo, las leyes de la aritmética) parecen ser verdaderos, y así sucesivamente. Hermann Weyl le haría estas mismas preguntas a Hilbert:

Lo que "verdad" o objetividad puede atribuirse a esta construcción teórica del mundo, que presiona mucho más allá de lo dado, es un problema filosófico profundo. Está estrechamente relacionada con la pregunta adicional: ¿qué nos impulsa a tomar como base precisamente el sistema de axioma particular desarrollado por Hilbert? La coherencia es, en efecto, una condición necesaria pero no suficiente. Por el momento probablemente no podamos responder a esta pregunta...

En algunos casos, estas preguntas pueden responderse suficientemente a través del estudio de teorías formales, en disciplinas como las matemáticas inversas y la teoría de la complejidad computacional. Como señaló Weyl, los sistemas lógicos formales también corren el riesgo de la inconsistencia; en la aritmética de Peano, podría decirse que esto ya se ha resuelto con varias pruebas de consistencia, pero existe un debate sobre si son o no lo suficientemente finitas para ser significativas. El segundo teorema de incompletitud de Gödel establece que los sistemas lógicos de la aritmética nunca pueden contener una prueba válida de su propia consistencia. Lo que Hilbert quería hacer era probar que un sistema lógico S era consistente, basado en principios P que solo componían una pequeña parte de S. Pero Gödel probó que los principios P ni siquiera podían probar que P fuera consistente, y mucho menos S.

Intuicionismo

Los intuicionistas, como L. E. J. Brouwer (1882–1966), sostienen que las matemáticas son una creación de la mente humana. Los números, como los personajes de los cuentos de hadas, son simplemente entidades mentales, que no existirían si nunca hubiera habido mentes humanas para pensar en ellas.

La filosofía fundamental del intuicionismo o constructivismo, como lo ejemplifican en extremo Brouwer y Stephen Kleene, requiere que las pruebas sean "constructivas" en la naturaleza: la existencia de un objeto debe demostrarse en lugar de inferirse de una demostración de la imposibilidad de su inexistencia. Por ejemplo, como consecuencia de ello resulta sospechosa la forma de prueba conocida como reductio ad absurdum.

Algunas teorías modernas de la filosofía de las matemáticas niegan la existencia de fundamentos en el sentido original. Algunas teorías tienden a centrarse en la práctica matemática y pretenden describir y analizar el trabajo real de los matemáticos como grupo social. Otros intentan crear una ciencia cognitiva de las matemáticas, centrándose en la cognición humana como el origen de la fiabilidad de las matemáticas cuando se aplican al mundo real. Estas teorías propondrían encontrar fundamentos solo en el pensamiento humano, no en ningún constructo externo objetivo. El asunto sigue siendo controvertido.

Logicismo

El logicismo es una escuela de pensamiento y un programa de investigación en la filosofía de las matemáticas, basado en la tesis de que las matemáticas son una extensión de una lógica o que algunas o todas las matemáticas pueden derivarse en un sistema formal adecuado cuyos axiomas y reglas de inferencia son 'lógicos' en naturaleza. Bertrand Russell y Alfred North Whitehead defendieron esta teoría iniciada por Gottlob Frege e influenciada por Richard Dedekind.

Platonismo de la teoría de conjuntos

Muchos investigadores de la teoría axiomática de conjuntos se han suscrito a lo que se conoce como platonismo de la teoría de conjuntos, ejemplificado por Kurt Gödel.

Varios teóricos de conjuntos siguieron este enfoque y buscaron activamente axiomas que pudieran considerarse verdaderos por razones heurísticas y que decidieran la hipótesis del continuo. Se estudiaron muchos axiomas cardinales grandes, pero la hipótesis siempre se mantuvo independiente de ellos y ahora se considera poco probable que CH pueda resolverse mediante un nuevo axioma cardinal grande. Se consideraron otros tipos de axiomas, pero ninguno de ellos ha llegado aún a un consenso sobre la hipótesis del continuo. El trabajo reciente de Hamkins propone una alternativa más flexible: un multiverso de teoría de conjuntos que permite el paso libre entre universos de teoría de conjuntos que satisfacen la hipótesis del continuo y otros universos que no la cumplen.

Argumento de indispensable para el realismo

Este argumento de Willard Quine y Hilary Putnam dice (en las palabras más cortas de Putnam):

... la cuantificación sobre las entidades matemáticas es indispensable para la ciencia... por lo tanto debemos aceptar tal cuantificación; pero esto nos compromete a aceptar la existencia de las entidades matemáticas en cuestión.

Sin embargo, Putnam no era un platónico.

Realismo rudo y listo

Pocos matemáticos suelen estar preocupados a diario por el logicismo, el formalismo o cualquier otra posición filosófica. En cambio, su principal preocupación es que la empresa matemática en su conjunto siempre siga siendo productiva. Por lo general, ven esto como algo garantizado si se mantienen abiertos, prácticos y ocupados; como potencialmente amenazados por volverse demasiado ideológicos, fanáticamente reduccionistas o perezosos.

Este punto de vista también ha sido expresado por algunos físicos conocidos.

Por ejemplo, el premio Nobel de Física, Richard Feynman, dijo

La gente me dice: "¿Estás buscando las leyes últimas de la física?" No, no estoy... Si resulta que hay una simple ley definitiva que explica todo, así que sea – que sería muy agradable descubrir. Si resulta que es como una cebolla con millones de capas... entonces así es. Pero de cualquier manera está la Naturaleza y va a salir de la manera que ella es. Por lo tanto, cuando vamos a investigar no debemos predecir lo que estamos buscando sólo para averiguar más sobre ello.

Y Steven Weinberg:

Las ideas de los filósofos han beneficiado ocasionalmente a los físicos, pero generalmente de manera negativa – protegiéndolos de las preconcepciones de otros filósofos... sin alguna orientación de nuestras preconcepciones uno no podía hacer nada en absoluto. Es sólo que los principios filosóficos no nos han proporcionado generalmente las preconcepciones correctas.

Weinberg creía que cualquier indecidibilidad en matemáticas, como la hipótesis del continuo, podría resolverse potencialmente a pesar del teorema de incompletitud, encontrando axiomas adicionales adecuados para agregar a la teoría de conjuntos.

Consecuencias filosóficas del teorema de completitud de Gödel

El teorema de completitud de Gödel establece una equivalencia en lógica de primer orden entre la demostrabilidad formal de una fórmula y su verdad en todos los modelos posibles. Precisamente, para cualquier teoría de primer orden consistente da una "construcción explícita" de un modelo descrito por la teoría; este modelo será contable si el lenguaje de la teoría es contable. Sin embargo, esta "construcción explícita" no es algorítmico. Se basa en un proceso iterativo de finalización de la teoría, donde cada paso de la iteración consiste en agregar una fórmula a los axiomas si mantiene la teoría consistente; pero esta cuestión de consistencia es solo semidecidible (hay un algoritmo disponible para encontrar cualquier contradicción, pero si no hay ninguna, este hecho de consistencia puede permanecer indemostrable).

Esto puede verse como una especie de justificación de la visión platónica de que los objetos de nuestras teorías matemáticas son reales. Más precisamente, muestra que la mera suposición de la existencia del conjunto de números naturales como una totalidad (un infinito actual) es suficiente para implicar la existencia de un modelo (un mundo de objetos) de cualquier teoría consistente. Sin embargo, persisten varias dificultades:

  • Para cualquier teoría consistente esto generalmente no da sólo un mundo de objetos, sino una infinidad de mundos posibles que la teoría podría igualmente describir, con una posible diversidad de verdades entre ellos.
  • En el caso de la teoría de conjuntos, ninguno de los modelos obtenidos por esta construcción se asemeja al modelo previsto, ya que son contables mientras la teoría de conjuntos pretende describir infinidades incontables. Se pueden hacer observaciones similares en muchos otros casos. Por ejemplo, con teorías que incluyen aritmética, tales construcciones generalmente dan modelos que incluyen números no estándar, a menos que el método de construcción fue diseñado específicamente para evitarlos.
  • Como da modelos a todas las teorías consistentes sin distinción, no da ninguna razón para aceptar o rechazar cualquier axioma mientras la teoría siga siendo consistente, pero considera que todas las teorías axiomáticas consistentes se refieren a mundos igualmente existentes. No da ninguna indicación sobre qué sistema axiomático debe ser preferido como una base de las matemáticas.
  • Como las afirmaciones de la consistencia son generalmente inprovibles, siguen siendo una cuestión de creencias o tipos no-rigorosos de justificaciones. De ahí que la existencia de modelos dados por el teorema de la integridad necesita de hecho dos hipótesis filosóficas: la infinidad real de los números naturales y la consistencia de la teoría.

Otra consecuencia del teorema de completitud es que justifica la concepción de los infinitesimales como cantidades reales infinitamente pequeñas distintas de cero, basándose en la existencia de modelos no estándar como igualmente legítimos que los estándar. Esta idea fue formalizada por Abraham Robinson en la teoría del análisis no estándar.

Más paradojas

A continuación se enumeran algunos resultados notables en metamatemáticas. La teoría de conjuntos de Zermelo-Fraenkel es la axiomatización de la teoría de conjuntos más estudiada. Se abrevia ZFC cuando incluye el axioma de elección y ZF cuando se excluye el axioma de elección.

  • 1920: Thoralf Skolem corrigió la prueba de Leopold Löwenheim de lo que ahora se llama el teorema descendente de Löwenheim–Skolem, que conduce a la paradoja de Skolem discutida en 1922, a saber, la existencia de modelos contables de ZF, haciendo de las cardenalidades infinitas una propiedad relativa.
  • 1922: Prueba de Abraham Fraenkel de que el axioma de la elección no puede ser probado de los axiomas de la teoría de Zermelo conjunto con los urelementos.
  • 1931: Publicación de los teoremas incompletos de Gödel, mostrando que no se podían alcanzar aspectos esenciales del programa de Hilbert. Mostró cómo construir, para cualquier sistema repetidamente potente y consistente axiomatizable – como necesario para axiomatizar la teoría elemental de la aritmética en el conjunto (infinito) de números naturales – una declaración que expresa formalmente su propia inproviabilidad, que luego demostró equivalente a la afirmación de la consistencia de la teoría; de modo que (asumiendo la consistencia como verdadera), el sistema no es suficientemente poderoso para probarlo. Así quedó claro que la noción de la verdad matemática no puede ser completamente determinada y reducida a un sistema puramente formal como se prevé en el programa de Hilbert. Esto dio un golpe final al corazón del programa de Hilbert, la esperanza de que la consistencia pudiera ser establecida por medios finitistas (nunca se dejó claro exactamente qué axiomas eran los "finitísticos", pero cualquier sistema axiomático se estaba mencionando, era un sistema "pasador" que el sistema cuya consistencia se suponía que probaría).
  • 1936: Alfred Tarski demostró su teorema de indefinibilidad de la verdad.
  • 1936: Alan Turing demostró que no puede existir un algoritmo general para resolver el problema de detener todos los posibles pares de entradas de programas.
  • 1938: Gödel demostró la consistencia del axioma de elección y de la hipótesis continuum generalizada.
  • 1936-1937: Alonzo Church y Alan Turing, respectivamente, publicaron documentos independientes que muestran que una solución general al Entscheidungsproblema es imposible: la validez universal de las declaraciones en la lógica de primera orden no es decidable (sólo es semi-decida como lo da el teorema de integridad).
  • 1955: Pyotr Novikov mostró que existe un grupo G finitomente presentado de tal manera que el problema de la palabra para G es indecible.
  • 1963: Paul Cohen mostró que la Hipótesis Continuum es inprovable de ZFC. La prueba de Cohen desarrolló el método de forzar, que ahora es una herramienta importante para establecer resultados de independencia en la teoría de conjuntos.
  • 1964: Inspirado en la aleatoriedad fundamental de la física, Gregory Chaitin comienza a publicar resultados sobre la teoría de la información algorítmica (medida de la incompleta y aleatoriedad en las matemáticas).
  • 1966: Paul Cohen mostró que el axioma de elección es inprovisible en ZF incluso sin urelementos.
  • 1970: El décimo problema de Hilbert es probado insolvable: no hay solución recursiva para decidir si una ecuación Diofantina (ecuación polinomial multitivarable) tiene una solución en enteros.
  • 1971: El problema de Suslin se demuestra independiente de ZFC.

Hacia la resolución de la crisis

A partir de 1935, el grupo Bourbaki de matemáticos franceses comenzó a publicar una serie de libros para formalizar muchas áreas de las matemáticas sobre la nueva base de la teoría de conjuntos.

La escuela intuicionista no atrajo a muchos adeptos, y no fue hasta el trabajo de Bishop en 1967 que las matemáticas constructivas se colocaron sobre una base más sólida.

Se puede considerar que el programa de Hilbert se ha completado parcialmente, por lo que la crisis está esencialmente resuelta, satisfaciéndonos con requisitos más bajos que las ambiciones originales de Hilbert. Sus ambiciones se expresaron en una época en la que nada estaba claro: no estaba claro si las matemáticas podían tener una base rigurosa en absoluto.

Hay muchas variantes posibles de la teoría de conjuntos, que difieren en la fuerza de la consistencia, donde las versiones más fuertes (que postulan tipos más altos de infinitos) contienen pruebas formales de la consistencia de las versiones más débiles, pero ninguna contiene una prueba formal de su propia consistencia. Por lo tanto, lo único que no tenemos es una prueba formal de consistencia de cualquier versión de la teoría de conjuntos que prefiramos, como ZF.

En la práctica, la mayoría de los matemáticos no trabajan con sistemas axiomáticos o, si lo hacen, no dudan de la consistencia de ZFC, generalmente su sistema axiomático preferido. En la mayor parte de las matemáticas tal como se practican, la incompletitud y las paradojas de las teorías formales subyacentes nunca jugaron un papel de todos modos, y en aquellas ramas en las que sí lo hacen o cuyos intentos de formalización correrían el riesgo de formar teorías inconsistentes (como la lógica y la categoría). teoría), pueden tratarse con cuidado.

El desarrollo de la teoría de categorías a mediados del siglo XX mostró la utilidad de las teorías de conjuntos que garantizan la existencia de clases más grandes que ZFC, como la teoría de conjuntos de Von Neumann-Bernays-Gödel o la teoría de conjuntos de Tarski-Grothendieck, aunque eso en muchos casos, el uso de grandes axiomas cardinales o universos de Grothendieck es formalmente eliminable.

Un objetivo del programa de matemáticas inversas es identificar si hay áreas de "matemáticas básicas " en el que cuestiones fundacionales pueden volver a provocar una crisis.

Contenido relacionado

Prueba de primalidad

Una prueba de primalidad es un algoritmo para determinar si un número de entrada es primo. Entre otros campos de las matemáticas, se utiliza para la...

Pseudoaleatoriedad

Una secuencia pseudoaleatoria de números es aquella que parece ser estadísticamente aleatoria, a pesar de haber sido producida por un proceso completamente...

Argumento de reemplazabilidad

El argumento de la reemplazabilidad, o la lógica de la despensa, es un argumento filosófico que se ha utilizado para rechazar el vegetarianismo. Sostiene...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save