La navaja de Occam
Navaja de Occam, Navaja de Ockham o Navaja de Ocham (en latín: novacula Occami) en filosofía es el principio de resolución de problemas que recomienda buscar explicaciones construidas con el conjunto de elementos más pequeño posible. También se conoce como el principio de parsimonia o la ley de parsimonia (en latín: lex parsimoniae). Atribuido a Guillermo de Ockham, un filósofo y teólogo inglés del siglo XIV, se cita con frecuencia como Entia non sunt multiplicanda praeter necessitatem, que se traduce como "Las entidades no deben multiplicarse más allá de la necesidad", aunque Occam nunca usó estas palabras exactas. Popularmente, el principio a veces se parafrasea incorrectamente como 'La explicación más simple suele ser la mejor'.
Esta navaja filosófica defiende que, cuando se presentan hipótesis contrapuestas sobre la misma predicción, se debe preferir la que requiera la menor cantidad de suposiciones, y que esta no pretende ser una forma de elegir entre hipótesis que hacen predicciones diferentes. De manera similar, en ciencia, la navaja de Occam se usa como una heurística abductiva en el desarrollo de modelos teóricos más que como un árbitro riguroso entre modelos candidatos.
En el método científico, la navaja de Occam no se considera un principio lógico irrefutable ni un resultado científico; la preferencia por la simplicidad en el método científico se basa en el criterio de falsabilidad. Para cada explicación aceptada de un fenómeno, puede haber un número extremadamente grande, quizás incluso incomprensible, de alternativas posibles y más complejas. Dado que las explicaciones fallidas siempre pueden cargarse con hipótesis ad hoc para evitar que se falsifiquen, las teorías más simples son preferibles a las más complejas porque tienden a ser más comprobables.
Historia
La frase la navaja de Occam no apareció hasta algunos siglos después de la muerte de Guillermo de Ockham en 1347. Libert Froidmont, en su Sobre la filosofía cristiana de la Alma, toma el crédito por la frase, hablando de "novacula occami". Ockham no inventó este principio, pero la 'navaja de afeitar', y su asociación con él, puede deberse a la frecuencia y eficacia con la que la utilizó. Ockham expresó el principio de varias maneras, pero la versión más popular, "Las entidades no deben multiplicarse sin necesidad" (Non sunt multiplicanda entia sine necessitate) fue formulado por el filósofo franciscano irlandés John Punch en su comentario de 1639 sobre la obras de Duns Escoto.
Formulaciones anteriores a Guillermo de Ockham
Los orígenes de lo que se conoce como la navaja de Occam se remontan a las obras de filósofos anteriores como John Duns Scotus (1265-1308), Robert Grosseteste (1175-1253), Maimónides (Moses ben -Maimon, 1138–1204), e incluso Aristóteles (384–322 a.C.). Aristóteles escribe en su Análisis posterior, "Podemos suponer la superioridad ceteris paribus [en igualdad de condiciones] de la demostración que se deriva de menos postulados o hipótesis." Ptolomeo (c. 90 d. C. - c. 168) declaró: "Consideramos que es un buen principio explicar los fenómenos mediante la hipótesis más simple posible".
Frases como "Es vano hacer con más lo que se puede hacer con menos" y "Una pluralidad no debe postularse sin necesidad" eran lugares comunes en la escritura escolástica del siglo XIII. Robert Grosseteste, en Commentary on [Aristotle's] the Posterior Analytics Books (Commentarius in Posteriorum Analyticorum Libros) (c. 1217– 1220), declara: "Es mejor y más valioso lo que requiere menos, en igualdad de circunstancias... Porque si una cosa se demostrara de muchas y otra de menos premisas igualmente conocidas, claramente es mejor lo que es de menos porque nos hace saber rápidamente, así como una demostración universal es mejor que una particular porque produce conocimiento a partir de menos premisas. Del mismo modo, en las ciencias naturales, en las ciencias morales y en la metafísica, lo mejor es lo que no necesita premisas y lo mejor es lo que necesita menos, en igualdad de condiciones.
La Summa Theologica de Tomás de Aquino (1225–1274) afirma que "es superfluo suponer que lo que puede ser explicado por unos pocos principios ha sido producido por muchos.&# 34; Tomás de Aquino utiliza este principio para construir una objeción a la existencia de Dios, objeción que él a su vez contesta y refuta de forma general (cf. quinque viae), y específicamente, a través de un argumento basado en la causalidad. Por lo tanto, Tomás de Aquino reconoce el principio que hoy se conoce como la navaja de Occam, pero prefiere las explicaciones causales a otras explicaciones simples (cf. también Correlación no implica causalidad).
Guillermo de Ockham
Guillermo de Ockham (circa 1287–1347) fue un fraile y teólogo franciscano inglés, un influyente filósofo medieval y nominalista. Su fama popular como gran lógico se basa principalmente en la máxima que se le atribuye y conocida como la navaja de Occam. El término maquinilla de afeitar se refiere a distinguir entre dos hipótesis ya sea "afeitando" suposiciones innecesarias o separar dos conclusiones similares.
Si bien se ha afirmado que la navaja de Occam no se encuentra en ninguno de los escritos de William, se pueden citar afirmaciones como Numquam ponenda est pluralitas sine necessitate ("La pluralidad nunca debe ser postulada sin necesidad"), lo cual ocurre en su obra teológica sobre las Sentencias de Pedro Lombardo ( Quaestiones et decisiones in quattuor libros Sententiarum Petri Lombardi; ed. Lugd., 1495, i, dist. 27, qu. 2, K).
Sin embargo, las palabras precisas que a veces se atribuyen a Guillermo de Ockham, Entia non sunt multiplicanda praeter necessitatem (Entidades no debe multiplicarse más allá de la necesidad), están ausentes en sus obras existentes; esta frase en particular proviene de John Punch, quien describió el principio como un "axioma común" (axioma vulgare) de los escolásticos. La contribución de Guillermo de Ockham parece restringir la operación de este principio en asuntos relacionados con los milagros y el poder de Dios, por lo que en la Eucaristía es posible una pluralidad de milagros, simplemente porque agrada a Dios.
Este principio a veces se expresa como Pluralitas non est ponenda sine necessitate ("La pluralidad no debe plantearse sin necesidad"). En su Summa Totius Logicae, i. 12, Guillermo de Ockham cita el principio de economía, Frustra fit per plura quod potest fieri per pauciora (&# 34;Es inútil hacer con más cosas lo que se puede hacer con menos... Thorburn, 1918, pp. 352–53; Kneale y Kneale, 1962, p. 243.)
Formulaciones posteriores
Para citar a Isaac Newton, "No debemos admitir más causas de las cosas naturales que las que son verdaderas y suficientes para explicar sus apariencias. Por lo tanto, a los mismos efectos naturales debemos, en la medida de lo posible, asignar las mismas causas." En la oración hypotheses non fingo, Newton afirma el éxito de este enfoque.
Bertrand Russell ofrece una versión particular de la navaja de Occam: "Siempre que sea posible, sustituya las construcciones de entidades conocidas por inferencias a entidades desconocidas".
Alrededor de 1960, Ray Solomonoff fundó la teoría de la inferencia inductiva universal, la teoría de la predicción basada en observaciones; por ejemplo, predecir el siguiente símbolo en función de una serie determinada de símbolos. La única suposición es que el entorno sigue una distribución de probabilidad desconocida pero computable. Esta teoría es una formalización matemática de la navaja de Occam.
Otro enfoque técnico de la navaja de Occam es la parsimonia ontológica. La parsimonia significa economía y también se conoce como la Regla de la Simplicidad. Esto se considera una versión fuerte de la navaja de Occam. Una variación utilizada en medicina se llama 'Cebra': un médico debe rechazar un diagnóstico médico exótico cuando es más probable una explicación más común, derivada del dicho de Theodore Woodward 'Cuando escuchas ruido de cascos, piensa en caballos, no en cebras.
Ernst Mach formuló la versión más fuerte de la navaja de Occam en la física, a la que llamó el Principio de la economía y afirmó: "Los científicos deben usar los medios más simples para llegar a sus resultados y excluir todo lo que no es percibido por el sentidos."
Este principio se remonta al menos hasta Aristóteles, quien escribió "La naturaleza opera de la manera más breve posible". La idea de parsimonia o simplicidad al decidir entre teorías, aunque no es la intención de la expresión original de la navaja de Occam, se ha asimilado a la cultura común como la formulación generalizada del profano de que "la explicación más simple suele ser la correcta."
Justificaciones
Estética
Antes del siglo XX, era una creencia común que la naturaleza en sí misma era simple y que, por lo tanto, las hipótesis más simples sobre la naturaleza tenían más probabilidades de ser ciertas. Esta noción estaba profundamente arraigada en la estética valor que la simplicidad tiene para el pensamiento humano y las justificaciones presentadas a menudo se basaron en la teología. Tomás de Aquino planteó este argumento en el siglo XIII, escribiendo: "Si una cosa puede hacerse adecuadamente por medio de uno, es superfluo hacerlo por medio de varios; pues observamos que la naturaleza no emplea dos instrumentos [si] uno basta."
A partir del siglo XX, las justificaciones epistemológicas basadas en la inducción, la lógica, el pragmatismo y especialmente la teoría de la probabilidad se han vuelto más populares entre los filósofos.
Empírico
La navaja de Occam ha obtenido un fuerte respaldo empírico para ayudar a converger en mejores teorías (consulte la sección Usos a continuación para ver algunos ejemplos).
En el concepto relacionado de sobreajuste, los modelos excesivamente complejos se ven afectados por el ruido estadístico (un problema también conocido como compensación de sesgo-varianza), mientras que los modelos más simples pueden capturar mejor la estructura subyacente y, por lo tanto, pueden tener un mejor rendimiento predictivo. Sin embargo, a menudo es difícil deducir qué parte de los datos es ruido (cf. selección de modelo, conjunto de prueba, longitud mínima de descripción, inferencia bayesiana, etc.).
Probando la navaja
La declaración de la navaja de afeitar de que "en igualdad de condiciones, las explicaciones más simples generalmente son mejores que las más complejas" es susceptible de pruebas empíricas. Otra interpretación de la declaración de la navaja sería que 'las hipótesis más simples son generalmente mejores que las complejas'. El procedimiento para probar la primera interpretación compararía los antecedentes de explicaciones simples y comparativamente complejas. Si se acepta la primera interpretación, la validez de la navaja de Occam como herramienta tendría que ser rechazada si las explicaciones más complejas fueran más correctas que las menos complejas (mientras que lo contrario apoyaría su uso). Si se acepta la última interpretación, la validez de la navaja de Occam como herramienta podría aceptarse posiblemente si las hipótesis más simples condujeran a conclusiones correctas la mayoría de las veces.
Incluso si a veces son necesarios algunos aumentos en la complejidad, sigue existiendo un sesgo general justificado hacia la más simple de dos explicaciones en competencia. Para entender por qué, considere que para cada explicación aceptada de un fenómeno, siempre hay un número infinito de alternativas posibles, más complejas y, en última instancia, incorrectas. Esto es así porque siempre se puede cargar una explicación fallida con una hipótesis ad hoc. Las hipótesis ad hoc son justificaciones que impiden falsear las teorías.
Por ejemplo, si un hombre, acusado de romper un jarrón, hace afirmaciones sobrenaturales de que los duendes fueron los responsables de la rotura, una explicación simple podría ser que el hombre lo hizo, pero las justificaciones ad hoc continúan (por ejemplo, "... y ese no soy yo rompiéndolo en la película; ellos también manipularon eso") podría evitar con éxito la refutación completa. Este suministro interminable de elaboradas explicaciones en competencia, llamadas hipótesis salvadoras, no se puede descartar técnicamente, excepto usando la navaja de Occam.
Cualquier teoría más compleja podría seguir siendo cierta. Un estudio de la validez predictiva de la navaja de Occam encontró 32 artículos publicados que incluían 97 comparaciones de pronósticos económicos de métodos de pronóstico simples y complejos. Ninguno de los documentos proporcionó un balance de evidencia de que la complejidad del método mejoró la precisión del pronóstico. En los 25 artículos con comparaciones cuantitativas, la complejidad aumentó los errores de pronóstico en un promedio del 27 por ciento.
Consideraciones prácticas y pragmatismo
Matemáticas
Una justificación de la navaja de Occam es un resultado directo de la teoría básica de la probabilidad. Por definición, todos los supuestos introducen posibilidades de error; si una suposición no mejora la precisión de una teoría, su único efecto es aumentar la probabilidad de que la teoría general sea incorrecta.
También ha habido otros intentos de derivar la navaja de Occam de la teoría de la probabilidad, incluidos los intentos notables realizados por Harold Jeffreys y E. T. Jaynes. La base probabilística (bayesiana) de la navaja de Occam es elaborada por David J. C. MacKay en el capítulo 28 de su libro Teoría de la información, inferencia y algoritmos de aprendizaje, donde enfatiza que un sesgo previo a favor de modelos más simples no es necesario.
William H. Jefferys y James O. Berger (1991) generalizan y cuantifican los 'supuestos' de la formulación original; concepto como el grado en que una proposición se adapta innecesariamente a posibles datos observables. Afirman: "Una hipótesis con menos parámetros ajustables tendrá automáticamente una probabilidad posterior mejorada, debido al hecho de que las predicciones que hace son nítidas". El uso de "sostenido" aquí no solo hay una referencia irónica a la idea de una navaja de afeitar, sino que también indica que tales predicciones son más precisas que las predicciones de la competencia. El modelo que proponen equilibra la precisión de las predicciones de una teoría con su agudeza, prefiriendo las teorías que hacen predicciones correctas de manera precisa sobre las teorías que se adaptan a una amplia gama de otros resultados posibles. Esto, nuevamente, refleja la relación matemática entre conceptos clave en la inferencia bayesiana (es decir, probabilidad marginal, probabilidad condicional y probabilidad posterior).
El equilibrio entre sesgo y varianza es un marco que incorpora el principio de la navaja de Occam en su equilibrio entre el sobreajuste (asociado con un sesgo más bajo pero una varianza más alta) y el ajuste insuficiente (asociado con una varianza más baja pero un sesgo más alto).
Otros filósofos
Karl Popper
Karl Popper argumenta que la preferencia por teorías simples no tiene por qué apelar a consideraciones prácticas o estéticas. Nuestra preferencia por la simplicidad puede estar justificada por su criterio de falsabilidad: preferimos las teorías más simples a las más complejas 'porque su contenido empírico es mayor; y porque son mejor comprobables". La idea aquí es que una teoría simple se aplica a más casos que una más compleja y, por lo tanto, es más fácilmente falsable. Esto es nuevamente comparar una teoría simple con una teoría más compleja donde ambas explican los datos igualmente bien.
Elliot sobrio
El filósofo de la ciencia Elliott Sober argumentó una vez en la misma línea que Popper, vinculando la simplicidad con la "informatividad": la teoría más simple es la más informativa, en el sentido de que requiere menos información para una pregunta. Desde entonces, ha rechazado esta explicación de la simplicidad, supuestamente porque no proporciona una justificación epistémica de la simplicidad. Ahora cree que las consideraciones de simplicidad (y las consideraciones de parsimonia en particular) no cuentan a menos que reflejen algo más fundamental. Los filósofos, sugiere, pueden haber cometido el error de hipostasiar la simplicidad (es decir, dotarla de una existencia sui generis), cuando tiene significado solo cuando está incrustada en un contexto específico (Sober 1992). Si no justificamos las consideraciones de simplicidad sobre la base del contexto en el que las usamos, es posible que no tengamos una justificación no circular: "Así como la pregunta 'por qué ser racional?' puede no tener una respuesta no circular, lo mismo puede ser cierto para la pregunta '¿por qué se debe considerar la simplicidad al evaluar la plausibilidad de las hipótesis?'"
Richard Swinburne
Richard Swinburne aboga por la simplicidad sobre bases lógicas:
... la hipótesis más simple propuesta como explicación de los fenómenos es más probable que sea la verdadera que cualquier otra hipótesis disponible, que sus predicciones son más propensos a ser verdad que las de cualquier otra hipótesis disponible, y que es una última a priori principio epistémico que la simplicidad es evidencia de la verdad.
—Swinburne 1997
Según Swinburne, dado que nuestra elección de teoría no puede determinarse mediante datos (ver Subdeterminación y tesis de Duhem-Quine), debemos confiar en algún criterio para determinar qué teoría usar. Dado que es absurdo no tener un método lógico para establecer una hipótesis entre un número infinito de hipótesis igualmente compatibles con los datos, deberíamos elegir la teoría más simple: "O la ciencia es irracional [en la forma en que juzga teorías y predicciones probables ] o el principio de simplicidad es una verdad fundamental sintética a priori.".
Ludwig Wittgenstein
Del Tractatus Logico-Philosophicus:
- 3.328 "Si una señal no es necesaria entonces no tiene sentido. Ese es el significado del Razor de Occam."
- (Si todo en el simbolismo funciona como si un signo tuviera significado, entonces tiene significado.)
- 4.04 "En la proposición, debe haber exactamente tantas cosas distinguibles como en el estado de los asuntos, que representa. Ambos deben poseer la misma multiplicidad lógica (matemática) (cf. Mecánica de Hertz, sobre Modelos Dinámicos)".
- 5.47321 "El Razor de Occam no es, por supuesto, una regla arbitraria ni justificada por su éxito práctico. Simplemente dice que elementos innecesarios en un simbolismo no significan nada. Los signos que sirven a un propósito son lógicamente equivalentes; los signos que no sirven a ningún propósito son lógicamente sin sentido."
y sobre el concepto relacionado de "simplicidad":
- 6.363 "El procedimiento de inducción consiste en aceptar como verdad la ley más simple que puede reconciliarse con nuestras experiencias".
Usos
La ciencia y el método científico
En ciencia, la navaja de Occam se utiliza como heurística para guiar a los científicos en el desarrollo de modelos teóricos en lugar de como árbitro entre los modelos publicados. En física, la parsimonia fue una heurística importante en la formulación de la relatividad especial de Albert Einstein, en el desarrollo y aplicación del principio de acción mínima de Pierre Louis Maupertuis y Leonhard Euler, y en el desarrollo de la mecánica cuántica de Max Planck. Werner Heisenberg y Louis de Broglie.
En química, la navaja de Occam suele ser una heurística importante cuando se desarrolla un modelo de un mecanismo de reacción. Aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados. En este contexto, el propio Einstein expresó su cautela cuando formuló la Restricción de Einstein: “Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreducibles sean tan simples y tan pocos como sea posible sin tener renunciar a la representación adecuada de un solo dato de experiencia." Una versión citada a menudo de esta restricción (que no puede verificarse como lo planteó el propio Einstein) la reduce a 'Todo debe mantenerse lo más simple posible, pero no más simple'.
En el método científico, la parsimonia es una preferencia epistemológica, metafísica o heurística, no un principio lógico irrefutable o un resultado científico. Como principio lógico, la navaja de Occam exigiría que los científicos aceptaran la explicación teórica más simple posible para los datos existentes. Sin embargo, la ciencia ha demostrado repetidamente que los datos futuros a menudo respaldan teorías más complejas que los datos existentes. La ciencia prefiere la explicación más simple que sea consistente con los datos disponibles en un momento dado, pero la explicación más simple puede descartarse a medida que se disponga de nuevos datos. Es decir, la ciencia está abierta a la posibilidad de que los experimentos futuros puedan respaldar teorías más complejas que las exigidas por los datos actuales y está más interesada en diseñar experimentos para discriminar entre teorías en competencia que en favorecer una teoría sobre otra basándose simplemente en principios filosóficos.
Cuando los científicos usan la idea de parsimonia, solo tiene significado en un contexto de investigación muy específico. Se requieren varios supuestos de fondo para que la parsimonia se conecte con la plausibilidad en un problema de investigación particular. La razonabilidad de la parsimonia en un contexto de investigación puede no tener nada que ver con su razonabilidad en otro. Es un error pensar que existe un único principio global que abarca diversos temas.
Se ha sugerido que la navaja de Occam es un ejemplo ampliamente aceptado de consideración extraevidencial, aunque se trata de una suposición completamente metafísica. Sin embargo, la mayoría de las veces, la navaja de Occam es una herramienta conservadora, que elimina "construcciones locas y complicadas" y asegurando "que las hipótesis están basadas en la ciencia del día", dando así resultados "normales" ciencia: modelos de explicación y predicción. Sin embargo, hay excepciones notables en las que la navaja de Occam convierte a un científico conservador en un revolucionario reacio. Por ejemplo, Max Planck interpoló entre las leyes de radiación de Wien y Jeans y usó la lógica de la navaja de Occam para formular la hipótesis cuántica, e incluso se resistió a esa hipótesis cuando se hizo más evidente que era correcta.
Se apeló a la simplicidad para argumentar en contra de los fenómenos de los meteoritos, los relámpagos, la deriva continental y la transcriptasa inversa. Se puede abogar por bloques de construcción atómicos para la materia, porque proporciona una explicación más simple para la reversibilidad observada de ambos mezcla y reacciones químicas como separación simple y reordenamientos de bloques de construcción atómicos. En ese momento, sin embargo, la teoría atómica se consideraba más compleja porque implicaba la existencia de partículas invisibles que no habían sido detectadas directamente. Ernst Mach y los positivistas lógicos rechazaron la teoría atómica de John Dalton hasta que la realidad de los átomos fue más evidente en el movimiento browniano, como lo demostró Albert Einstein.
Del mismo modo, postular el éter es más complejo que la transmisión de luz a través del vacío. En ese momento, sin embargo, todas las ondas conocidas se propagaban a través de un medio físico, y parecía más sencillo postular la existencia de un medio que teorizar sobre la propagación de ondas sin medio. Del mismo modo, la idea de las partículas de luz de Isaac Newton parecía más simple que la idea de las ondas de Christiaan Huygens, por lo que muchos la favorecieron. En este caso, resultó que ni la explicación ondulatoria ni la partícula son suficientes por sí solas, ya que la luz se comporta como ondas y como partículas.
Tres axiomas que presupone el método científico son el realismo (la existencia de la realidad objetiva), la existencia de leyes naturales y la constancia de la ley natural. En lugar de depender de la demostrabilidad de estos axiomas, la ciencia depende del hecho de que no hayan sido falsificados objetivamente. La navaja y la parsimonia de Occam apoyan, pero no prueban, estos axiomas de la ciencia. El principio general de la ciencia es que las teorías (o modelos) de la ley natural deben ser consistentes con observaciones experimentales repetibles. Este árbitro final (criterio de selección) se basa en los axiomas mencionados anteriormente.
Si múltiples modelos de ley natural hacen exactamente las mismas predicciones comprobables, son equivalentes y no hay necesidad de parsimonia para elegir uno preferido. Por ejemplo, las mecánicas clásicas newtoniana, hamiltoniana y lagrangiana son equivalentes. Los físicos no tienen interés en usar la navaja de Occam para decir que los otros dos están equivocados. Del mismo modo, no hay demanda de principios de simplicidad para arbitrar entre formulaciones de ondas y matrices de la mecánica cuántica. La ciencia a menudo no exige criterios de arbitraje o selección entre modelos que hacen las mismas predicciones comprobables.
Biología
Los biólogos o filósofos de la biología usan la navaja de Occam en cualquiera de los dos contextos de la biología evolutiva: las unidades de selección, la controversia y la sistemática. George C. Williams en su libro Adaptation and Natural Selection (1966) argumenta que la mejor manera de explicar el altruismo entre los animales se basa en la selección de bajo nivel (es decir, individual) en contraposición a la selección de grupo de alto nivel. selección. Algunos biólogos evolucionistas (p. ej., R. Alexander, 1987; W. D. Hamilton, 1964) definen el altruismo como un comportamiento que es beneficioso para los demás (o para el grupo) a costa del individuo, y muchos postulan la selección individual como el mecanismo que explica el altruismo únicamente en términos de los comportamientos de los organismos individuales que actúan en su propio interés (o en el interés de sus genes, a través de la selección de parentesco). Williams argumentaba en contra de la perspectiva de otros que proponen la selección a nivel de grupo como un mecanismo evolutivo que selecciona rasgos altruistas (p. ej., D. S. Wilson & E. O. Wilson, 2007). La base de Williams' El argumento es que, de los dos, la selección individual es la teoría más parsimoniosa. Al hacerlo, está invocando una variante de la navaja de Occam conocida como Canon de Morgan: "En ningún caso debe interpretarse una actividad animal en términos de procesos psicológicos superiores, si puede ser justamente". interpretado en términos de procesos que se sitúan más abajo en la escala de evolución y desarrollo psicológico." (Morgan 1903).
Sin embargo, análisis biológicos más recientes, como el de Richard Dawkins' El gen egoísta, han afirmado que el canon de Morgan no es la explicación más simple y básica. Dawkins argumenta que la forma en que funciona la evolución es que los genes propagados en la mayoría de las copias terminan determinando el desarrollo de esa especie en particular, es decir, la selección natural resulta seleccionar genes específicos, y este es realmente el principio subyacente fundamental que automáticamente da lugar a la selección individual y grupal. como características emergentes de la evolución.
La zoología proporciona un ejemplo. Los bueyes almizcleros, cuando son amenazados por los lobos, forman un círculo con los machos por fuera y las hembras y las crías por dentro. Este es un ejemplo de un comportamiento de los machos que parece ser altruista. El comportamiento es desventajoso para ellos individualmente pero beneficioso para el grupo en su conjunto y, por lo tanto, algunos lo consideraron que respalda la teoría de la selección de grupo. Otra interpretación es la selección de parentesco: si los machos están protegiendo a su descendencia, están protegiendo copias de sus propios alelos. Participar en este comportamiento se vería favorecido por la selección individual si el costo para el buey almizclero macho es menos de la mitad del beneficio recibido por su cría, lo que fácilmente podría ser el caso si a los lobos les resulta más fácil matar crías que a los machos adultos. También podría darse el caso de que los bueyes almizcleros machos fueran individualmente menos propensos a ser asesinados por lobos si se pararan en un círculo con los cuernos hacia afuera, independientemente de si estaban protegiendo a las hembras y las crías. Ese sería un ejemplo de selección natural regular, un fenómeno llamado "el rebaño egoísta".
La sistemática es la rama de la biología que intenta establecer patrones de relación entre taxones biológicos, que en la actualidad generalmente se piensa que reflejan la historia evolutiva. También se ocupa de su clasificación. Hay tres campos principales en sistemática: cladistas, fenetistas y taxónomos evolutivos. Los cladistas sostienen que la clasificación debe basarse en sinapomorfias (estados de carácter derivados compartidos), los fenetistas sostienen que la similitud general (sinapomorfias y simplesiomorfias complementarias) es el criterio determinante, mientras que los taxonomistas evolutivos dicen que tanto la genealogía como la similitud cuentan en la clasificación (de una manera determinada). por el taxónomo evolutivo).
Es entre los cladistas donde se aplica la navaja de Occam, mediante el método de la parsimonia cladística. La parsimonia cladística (o parsimonia máxima) es un método de inferencia filogenética que produce árboles filogenéticos (más específicamente, cladogramas). Los cladogramas son diagramas ramificados que se utilizan para representar hipótesis de grado relativo de relación, basadas en sinapomorfias. La parsimonia cladística se utiliza para seleccionar como hipótesis preferida de relaciones el cladograma que requiere la menor cantidad de transformaciones de estado de carácter implícitas (o el peso más pequeño, si los caracteres se ponderan diferencialmente). Los críticos del enfoque cladístico a menudo observan que para algunos tipos de datos, la parsimonia podría producir resultados incorrectos, independientemente de la cantidad de datos recopilados (esto se denomina inconsistencia estadística o atracción de rama larga). Sin embargo, esta crítica también es potencialmente cierta para cualquier tipo de inferencia filogenética, a menos que el modelo utilizado para estimar el árbol refleje la forma en que realmente sucedió la evolución. Debido a que esta información no es accesible empíricamente, la crítica de la inconsistencia estadística contra la parsimonia no tiene fuerza. Para un tratamiento completo de la parsimonia cladística, véase Reconstructing the Past: Parsimony, Evolution, and Inference de Elliott Sober (1988). Para una discusión de ambos usos de la navaja de Occam en biología, consulte el artículo de Sober 'Let's Razor Ockham's Razor'. (1990).
Otros métodos para inferir relaciones evolutivas usan la parsimonia de una manera más general. Los métodos de probabilidad para la filogenia utilizan la parsimonia como lo hacen para todas las pruebas de probabilidad, con hipótesis que requieren menos parámetros diferentes (es decir, números o diferentes tasas de cambio de carácter o diferentes frecuencias de transiciones de estado de carácter) que se tratan como hipótesis nulas en relación con las hipótesis que requieren parámetros más diferentes. Por lo tanto, las hipótesis complejas deben predecir los datos mucho mejor que las hipótesis simples antes de que los investigadores rechacen las hipótesis simples. Los avances recientes emplean la teoría de la información, prima cercana de la probabilidad, que utiliza la navaja de Occam de la misma manera. Por supuesto, la elección del "árbol más corto" en relación con un árbol no tan corto bajo cualquier criterio de optimización (distancia más pequeña, menor número de pasos o máxima probabilidad) siempre se basa en la parsimonia
Francis Crick ha comentado sobre las posibles limitaciones de la navaja de afeitar de Occam en biología. Él avanza el argumento de que debido a que los sistemas biológicos son los productos de la selección natural (en curso), los mecanismos no son necesariamente óptimos en un sentido obvio. Advierte: "Si bien la navaja de Ockham es una herramienta útil en las ciencias físicas, puede ser un instrumento muy peligroso en biología". Por tanto, es muy temerario utilizar la sencillez y la elegancia como guía en la investigación biológica." Esta es una crítica ontológica de la parsimonia.
En biogeografía, la parsimonia se utiliza para inferir eventos vicariantes antiguos o migraciones de especies o poblaciones mediante la observación de la distribución geográfica y las relaciones de los organismos existentes. Dado el árbol filogenético, se infiere que las subdivisiones de población ancestral son aquellas que requieren la cantidad mínima de cambio.
Religión
En la filosofía de la religión, la navaja de Occam se aplica a veces a la existencia de Dios. El propio Guillermo de Ockham era cristiano. Creía en Dios y en la autoridad de las Escrituras; escribe que "nada debe ser postulado sin una razón dada, a menos que sea evidente por sí mismo (literalmente, conocido por sí mismo) o conocido por experiencia o probado por la autoridad de la Sagrada Escritura." Ockham creía que una explicación no tiene base suficiente en la realidad cuando no armoniza con la razón, la experiencia o la Biblia. Sin embargo, a diferencia de muchos teólogos de su tiempo, Ockham no creía que Dios pudiera probarse lógicamente con argumentos. Para Ockham, la ciencia era una cuestión de descubrimiento, pero la teología era una cuestión de revelación y fe. Afirma: "sólo la fe nos da acceso a las verdades teológicas. Los caminos de Dios no están abiertos a la razón, porque Dios ha elegido libremente crear un mundo y establecer un camino de salvación dentro de él, aparte de cualquier ley necesaria que la lógica o la racionalidad humanas puedan descubrir."
Tomás de Aquino, en la Summa Theologica, utiliza una formulación de la navaja de Occam para construir una objeción a la idea de que Dios existe, que refuta directamente con un contraargumento:
Además, es superfluo suponer que lo que puede ser contado por unos pocos principios ha sido producido por muchos. Pero parece que todo lo que vemos en el mundo puede ser contado por otros principios, suponiendo que Dios no existió. Porque todas las cosas naturales pueden ser reducidas a un principio que es la naturaleza; y todas las cosas voluntarias pueden ser reducidas a un principio que es la razón humana, o la voluntad. Por lo tanto no hay necesidad de suponer la existencia de Dios.
A su vez, Tomás de Aquino responde a esto con el quinque viae, y aborda la objeción particular anterior con la siguiente respuesta:
Puesto que la naturaleza trabaja para un fin determinado bajo la dirección de un agente superior, lo que sea hecho por la naturaleza debe ser trazado de nuevo a Dios, en cuanto a su primera causa. Así también todo lo que se hace voluntariamente debe ser trazado de nuevo a alguna causa más alta que la razón humana o voluntad, ya que éstos pueden cambiar o fracasar; porque todas las cosas que son cambiantes y capaces de defecto deben ser trazadas de nuevo a un principio inamovible y autonecesario, como se muestra en el cuerpo del Artículo.
En lugar de defender la necesidad de un dios, algunos teístas basan su creencia en motivos independientes o anteriores a la razón, lo que hace que la navaja de Occam sea irrelevante. Esta fue la postura de Søren Kierkegaard, quien veía la creencia en Dios como un acto de fe que a veces se oponía directamente a la razón. Esta es también la doctrina de la apologética presuposicional de Gordon Clark, con la excepción de que Clark nunca pensó que el acto de fe fuera contrario a la razón (ver también fideísmo).
Diversos argumentos a favor de Dios establecen a Dios como una suposición útil o incluso necesaria. Por el contrario, algunos antiteístas se aferran firmemente a la creencia de que asumir la existencia de Dios introduce una complejidad innecesaria (Schmitt 2005, por ejemplo, el gambito Ultimate Boeing 747).
Otra aplicación del principio se encuentra en el trabajo de George Berkeley (1685–1753). Berkeley era un idealista que creía que toda la realidad podía explicarse únicamente en términos de la mente. Invocó la navaja de Occam contra el materialismo, afirmando que su metafísica no requería la materia y, por lo tanto, era eliminable. Un problema potencial con esta creencia es que es posible, dada la posición de Berkeley, encontrar el solipsismo en sí mismo más en línea con la navaja que un mundo mediado por Dios más allá de un solo pensador.
La navaja de Occam también puede reconocerse en la historia apócrifa sobre un intercambio entre Pierre-Simon Laplace y Napoleón. Se dice que al elogiar a Laplace por una de sus publicaciones recientes, el emperador preguntó cómo era posible que el nombre de Dios, que aparecía con tanta frecuencia en los escritos de Lagrange, no apareciera en los de Laplace. A eso, se dice que respondió: "Es porque no necesitaba esa hipótesis". Aunque algunos puntos de esta historia ilustran el ateísmo de Laplace, una consideración más cuidadosa sugiere que, en cambio, pudo haber tenido la intención simplemente de ilustrar el poder del naturalismo metodológico, o incluso simplemente que cuantas menos premisas lógicas se supongan, más fuerte será uno.;s conclusión.
Filosofía de la mente
En su artículo "Sensaciones y procesos cerebrales" (1959), J. J. C. Smart invocó la navaja de Occam con el objetivo de justificar su preferencia por la teoría de la identidad mente-cerebro sobre el dualismo espíritu-cuerpo. Los dualistas afirman que hay dos tipos de sustancias en el universo: físicas (incluido el cuerpo) y espirituales, que no son físicas. Por el contrario, los teóricos de la identidad afirman que todo es físico, incluida la conciencia, y que no hay nada que no sea físico. Aunque es imposible apreciar lo espiritual cuando uno se limita a lo físico, Smart sostuvo que la teoría de la identidad explica todos los fenómenos asumiendo solo una realidad física. Posteriormente, Smart ha sido severamente criticado por su uso (o mal uso) de la navaja de Occam y finalmente se retractó de su defensa en este contexto. Paul Churchland (1984) afirma que, por sí sola, la navaja de Occam no es concluyente con respecto a la dualidad. De manera similar, Dale Jacquette (1994) afirmó que la navaja de Occam se ha utilizado en intentos de justificar el eliminativismo y el reduccionismo en la filosofía de la mente. El eliminativismo es la tesis de que la ontología de la psicología popular incluye entidades tales como 'dolor', 'alegría', 'deseo', 'miedo', etc., son eliminables en favor de una ontología de una neurociencia completa.
Ética penal
En la teoría penal y la filosofía del castigo, la parsimonia se refiere específicamente a tener cuidado en la distribución del castigo para evitar el castigo excesivo. En el enfoque utilitarista de la filosofía del castigo, el 'principio de parsimonia' de Jeremy Bentham; establece que es injusta toda pena superior a la necesaria para lograr su fin. El concepto está relacionado pero no es idéntico al concepto legal de proporcionalidad. La parsimonia es una consideración clave de la justicia restaurativa moderna y es un componente de los enfoques utilitarios del castigo, así como del movimiento de abolición de las prisiones. Bentham creía que la verdadera parsimonia requeriría que el castigo se individualizara para tener en cuenta la sensibilidad del individuo: un individuo más sensible al castigo debería recibir uno proporcionalmente menor, ya que de lo contrario se infligiría un dolor innecesario. Escritores utilitaristas posteriores han tendido a abandonar esta idea, en gran parte debido a la impracticabilidad de determinar la sensibilidad relativa de cada presunto criminal a castigos específicos.
Teoría de la probabilidad y estadística
La inteligencia artificial universal de Marcus Hutter se basa en la formalización matemática de la navaja de afeitar de Solomonoff para calcular el valor esperado de una acción.
Hay varios artículos en revistas académicas que derivan versiones formales de la navaja de Occam de la teoría de la probabilidad, aplicándola en la inferencia estadística y usándola para generar criterios para penalizar la complejidad en la inferencia estadística. Los artículos han sugerido una conexión entre la navaja de afeitar de Occam y la complejidad de Kolmogorov.
Uno de los problemas con la formulación original de la navaja es que solo se aplica a modelos con el mismo poder explicativo (es decir, solo nos dice que prefiramos el más simple de los modelos igualmente buenos). Una forma más general de la navaja se puede derivar de la comparación de modelos bayesianos, que se basa en los factores de Bayes y se puede usar para comparar modelos que no se ajustan igualmente bien a las observaciones. Estos métodos a veces pueden equilibrar de manera óptima la complejidad y el poder de un modelo. En general, el factor de Occam exacto es intratable, pero se utilizan aproximaciones como el criterio de información de Akaike, el criterio de información bayesiano, los métodos bayesianos variacionales, la tasa de descubrimiento falso y el método de Laplace. Muchos investigadores de inteligencia artificial ahora están empleando tales técnicas, por ejemplo, a través del trabajo en Occam Learning o, de manera más general, en el principio de energía libre.
Las versiones estadísticas de la navaja de Occam tienen una formulación más rigurosa que la que producen las discusiones filosóficas. En particular, deben tener una definición específica del término simplicidad, y esa definición puede variar. Por ejemplo, en el enfoque de longitud de descripción mínima de Kolmogorov-Chaitin, el sujeto debe elegir una máquina de Turing cuyas operaciones describan las operaciones básicas que se cree que representan "simplicidad" por el sujeto Sin embargo, siempre se puede elegir una máquina de Turing con una operación simple que resultó construir toda la teoría y, por lo tanto, obtendría una puntuación alta bajo la navaja. Esto ha llevado a dos campos opuestos: uno que cree que la navaja de Occam es objetiva y otro que cree que es subjetivo.
Objetivo de afeitar
El conjunto mínimo de instrucciones de una máquina de Turing universal requiere aproximadamente la misma longitud de descripción en diferentes formulaciones y es pequeño en comparación con la complejidad de Kolmogorov de la mayoría de las teorías prácticas. Marcus Hutter ha usado esta consistencia para definir un "natural" Máquina de Turing de pequeño tamaño como base adecuada para excluir conjuntos de instrucciones arbitrariamente complejos en la formulación de maquinillas de afeitar. Al describir el programa para el programa universal como la "hipótesis", y la representación de la evidencia como datos del programa, se ha probado formalmente bajo la teoría de conjuntos de Zermelo-Fraenkel que "la suma del log universal se debe minimizar la probabilidad del modelo más el logaritmo de la probabilidad de los datos dado el modelo." Interpretar esto como minimizar la longitud total de un modelo de codificación de mensaje de dos partes seguido de un modelo de datos dados nos da el principio de longitud mínima de mensaje (MML).
Una posible conclusión de mezclar los conceptos de la complejidad de Kolmogorov y la navaja de Occam es que un compresor de datos ideal también sería un generador de explicaciones/formulaciones científicas. Se han hecho algunos intentos para volver a derivar leyes conocidas a partir de consideraciones de simplicidad o compresibilidad.
Según Jürgen Schmidhuber, la teoría matemática apropiada de la navaja de Occam ya existe, es decir, la teoría de la inferencia inductiva óptima de Solomonoff y sus extensiones. Véanse las discusiones en el 'Prólogo sobre C. S. Wallace' de David L. Dowe. para las distinciones sutiles entre el trabajo de probabilidad algorítmica de Solomonoff y el trabajo de MML de Chris Wallace, y vea 'MML, modelos gráficos híbridos de red bayesiana, consistencia estadística, invariancia y unicidad' de Dowe. tanto para tales discusiones como para (en la sección 4) discusiones sobre MML y la navaja de Occam. Para ver un ejemplo específico de MML como la navaja de Occam en el problema de la inducción del árbol de decisiones, consulte "Message Length as an Effective Ockham's Razor in Decision Tree Induction" de Dowe y Needham.;.
Desarrollo de software
En el desarrollo de software, la regla de menor poder argumenta que el lenguaje de programación correcto a usar es el que es más simple y al mismo tiempo resuelve el problema de software objetivo. En esa forma, la regla a menudo se acredita a Tim Berners-Lee, ya que apareció en sus pautas de diseño para el Protocolo de transferencia de hipertexto original. La complejidad en este contexto se mide colocando un idioma en la jerarquía de Chomsky o enumerando las características idiomáticas del idioma y comparándolo de acuerdo con una escala acordada de dificultades entre idiomas. Muchos idiomas que alguna vez se pensó que eran de menor complejidad han evolucionado o más tarde se descubrió que eran más complejos de lo que se pretendía originalmente; entonces, en la práctica, esta regla se aplica a la relativa facilidad de un programador para obtener el poder del lenguaje, en lugar de los límites teóricos precisos del lenguaje.
Aspectos controvertidos
La navaja de Occam no es un embargo contra la postulación de cualquier tipo de entidad, o una recomendación de la teoría más simple pase lo que pase. La navaja de Occam se utiliza para adjudicar entre teorías que ya han pasado el 'escrutinio teórico'. pruebas y están igualmente bien respaldados por evidencia. Además, puede usarse para priorizar la prueba empírica entre dos hipótesis igualmente plausibles pero desigualmente comprobables; minimizando así los costos y los desperdicios al tiempo que aumenta las posibilidades de falsificación de la hipótesis más simple de probar.
Otro aspecto polémico de la navaja es que una teoría puede volverse más compleja en términos de su estructura (o sintaxis), mientras que su ontología (o semántica) se vuelve más simple, o viceversa. Quine, en una discusión sobre la definición, se refirió a estas dos perspectivas como "economía de la expresión práctica" y "economía en gramática y vocabulario", respectivamente.
Galileo Galilei satirizó el mal uso de la navaja de Occam en su Diálogo. El principio está representado en el diálogo por Simplicio. El punto revelador que Galileo presentó irónicamente fue que si uno realmente quisiera comenzar con un pequeño número de entidades, siempre podría considerar las letras del alfabeto como las entidades fundamentales, ya que uno podría construir todo el conocimiento humano a partir de ellas.
Anti-afeitadoras
La navaja de afeitar de Occam ha encontrado cierta oposición por parte de personas que la consideran demasiado extrema o temeraria. Walter Chatton (c. 1290–1343) fue un contemporáneo de Guillermo de Ockham que se opuso a Occam& La navaja de afeitar y el uso de Ockham. En respuesta, ideó su propia anti-maquinilla de afeitar: "Si tres cosas no son suficientes para verificar una proposición afirmativa sobre las cosas, se debe agregar una cuarta y así sucesivamente." Aunque ha habido varios filósofos que han formulado anti-afeitadoras similares desde la época de Chatton, ninguna anti-afeitadora se ha perpetuado con tanta notoriedad como la anti-afeitadora de Chatton, aunque este podría ser el caso de la Lema italiano del Renacimiento tardío de atribución desconocida Se non è vero, è ben trovato ("Incluso si no es verdad, está bien concebida") cuando se refiere a una explicación particularmente ingeniosa.
Gottfried Wilhelm Leibniz (1646–1716), Immanuel Kant (1724–1804) y Karl Menger (1902–1985) también crearon antiafeitadoras. La versión de Leibniz tomó la forma de un principio de plenitud, como lo ha llamado Arthur Lovejoy: la idea es que Dios creó el más variado y populoso de los mundos posibles. Kant sintió la necesidad de moderar los efectos de la navaja de Occam y, por lo tanto, creó su propia contra-navaja: "La variedad de los seres no debe disminuir precipitadamente".
Karl Menger descubrió que los matemáticos eran demasiado parsimoniosos con respecto a las variables, por lo que formuló su Ley contra la avaricia, que tomó una de dos formas: "Las entidades no deben reducirse al punto de inadecuación" y "Es vano hacer con menos lo que requiere más". Un anti-maquinilla de afeitar menos serio pero aún más extremista es 'Patafísica, la "ciencia de las soluciones imaginarias" desarrollado por Alfred Jarry (1873-1907). Tal vez lo último en anti-reduccionismo, "'La patafísica busca nada menos que ver cada evento en el universo como completamente único, sujeto a ninguna ley más que a las suyas propias." Posteriormente, el escritor argentino Jorge Luis Borges exploró variaciones sobre este tema en su cuento/ensayo simulado "Tlön, Uqbar, Orbis Tertius". El físico R. V. Jones ideó el Bludgeon de Crabtree, que establece que "[n]ingún conjunto de observaciones incompatibles entre sí puede existir para el cual algún intelecto humano no pueda concebir una explicación coherente, por complicada que sea".
Contenido relacionado
Pierre bourdieu
David Gauthier
Platonismo en la filosofía islámica