La falacia del jugador inverso
La falacia del jugador inverso, nombrada por el filósofo Ian Hacking, es una falacia formal de inferencia bayesiana que es inversa a la falacia del jugador más conocida. Es la falacia de concluir, sobre la base de un resultado improbable de un proceso aleatorio, que es probable que el proceso haya ocurrido muchas veces antes. Por ejemplo, si uno observa que se lanzan un par de dados y se obtienen dobles seises, es erróneo suponer que esto respalda la hipótesis de que los dados se han lanzado muchas veces antes. Podemos ver esto a partir de la regla de actualización bayesiana: si U denota el resultado improbable del proceso aleatorio y M la proposición de que el proceso ha ocurrido muchas veces antes, tenemos
- P()MSilencioU)=P()M)P()USilencioM)P()U){displaystyle P(M habitU)=P(M){frac {P(U habitM)}{P(U)}}
y desde P(U|M) = P(U) (el resultado del proceso no se ve afectado por ocurrencias anteriores), se sigue que P(M|U) = P(M); es decir, nuestra confianza en M no debería cambiar cuando aprendemos U.
Ejemplos del mundo real
La falacia del jugador inverso es, sin duda, una falacia, pero existe desacuerdo sobre si se ha cometido en la práctica y dónde. En su artículo original, Hacking toma como principal ejemplo una cierta respuesta al argumento del diseño. El argumento del diseño afirma, en primer lugar, que el universo está afinado para albergar vida y, en segundo lugar, que este afinado apunta a la existencia de un diseñador inteligente. La refutación atacada por Hacking consiste en aceptar la primera premisa, pero rechazando la segunda sobre la base de que nuestro universo (big bang) es solo uno en una larga secuencia de universos, y que el ajuste fino simplemente muestra que ha habido muchos otros universos (mal sintonizados) que precedieron a este. Hacking establece una clara distinción entre este argumento y el argumento de que todos los mundos posibles coexisten en algún sentido no temporal. Propone que estos argumentos, a menudo tratados como variaciones menores entre sí, deben considerarse fundamentalmente diferentes porque uno es formalmente inválido mientras que el otro no lo es.
Un artículo de refutación de John Leslie señala una diferencia entre la observación del doble seis y la observación del ajuste fino, a saber, que el primero no es necesario (el rollo podría haber salido diferente) mientras que el último es necesario (nuestro universo debe sustentar la vida, lo que significa ex hypothesi que debemos ver un ajuste fino). Sugiere la siguiente analogía: en lugar de ser convocados a una habitación para observar una tirada particular de dados, se nos dice que seremos convocados a la habitación inmediatamente después de una tirada de seises dobles. En esta situación, puede ser bastante razonable, al ser convocado, concluir con mucha confianza que no estamos viendo el primer rollo. En particular, si sabemos que los dados son justos y que el lanzamiento no se habría detenido antes de que aparecieran los seises dobles, entonces la probabilidad de que estemos viendo el primer lanzamiento es como mucho 1/36. Sin embargo, la probabilidad será 1 si el rodillo tiene control sobre el resultado utilizando la omnipotencia y la omnisciencia que los creyentes atribuyen al creador. Pero si el rodillo no tiene tales poderes, la probabilidad puede ser incluso inferior a 1/36 porque no hemos supuesto que el rodillo esté obligado a convocarnos la primera vez que salgan seises dobles.
En 2009, Daniel M. Oppenheimer y Benoît Monin publicaron pruebas empíricas de la falacia del jugador inverso (la llamaron falacia del jugador retrospectivo). Descubrieron que las personas creen que había ocurrido una secuencia más larga de eventos aleatorios (por ejemplo, lanzamiento de una moneda, lanzamiento de dados) antes de un evento percibido como no representativo de la aleatoriedad del proceso de generación (una racha de cara o cruz, doble seis) que representativo. eventos. Esta falacia se extiende a más eventos de la vida real, como quedar embarazada, hacerse un hoyo en uno, etc.
Contenido relacionado
Método de Ramsey-Lewis
Multiplicación de matrices
Michael Atiyah