AI-completa

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Term describing difficult problems in AI

En el campo de la inteligencia artificial, los problemas más difíciles se conocen informalmente como AI-completa o AI-hard, lo que implica que la dificultad de estos problemas computacionales, asumiendo la inteligencia es computacional, es equivalente a resolver el problema central de la inteligencia artificial: hacer que las computadoras sean tan inteligentes como las personas, o una IA fuerte. Llamar a un problema AI-completo refleja una actitud de que no sería resuelto por un algoritmo específico simple.

Se supone que los problemas completos de IA incluyen visión por computadora, comprensión del lenguaje natural y manejo de circunstancias inesperadas mientras se resuelve cualquier problema del mundo real.

Actualmente, los problemas completos de IA no se pueden resolver solo con la tecnología informática moderna, sino que también requerirían computación humana. Esta propiedad podría ser útil, por ejemplo, para probar la presencia de humanos como pretenden hacer los CAPTCHA, y para la seguridad informática para eludir los ataques de fuerza bruta.

Historia

El término fue acuñado por Fanya Montalvo por analogía con NP-completo y NP-difícil en la teoría de la complejidad, que describe formalmente la clase más famosa de problemas difíciles. Los primeros usos del término se encuentran en la tesis doctoral de Erik Mueller de 1987 y en el Jargon File de Eric Raymond de 1991.

IA-problemas completos

Se supone que los problemas completos de IA incluyen:

  • Examen de pares de inteligencia (composite comprensión del lenguaje natural, razonamiento automatizado, prueba de teorema automatizada, sistema de expertos lógicos formalizados)
  • Problemas de Bongard
  • Visión informática (y subproblemas como el reconocimiento de objetos)
  • Comprensión del lenguaje natural (y subproblemas como la extracción de texto, la traducción automática y la desambiguación de sentido de palabra)
  • Conducta autónoma
  • Tratar con circunstancias inesperadas mientras resuelve cualquier problema del mundo real, ya sea navegación o planificación o incluso el tipo de razonamiento hecho por sistemas de expertos.

Traducción automática

Para traducir con precisión, una máquina debe ser capaz de comprender el texto. Debe ser capaz de seguir el argumento del autor, por lo que debe tener cierta capacidad de razonamiento. Debe tener un amplio conocimiento del mundo para que sepa lo que se está discutiendo; al menos debe estar familiarizado con los mismos hechos de sentido común que conoce el traductor humano promedio. Parte de este conocimiento está en forma de hechos que se pueden representar explícitamente, pero parte del conocimiento es inconsciente y está estrechamente relacionado con el cuerpo humano: por ejemplo, la máquina puede necesitar entender cómo un océano hace que uno sienta traducir con precisión una metáfora específica en el texto. También debe modelar los autores' objetivos, intenciones y estados emocionales para reproducirlos con precisión en un nuevo idioma. En resumen, se requiere que la máquina tenga una amplia variedad de habilidades intelectuales humanas, incluida la razón, el conocimiento del sentido común y las intuiciones que subyacen al movimiento y la manipulación, la percepción y la inteligencia social. Por lo tanto, se cree que la traducción automática es completa con IA: puede requerir que se realice una IA fuerte tan bien como los humanos pueden hacerlo.

Fragilidad del software

Los sistemas de IA actuales pueden resolver versiones muy simples y/o restringidas de problemas completos de IA, pero nunca en toda su generalidad. Cuando los investigadores de IA intentan "ampliar" sus sistemas para manejar situaciones más complicadas del mundo real, los programas tienden a volverse excesivamente frágiles sin el conocimiento del sentido común o una comprensión rudimentaria de la situación: fallan cuando comienzan a aparecer circunstancias inesperadas fuera del contexto del problema original. Cuando los seres humanos se enfrentan a nuevas situaciones en el mundo, les ayuda enormemente el hecho de que saben qué esperar: saben qué son todas las cosas que les rodean, por qué están allí, qué es probable que hagan, etc. Pueden reconocer situaciones inusuales y adaptarse en consecuencia. Una máquina sin una IA fuerte no tiene otras habilidades a las que recurrir.

DeepMind publicó un trabajo en mayo de 2022 en el que entrenaban a un solo modelo para hacer varias cosas al mismo tiempo. El modelo, llamado Gato, puede jugar a Atari, subtitular imágenes, chatear, apilar bloques con un brazo robótico real y mucho más, decidiendo en función de su contexto si desea generar texto, torsión conjunta, pulsaciones de botones u otras fichas.."

Formalización

La teoría de la complejidad computacional se ocupa de la dificultad computacional relativa de las funciones computables. Por definición, no cubre problemas cuya solución se desconoce o no ha sido caracterizada formalmente. Dado que muchos problemas de IA aún no tienen formalización, la teoría de la complejidad convencional no permite la definición de la integridad de la IA.

Para abordar este problema, se ha propuesto una teoría de la complejidad para la IA. Se basa en un modelo de computación que divide la carga computacional entre una computadora y un humano: una parte la resuelve la computadora y la otra la resuelve el humano. Esto se formaliza mediante una máquina de Turing asistida por humanos. La formalización define la complejidad del algoritmo, la complejidad del problema y la reducibilidad, lo que a su vez permite definir las clases de equivalencia.

La complejidad de ejecutar un algoritmo con una máquina de Turing con ayuda humana es dada por un par .. CCPR CCPR H,CCPR CCPR M.. {displaystyle langle Phi _{H},Phi _{M}rangle }, donde el primer elemento representa la complejidad de la parte humana y el segundo elemento es la complejidad de la parte de la máquina.

Resultados

La complejidad de resolver los siguientes problemas con una máquina de Turing asistida por humanos es:

  • Reconocimiento óptico de caracteres para texto impreso: .. O()1),polSí.()n).. {displaystyle langle O(1),poly(n)rangle }
  • Prueba de Turing:
    • para una n{displaystyle n}-conversación de sentido donde el oráculo recuerda la historia de la conversación (oráculo persistente): .. O()n),O()n).. {displaystyle langle O(n),O(n)rangle }
    • para una n{displaystyle n}-Conversación de insentencia donde la historia de la conversación debe ser retransmitida: .. O()n),O()n2).. {displaystyle langle O(n),O(n^{2}rangle }
    • para una n{displaystyle n}-conversación de sentido donde la historia de la conversación debe ser retransmitida y la persona toma tiempo lineal para leer la consulta: .. O()n2),O()n2).. {displaystyle langle O(n^{2}),O(n^{2})rangle }
  • ESP juego: .. O()n),O()n).. {displaystyle langle O(n),O(n)rangle }
  • Etiquetas de imagen (basado en el protocolo Arthur-Merlin): .. O()n),O()n).. {displaystyle langle O(n),O(n)rangle }
  • Clasificación de imágenes: humano solamente: .. O()n),O()n).. {displaystyle langle O(n),O(n)rangle }, y con menos confianza en el humano: .. O()log⁡ ⁡ n),O()nlog⁡ ⁡ n).. {displaystyle langle O(log n),O(nlog n)rangle }.

Contenido relacionado

Administrador de archivos

Clase (programación informática)

Conjunto de datos

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save