IA completa

ImprimirCitar
Termo descrevendo problemas difíceis em IA

No campo da inteligência artificial, os problemas mais difíceis são informalmente conhecidos como AI-complete ou AI-hard, o que implica que a dificuldade desses problemas computacionais, assumindo a inteligência é computacional, é equivalente a resolver o problema central da inteligência artificial – tornar os computadores tão inteligentes quanto as pessoas, ou IA forte. Chamar um problema de AI-completo reflete uma atitude de que ele não seria resolvido por um simples algoritmo específico.

Problemas completos de IA têm como hipótese incluir visão computacional, compreensão de linguagem natural e lidar com circunstâncias inesperadas ao resolver qualquer problema do mundo real.

Atualmente, problemas completos de IA não podem ser resolvidos apenas com tecnologia de computador moderna, mas também exigiriam computação humana. Essa propriedade pode ser útil, por exemplo, para testar a presença de humanos como os CAPTCHAs pretendem fazer e para a segurança do computador contornar ataques de força bruta.

História

O termo foi cunhado por Fanya Montalvo por analogia com NP-completo e NP-difícil na teoria da complexidade, que descreve formalmente a mais famosa classe de problemas difíceis. Os primeiros usos do termo estão na dissertação de doutorado de Erik Mueller em 1987 e no Jargon File de Eric Raymond em 1991.

Problemas completos de IA

Problemas completos de IA são hipotetizados para incluir:

  • AI peer review (composite natural language understanding, raciocínio automatizado, teorema automatizado provando, sistema de perito lógico formalizado)
  • Problemas de Bongard
  • Visão de computador (e subproblemas como reconhecimento de objetos)
  • Compreensão de linguagem natural (e subproblemas como mineração de texto, tradução automática e desambiguação de palavras)
  • condução autónoma
  • Lidar com circunstâncias inesperadas ao resolver qualquer problema do mundo real, seja navegação ou planejamento ou mesmo o tipo de raciocínio feito por sistemas de especialistas.

Tradução automática

Para traduzir com precisão, uma máquina deve ser capaz de entender o texto. Deve ser capaz de seguir o argumento do autor, portanto deve ter alguma capacidade de raciocinar. Deve ter amplo conhecimento do mundo para saber o que está sendo discutido - deve pelo menos estar familiarizado com todos os mesmos fatos de senso comum que o tradutor humano médio conhece. Parte desse conhecimento está na forma de fatos que podem ser explicitamente representados, mas parte do conhecimento é inconsciente e intimamente ligada ao corpo humano: por exemplo, a máquina pode precisar entender como um oceano faz alguém sentir para traduzir com precisão uma metáfora específica no texto. Ele também deve modelar a identidade dos autores. objetivos, intenções e estados emocionais para reproduzi-los com precisão em um novo idioma. Resumindo, a máquina precisa ter uma ampla variedade de habilidades intelectuais humanas, incluindo razão, conhecimento de senso comum e as intuições subjacentes ao movimento e manipulação, percepção e inteligência social. Acredita-se, portanto, que a tradução automática seja completa em IA: pode exigir que uma IA forte seja feita tão bem quanto os humanos.

Fragilidade do software

Os sistemas de IA atuais podem resolver versões muito simples e/ou restritas de problemas completos de IA, mas nunca em sua generalidade total. Quando os pesquisadores de IA tentam "aumentar a escala" seus sistemas para lidar com situações mais complicadas do mundo real, os programas tendem a se tornar excessivamente frágeis sem conhecimento de bom senso ou uma compreensão rudimentar da situação: eles falham quando circunstâncias inesperadas fora de seu contexto de problema original começam a aparecer. Quando os seres humanos estão lidando com novas situações no mundo, eles são imensamente ajudados pelo fato de saberem o que esperar: eles sabem o que são todas as coisas ao seu redor, por que estão lá, o que provavelmente farão e assim por diante. Eles podem reconhecer situações incomuns e se ajustar de acordo. Uma máquina sem IA forte não tem outras habilidades para recorrer.

A DeepMind publicou um trabalho em maio de 2022 em que treinou um único modelo para fazer várias coisas ao mesmo tempo. O modelo, chamado Gato, pode “jogar Atari, legendar imagens, bater papo, empilhar blocos com um braço de robô real e muito mais, decidindo com base em seu contexto se deve produzir texto, torques nas articulações, pressionamentos de botão ou outros tokens. "

Formalização

A teoria da complexidade computacional lida com a relativa dificuldade computacional de funções computáveis. Por definição, não abrange problemas cuja solução é desconhecida ou não foi caracterizada formalmente. Como muitos problemas de IA ainda não têm formalização, a teoria da complexidade convencional não permite a definição de IA-completude.

Para resolver esse problema, uma teoria de complexidade para IA foi proposta. É baseado em um modelo de computação que divide a carga computacional entre um computador e um humano: uma parte é resolvida pelo computador e a outra parte resolvida pelo humano. Isso é formalizado por uma máquina de Turing assistida por humanos. A formalização define a complexidade do algoritmo, a complexidade do problema e a redutibilidade que, por sua vez, permite definir as classes de equivalência.

A complexidade de executar um algoritmo com uma máquina de Turing assistida pelo ser humano é dada por um par ⟨ ⟨ Φ Φ H. H. H.,Φ Φ M)) {displaystyle langle Phi _{H},Phi _{M}rangle }, onde o primeiro elemento representa a complexidade da parte humana e o segundo elemento é a complexidade da parte da máquina.

Resultados

A complexidade de resolver os seguintes problemas com uma máquina de Turing assistida por humanos é:

  • Reconhecimento de caráter óptico para texto impresso: ⟨ ⟨ O(1),poEu...Sim.(n))) {displaystyle langle O(1),poly(n)rangle }
  • Teste de Turing:
    • para um nNão.-sentence conversa onde o oráculo lembra o histórico de conversas (oráculo persistente): ⟨ ⟨ O(n),O(n))) {displaystyle langle O(n),O(n)rangle }
    • para um nNão.-sentence conversa onde o histórico de conversas deve ser retransmitido: ⟨ ⟨ O(n),O(n2))) {displaystyle langle O(n),O(n^{2})rangle }
    • para um nNão.-sentence conversa onde o histórico da conversa deve ser retransmitido e a pessoa leva tempo linear para ler a consulta: ⟨ ⟨ O(n2),O(n2))) {displaystyle langle O(n^{2}),O(n^{2})rangle }
  • Jogo de ESP: ⟨ ⟨ O(n),O(n))) {displaystyle langle O(n),O(n)rangle }
  • Rotulagem de imagem (baseada no protocolo Arthur-Merlin): ⟨ ⟨ O(n),O(n))) {displaystyle langle O(n),O(n)rangle }
  • Classificação de imagem: apenas humano: ⟨ ⟨ O(n),O(n))) {displaystyle langle O(n),O(n)rangle }, e com menos confiança no humano: ⟨ ⟨ O(log⁡ ⁡ n),O(nlog⁡ ⁡ n))) {displaystyle langle O(log n),O(nlog n)rangle }.

Contenido relacionado

Gerenciamento avançado de energia

Advanced power management é uma API desenvolvida pela Intel e pela Microsoft e lançada em 1992 que permite que um sistema operacional executando um...

MP3

MP3 é um formato de codificação para áudio digital desenvolvido amplamente pela Fraunhofer Society na Alemanha sob a liderança de Karlheinz Brandenburg...

Coleção de Compiladores GNU

A GNU Compiler Collection é um compilador otimizador produzido pelo Projeto GNU que suporta várias linguagens de programação, arquiteturas de hardware e...
Más resultados...
Tamaño del texto:
Copiar