Agente inteligente
En inteligencia e inteligencia artificial, una agente inteligente ()IA) es un agente que actúa de manera inteligente; Percibe su entorno, toma acciones autónomamente para alcanzar metas, y puede mejorar su rendimiento con el aprendizaje o la adquisición de conocimientos. Un agente inteligente puede ser simple o complejo: Un termostato u otro sistema de control se considera un ejemplo de un agente inteligente, como es un ser humano, como cualquier sistema que cumple la definición, como una firma, un estado o un biome.

Los principales libros de texto sobre IA definen la "inteligencia artificial" como el "estudio y diseño de agentes inteligentes", definición que considera el comportamiento dirigido a objetivos como la esencia de la inteligencia. Los agentes dirigidos a objetivos también se describen utilizando un término tomado de la economía, "agente racional".
Un agente tiene una "función objetiva" que resume todos los objetivos de la IA. Un agente de este tipo está diseñado para crear y ejecutar cualquier plan que, una vez finalizado, maximice el valor esperado de la función objetivo. Por ejemplo, un agente de aprendizaje por refuerzo tiene una "función de recompensa" eso permite a los programadores moldear el comportamiento deseado del IA, y el comportamiento de un algoritmo evolutivo está moldeado por una "función de aptitud".
Los agentes inteligentes en inteligencia artificial están estrechamente relacionados con los agentes en economía, y las versiones del paradigma del agente inteligente se estudian en la ciencia cognitiva, la ética, la filosofía de la razón práctica, así como en muchos modelos interdisciplinarios sociocognitivos y sociales informáticos. simulaciones.
Los agentes inteligentes a menudo se describen esquemáticamente como un sistema funcional abstracto similar a un programa de computadora. Las descripciones abstractas de agentes inteligentes se denominan agentes inteligentes abstractos (AIA) para distinguirlos de sus implementaciones en el mundo real. Un agente inteligente autónomo está diseñado para funcionar en ausencia de intervención humana. Los agentes inteligentes también están estrechamente relacionados con los agentes de software (un programa informático autónomo que realiza tareas en nombre de los usuarios).
Como definición de inteligencia artificial
Inteligencia artificial: un enfoque moderno define un "agente" como
"Todo lo que se puede ver como percibir su entorno a través de sensores y actuar en ese entorno a través de actuadores"
Define un "agente racional" como:
"Un agente que actúa para maximizar el valor esperado de una medida de rendimiento basada en la experiencia y el conocimiento pasados".
También define el campo de la "investigación en inteligencia artificial" como:
"El estudio y diseño de agentes racionales"
Padgham & Winikoff (2005) coincide en que un agente inteligente está situado en un entorno y responde de manera oportuna (aunque no necesariamente en tiempo real) a los cambios en el entorno. Sin embargo, los agentes inteligentes también deben perseguir objetivos de forma proactiva, de forma flexible y sólida. Los desiderata opcionales incluyen que el agente sea racional y que sea capaz de realizar un análisis de creencia-deseo-intención.
Kaplan y Haenlein definen la inteligencia artificial como "la capacidad de un sistema para interpretar correctamente datos externos, aprender de dichos datos y utilizar esos aprendizajes para lograr objetivos y tareas específicas mediante una adaptación flexible". 34; Esta definición está estrechamente relacionada con la de agente inteligente.
Ventajas
Filosóficamente, esta definición de inteligencia artificial evita varias líneas de crítica. A diferencia del test de Turing, no hace referencia de ninguna manera a la inteligencia humana. Por lo tanto, no hay necesidad de discutir si es "real" o no. versus "simulado" inteligencia (es decir, inteligencia "sintética" vs. "artificial") y no indica que dicha máquina tenga mente, conciencia o comprensión verdadera (es decir, no implica que John Searle' ;la "hipótesis fuerte de la IA"). Tampoco intenta trazar una línea divisoria clara entre comportamientos que son "inteligentes" y comportamientos “poco inteligentes”: los programas sólo necesitan medirse en términos de su función objetivo.
Más importante aún, tiene una serie de ventajas prácticas que han ayudado a hacer avanzar la investigación de la IA. Proporciona una manera confiable y científica de probar programas; Los investigadores pueden comparar directamente o incluso combinar diferentes enfoques para problemas aislados, preguntándose qué agente es mejor para maximizar una “función objetivo” determinada. También les proporciona un lenguaje común para comunicarse con otros campos, como la optimización matemática (que se define en términos de "metas") o la economía (que utiliza la misma definición de "agente racional"). 34;).
Función objetivo
Un agente al que se le asigna una "función objetivo" Se considera más inteligente si toma consistentemente acciones que maximicen con éxito su función objetivo programada. El objetivo puede ser simple ("1 si el AI gana un juego de Go, 0 en caso contrario") o complejo ("realizar acciones matemáticamente similares a las que tuvieron éxito en el pasado"). La "función objetivo" resume todos los objetivos sobre los que el agente se ve obligado a actuar; en el caso de agentes racionales, la función también resume las compensaciones aceptables entre el logro de objetivos en conflicto. (La terminología varía; por ejemplo, algunos agentes buscan maximizar o minimizar una “función de utilidad”, una “función objetivo” o una “función de pérdida”.)
Los objetivos se pueden definir o inducir explícitamente. Si la IA está programada para "aprendizaje por refuerzo", tiene una "función de recompensa" que fomenta algunos tipos de comportamiento y castiga otros. Alternativamente, un sistema evolutivo puede inducir metas mediante el uso de una "función de aptitud" para lograr objetivos. para mutar y replicar preferentemente sistemas de IA de alta puntuación, de forma similar a cómo los animales evolucionaron para desear de forma innata ciertos objetivos, como encontrar comida. A algunos sistemas de IA, como el vecino más cercano, en lugar de razonar por analogía, a estos sistemas generalmente no se les asignan objetivos, excepto en la medida en que los objetivos estén implícitos en sus datos de entrenamiento. Estos sistemas todavía pueden ser evaluados si el sistema sin objetivos se encuadra como un sistema cuyo "objetivo" es cumplir su estrecha tarea de clasificación.
Los sistemas que tradicionalmente no se consideran agentes, como los sistemas de representación del conocimiento, a veces se incluyen en el paradigma enmarcándolos como agentes que tienen el objetivo de (por ejemplo) responder preguntas con la mayor precisión posible; el concepto de "acción" se amplía aquí para abarcar el "acto" de dar una respuesta a una pregunta. Como extensión adicional, los sistemas impulsados por el mimetismo pueden enmarcarse como agentes que optimizan una “función objetivo” de un sistema. basado en qué tan cerca la IA logra imitar el comportamiento deseado. En las redes generativas adversarias de la década de 2010, un "codificador"/"generador" El componente intenta imitar e improvisar la composición de texto humano. El generador intenta maximizar una función que encapsula qué tan bien puede engañar a un "predictor"/"discriminador" componente.
Si bien los sistemas simbólicos de IA a menudo aceptan una función objetivo explícita, el paradigma también se puede aplicar a las redes neuronales y a la computación evolutiva. El aprendizaje por refuerzo puede generar agentes inteligentes que parecen actuar de manera destinada a maximizar una "función de recompensa". A veces, en lugar de configurar la función de recompensa para que sea directamente igual a la función de evaluación de referencia deseada, los programadores de aprendizaje automático utilizarán la configuración de recompensa para otorgar inicialmente a la máquina recompensas por el progreso incremental en el aprendizaje. Yann LeCun afirmó en 2018 que "la mayoría de los algoritmos de aprendizaje que se le han ocurrido a la gente consisten esencialmente en minimizar alguna función objetivo". El ajedrez AlphaZero tenía una función objetivo simple; cada victoria cuenta como +1 punto y cada derrota cuenta como -1 punto. Una función objetivo para un vehículo autónomo tendría que ser más complicada. La computación evolutiva puede desarrollar agentes inteligentes que parecen actuar de maneras destinadas a maximizar una “función de aptitud”; eso influye en cuántos descendientes puede dejar cada agente.
El diseño teórico e incomputable de AIXI es un agente de máxima inteligencia en este paradigma; sin embargo, en el mundo real, la IA está limitada por un tiempo y recursos de hardware finitos, y los científicos compiten para producir algoritmos que puedan alcanzar puntuaciones progresivamente más altas en pruebas comparativas con hardware del mundo real.
Clases de agentes inteligentes
Clasificación de Russell y Norvig
Russell & Norvig (2003) agrupa a los agentes en cinco clases según su grado de inteligencia y capacidad percibidas:
Agentes reflejos simples

Los agentes reflejos simples actúan sólo sobre la base de la percepción actual, ignorando el resto de la historia de la percepción. La función del agente se basa en la regla condición-acción: "si condición, entonces acción".
Esta función de agente solo tiene éxito cuando el entorno es completamente observable. Algunos agentes reflejos también pueden contener información sobre su estado actual, lo que les permite ignorar las condiciones cuyos actuadores ya están activados.
Los bucles infinitos son a menudo inevitables para agentes reflejos simples que operan en entornos parcialmente observables. Si el agente puede aleatorizar sus acciones, es posible escapar de bucles infinitos.
Agentes reflejos basados en modelos

Un agente basado en modelos puede manejar entornos parcialmente observables. Su estado actual se almacena dentro del agente manteniendo algún tipo de estructura que describe la parte del mundo que no se puede ver. Este conocimiento sobre "cómo funciona el mundo" se llama modelo del mundo, de ahí el nombre de "agente basado en modelos".
Un agente reflejo basado en modelos debe mantener algún tipo de modelo interno que dependa de la historia de la percepción y, por lo tanto, refleje al menos algunos de los aspectos no observados del estado actual. La historia de la percepción y el impacto de la acción en el medio ambiente se pueden determinar utilizando el modelo interno. Luego elige una acción de la misma manera que el agente reflejo.
Un agente también puede utilizar modelos para describir y predecir los comportamientos de otros agentes en el entorno.
Agentes basados en objetivos

Los agentes basados en objetivos amplían aún más las capacidades de los agentes basados en modelos mediante el uso de "objetivos" información. La información de objetivos describe situaciones que son deseables. Esto proporciona al agente una forma de elegir entre múltiples posibilidades, seleccionando aquella que alcanza un estado objetivo. La búsqueda y la planificación son los subcampos de la inteligencia artificial dedicados a encontrar secuencias de acción que logren los objetivos del agente.
Agentes basados en servicios públicos

Los agentes basados en los objetivos sólo distinguen entre los estados objetivo y los estados no gubernamentales. También es posible definir una medida de lo deseable que es un estado particular. Esta medida se puede obtener mediante el uso de una función de utilidad que mapea un estado a una medida de la utilidad del estado. Una medida de rendimiento más general debería permitir una comparación de diferentes estados del mundo de acuerdo con lo bien que satisfacían las metas del agente. El término utilidad se puede utilizar para describir cómo "feliz" es el agente.
Un agente racional basado en la utilidad elige la acción que maximiza la utilidad esperada de los resultados de la acción, es decir, lo que el agente espera obtener, en promedio, dadas las probabilidades y utilidades de cada resultado. Un agente basado en la utilidad tiene que modelar y realizar un seguimiento de su entorno, tareas que han implicado una gran cantidad de investigaciones sobre percepción, representación, razonamiento y aprendizaje.
Agentes de aprendizaje

El aprendizaje tiene la ventaja de que permite a los agentes operar inicialmente en entornos desconocidos y volverse más competentes de lo que su conocimiento inicial por sí solo podría permitir. La distinción más importante es entre el "elemento de aprendizaje", que es responsable de realizar mejoras, y el "elemento de desempeño", que es responsable de seleccionar acciones externas.
El elemento de aprendizaje utiliza la retroalimentación del "crítico" depende de cómo le está yendo al agente y determina cómo debe modificarse el elemento de desempeño, o "actor", para tener un mejor desempeño en el futuro. El elemento de actuación es lo que antes hemos considerado el agente completo: capta percepciones y decide acciones.
El último componente del agente de aprendizaje es el "generador de problemas". Es responsable de sugerir acciones que conducirán a experiencias nuevas e informativas.
Clasificación de Weiss
Weiss (2013) define cuatro clases de agentes:
- Agentes basados en lógica – en los que la decisión sobre qué acción realizar se toma a través de la deducción lógica.
- Agentes reactivas – en los que la toma de decisiones se implementa en alguna forma de mapeo directo de la situación a la acción.
- Agentes de la intención de la creencia – en los que la toma de decisiones depende de la manipulación de estructuras de datos que representen las creencias, deseos e intenciones del agente; y finalmente,
- Arquitecturas capas – en las que se realiza la toma de decisiones a través de varias capas de software, cada una de las cuales es más o menos explícitamente razonando sobre el medio ambiente en diferentes niveles de abstracción.
Otro
En 2013, Alexander Wissner-Gross publicó una teoría relacionada con la libertad y la inteligencia para agentes inteligentes.
Jerarquías de agentes
Para desempeñar activamente sus funciones, los Agentes Inteligentes hoy en día normalmente se reúnen en una estructura jerárquica que contiene muchos "subagentes". Los subagentes inteligentes procesan y realizan funciones de nivel inferior. En conjunto, el agente inteligente y los subagentes crean un sistema completo que puede lograr tareas u objetivos difíciles con comportamientos y respuestas que muestran una forma de inteligencia.
Generalmente, se puede construir un agente separando el cuerpo en sensores y actuadores, de modo que opere con un sistema de percepción complejo que toma la descripción del mundo como entrada para un controlador y envía comandos al actuador. Sin embargo, a menudo es necesaria una jerarquía de capas de controlador para equilibrar la reacción inmediata deseada para tareas de bajo nivel y el razonamiento lento sobre objetivos complejos de alto nivel.
Función de agente
Un programa de agente simple se puede definir matemáticamente como una función f (llamada "función de agente") que asigna cada secuencia de percepciones posible a una posible acción que el agente puede realizar o a un coeficiente, elemento de retroalimentación, función o constante que afecta acciones eventuales:
La función de agente es un concepto abstracto, ya que podría incorporar varios principios de toma de decisiones como el cálculo de la utilidad de opciones individuales, la deducción sobre reglas lógicas, la lógica difusa, etc.
El agente del programa, en cambio, asigna cada percepción posible a una acción.
Utilizamos el término percepción para referirnos a los inputs percepcionales del agente en un instante dado. En las siguientes figuras, un agente es cualquier cosa que pueda considerarse que percibe su entorno a través de sensores y actúa sobre ese entorno a través de actuadores.
Aplicaciones
Hallerbach et al. discutió la aplicación de enfoques basados en agentes para el desarrollo y validación de sistemas de conducción automatizados a través de un gemelo digital del vehículo bajo prueba y una simulación microscópica del tráfico basada en agentes independientes. Waymo ha creado el entorno de simulación multiagente Carcraft para probar algoritmos para vehículos autónomos. Simula las interacciones de tráfico entre conductores humanos, peatones y vehículos automatizados. El comportamiento de las personas es imitado por agentes artificiales basados en datos del comportamiento humano real. La idea básica de utilizar modelos basados en agentes para comprender los vehículos autónomos se discutió ya en 2003.
Definiciones y usos alternativos
"Agente inteligente" También se utiliza a menudo como un término de marketing vago, a veces sinónimo de "asistente personal virtual". Algunas definiciones del siglo XX caracterizan a un agente como un programa que ayuda a un usuario o que actúa en nombre de un usuario. Estos ejemplos se conocen como agentes de software y, a veces, un "agente de software inteligente" (es decir, un agente de software con inteligencia) se denomina "agente inteligente".
Según Nikola Kasabov, los sistemas IA deben presentar las siguientes características:
- Acommodate nuevo problema solución incremental reglas
- Adaptarse en línea y en tiempo real
- Son capaces de analizarse en términos de comportamiento, error y éxito.
- Aprender y mejorar mediante la interacción con el medio ambiente (embodiment)
- Aprende rápidamente de grandes cantidades de datos
- Tener capacidad de almacenamiento ejemplar basado en la memoria y recuperación
- Tenga parámetros para representar memoria a corto y largo plazo, edad, olvido, etc.
Referencias en línea
- ^ a b Russell & Norvig 2003, cap. 2.
- ^ a b c d Bringsjord, Selmer; Govindarajulu, Naveen Sundar (12 de julio de 2018). "Inteligencia Artificial". En Edward N. Zalta (ed.). The Stanford Encyclopedia of Philosophy (Summer 2020 Edition).
- ^ Wolchover, Natalie (30 enero 2020). "La inteligencia artificial hará lo que pedimos. Eso es un problema". Quanta Magazine. Retrieved 21 de junio 2020.
- ^ a b Bull, Larry (1999). "Sobre la computación evolutiva basada en modelos". Soft Computing. 3 (2): 76–82. doi:10.1007/s005000050055. S2CID 9699920.
- ^ Russell & Norvig 2003, págs. 4 a 5, 32, 35, 36 y 56.
- ^ a b c Russell & Norvig (2003)
- ^ Lin Padgham y Michael Winikoff. Desarrollar sistemas de agentes inteligentes: Una guía práctica. Vol. 13. John Wiley ' Sons, 2005.
- ^ Kaplan, Andreas; Haenlein, Michael (1 de enero de 2019). "Siri, Siri, en mi mano: ¿Quién es el más justo de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de Negocios. 62 (1): 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
- ^ Russell & Norvig 2003, pág. 27.
- ^ Domingos 2015, Capítulo 5.
- ^ Domingos 2015, Capítulo 7.
- ^ Lindenbaum, M., Markovitch, S., " Rusakov, D. (2004). Muestra selectiva para clasificadores vecinos más cercanos. Aprendizaje a máquina, 54 2), 125-152.
- ^ "Redes adversivas generadoras: Qué son los GAN y cómo han evolucionado". VentureBeat26 de diciembre de 2019. Retrieved 18 de junio 2020.
- ^ Wolchover, Natalie (enero 2020). "La inteligencia artificial hará lo que pedimos. Eso es un problema". Quanta Magazine. Retrieved 18 de junio 2020.
- ^ Andrew Y. Ng, Daishi Harada y Stuart Russell. "La invariancia de la política bajo transformaciones de recompensas: Teoría y aplicación para recompensar la configuración." In ICML, vol. 99, pp. 278-287. 1999.
- ^ Martin Ford. Arquitectos de Inteligencia: La verdad sobre AI de la gente que lo construye. Packt Publishing Ltd, 2018.
- ^ "Por qué la inteligencia artificial de AlphaZero tiene problemas con el mundo real". Quanta Magazine. 2018. Retrieved 18 de junio 2020.
- ^ Adams, Sam; Arel, Itmar; Bach, Joscha; Coop, Robert; Furlan, Rod; Goertzel, Ben; Hall, J. Storrs; Samsonovich, Alexei; Scheutz, Matthias; Schlesinger, Matthew; Shapiro, Stuart C.; Sowa, John (15 de marzo de 2012). "Mapping the Landscape of Human-Level Artificial General Intelligence". AI Magazine. 33 1): 25. doi:10.1609/aimag.v33i1.2322.
- ^ Hutson, Matthew (27 de mayo de 2020). "Los avances atractivos en algunos campos de IA no son reales". Science confidencialidad AAAS. Retrieved 18 de junio 2020.
- ^ Russell & Norvig 2003, págs. 46 a 54
- ^ Stefano Albrecht y Peter Stone (2018). Agentes autónomos Modelando Otros Agentes: Una Encuesta Integral y Problemas Abiertos. Artificial Intelligence, Vol. 258, págs. 66 a 95. https://doi.org/10.1016/j.artint.2018.01.002
- ^ Box, Geeks fuera del (2019-12-04). "Una fórmula universal para la inteligencia". Geeks fuera de la caja. Retrieved 2022-10-11.
- ^ Wissner-Gross, A. D.; Freer, C. E. (2013-04-19). "Causal Entropic Forces". Cartas de revisión física. 110 (16): 168702. Código:2013 PhRvL.110p8702W. doi:10.1103/PhysRevLett.110.168702. hdl:1721.1/79750. PMID 23679649.
- ^ Poole, David; Mackworth, Alan. "1.3 Agentes Situados en Medios Aprendizaje Capítulo 2 Arquitecturas Agentes y Control Jerárquico Obtén Inteligencia Artificial: Fundaciones de Agentes Computacionales, 2a Edición". artint.info. Retrieved 28 de noviembre 2018.
- ^ Russell & Norvig 2003, pág. 33
- ^ Salamón, Tomas (2011). Diseño de modelos basados en agentes. Repin: Bruckner Publishing. pp. 42–59. ISBN 978-80-904661-1.
- ^ Nilsson, Nils J. (abril de 1996). "La inteligencia artificial: un enfoque moderno". Inteligencia Artificial. 82 (1–2): 369–380. doi:10.1016/0004-3702(96)00007-0. ISSN 0004-3702.
- ^ Hallerbach, S.; Xia, Y.; Eberle, U.; Koester, F. (2018). "Identificación basada en la simulación de escenarios críticos para vehículos cooperativos y automatizados". SAE International Journal of Connected and Automated Vehicles. 1 2). SAE International: 93. doi:10.4271/2018-01-1066.
- ^ Madrigal, historia de Alexis C. "Inside Waymo's Secret World for Training Self-Driving Cars". El Atlántico. Retrieved 14 de agosto 2020.
- ^ Connors, J.; Graham, S.; Mailloux, L. (2018). "Cyber Synthetic Modeling for Vehicle-to-Vehicle Applications". In International Conference on Cyber Warfare and Security. Academic Conferences International Limited: 594-XI.
- ^ Yang, Guoqing; Wu, Zhaohui; Li, Xiumei; Chen, Wei (2003). "SVE: un entorno inteligente basado en un agente integrado". Proceedings of the 2003 IEEE International Conference on Intelligent Transportation Systems. Vol. 2. pp. 1745–1749. doi:10.1109/ITSC.2003.1252782. ISBN 0-7803-8125-4. S2CID 110177067.
- ^ Fingar, Peter (2018). "Competando para el futuro con agentes inteligentes... Y una confesión". Sitios de Forbes. Retrieved 18 de junio 2020.
- ^ Burgin, Mark y Gordana Dodig-Crnkovic. "Un enfoque sistemático de los agentes artificiales". arXiv preprint arXiv:0902.3513 (2009).
- ^ Kasabov 1998.
Otras referencias
- Domingos, Pedro (22 de septiembre de 2015). El algoritmo maestro: cómo la búsqueda de la máquina de aprendizaje final remake nuestro mundo. Libros básicos. ISBN 978-0465065707.
- Russell, Stuart J.; Norvig, Peter (2003). Inteligencia Artificial: Un enfoque moderno (2a edición). Upper Saddle River, New Jersey: Prentice Hall. Chapter 2. ISBN 0-13-790395-2.
- Kasabov, N. (1998). "Introducción: Sistemas de adaptación híbridos inteligentes". International Journal of Intelligent Systems. 13 (6): 453–454. doi:10.1002/(SICI)1098-111X(199806)13:6 obtenidos453:AID-INT1⁄3.0.CO;2-K. S2CID 120318478.
- Weiss, G. (2013). Sistemas multiagent (2a edición). Cambridge, MA: MIT Prensa. ISBN 978-0-262-01889-0.