Eliezer Yudkowski
Eliezer Shlomo Yudkowsky (nacido el 11 de septiembre de 1979) es un investigador y escritor estadounidense sobre teoría de decisiones e inteligencia artificial (IA), mejor conocido por popularizar la idea de una inteligencia artificial amigable. Es cofundador e investigador del Instituto de Investigación de Inteligencia de Máquinas (MIRI), una organización de investigación privada sin fines de lucro con sede en Berkeley, California. Su trabajo sobre la posibilidad de una explosión descontrolada de inteligencia influyó en Superintelligence: Paths, Dangers, Strategies de Nick Bostrom.
Trabajar en seguridad de inteligencia artificial
Aprendizaje por objetivos e incentivos en sistemas de software
Los puntos de vista de Yudkowsky sobre los desafíos de seguridad que plantean las futuras generaciones de sistemas de IA se analizan en el libro de texto de licenciatura en IA, Artificial Intelligence: A Modern Approach. Al notar la dificultad de especificar formalmente a mano objetivos de propósito general, Russell y Norvig citan la propuesta de Yudkowsky de que los sistemas autónomos y adaptativos se diseñen para aprender el comportamiento correcto con el tiempo:
Yudkowsky (2008) va en más detalle sobre cómo diseñar un Friendly AI. Afirma que la amabilidad (un deseo de no dañar a los humanos) debe diseñarse desde el principio, pero que los diseñadores deben reconocer tanto que sus propios diseños pueden ser imperfectos, y que el robot aprenderá y evolucionará con el tiempo. Así, el desafío es uno de diseño de mecanismos, diseñar un mecanismo para la evolución de la IA bajo un sistema de cheques y equilibrios, y dar a los sistemas funciones de utilidad que seguirán siendo amistosos ante tales cambios.
En respuesta a la preocupación por la convergencia instrumental, donde los sistemas autónomos de toma de decisiones con objetivos mal diseñados tendrían incentivos predeterminados para maltratar a los humanos, Yudkowsky y otros investigadores de MIRI han recomendado que se trabaje para especificar agentes de software que converjan en comportamientos predeterminados seguros. incluso cuando sus objetivos están mal especificados.
Previsión de capacidades
En el escenario de explosión de inteligencia planteado como hipótesis por I. J. Good, los sistemas de IA de automejora recursiva pasan rápidamente de una inteligencia general infrahumana a superinteligente. El libro de Nick Bostrom de 2014 Superintelligence: Paths, Dangers, Strategies esboza el argumento de Good en detalle, al tiempo que cita escritos de Yudkowsky sobre el riesgo de que la antropomorfización de los sistemas avanzados de IA haga que las personas malinterpretar la naturaleza de una explosión de inteligencia. "AI podría hacer un aparentemente salto brusco en inteligencia simplemente como resultado del antropomorfismo, la tendencia humana a pensar en 'idiota del pueblo' y 'Einstein' como los extremos de la escala de inteligencia, en lugar de puntos casi indistinguibles en la escala de mentes en general."
En Inteligencia artificial: un enfoque moderno, los autores Stuart Russell y Peter Norvig plantean la objeción de que existen límites conocidos para la resolución inteligente de problemas a partir de la teoría de la complejidad computacional; si existen fuertes límites sobre la eficiencia con la que los algoritmos pueden resolver diversas tareas informáticas, es posible que la explosión de inteligencia no sea posible.
Escritura de racionalidad
Entre 2006 y 2009, Yudkowsky y Robin Hanson fueron los principales colaboradores de Overcoming Bias, un blog de ciencias cognitivas y sociales patrocinado por el Future of Humanity Institute de la Universidad de Oxford. En febrero de 2009, Yudkowsky fundó LessWrong, un "blog comunitario dedicado a refinar el arte de la racionalidad humana". Desde entonces, Overcoming Bias funciona como el blog personal de Hanson.
Más de 300 publicaciones de blog de Yudkowsky sobre filosofía y ciencia (originalmente escritas en LessWrong y Overcoming Bias) se publicaron como un libro electrónico titulado Rationality: From AI to Zombies por el Machine Intelligence Research Institute (MIRI) en 2015. MIRI también ha publicado Inadequate Equilibria, el libro electrónico de Yudkowsky de 2017 sobre el tema de las ineficiencias sociales.
Yudkowsky también ha escrito varias obras de ficción. Su novela de fanfiction, Harry Potter and the Methods of Rationality, utiliza elementos de la trama de la serie Harry Potter de J. K. Rowling para ilustrar temas científicos. The New Yorker describió Harry Potter y los métodos de la racionalidad como un recuento del original de Rowling, en un intento de explicar la magia de Harry. a través del método científico".
Vida privada
Yudkowsky es autodidacta y no asistió a la escuela secundaria ni a la universidad. Fue criado como un judío ortodoxo moderno.
Publicaciones académicas
- Yudkowsky, Eliezer (2007). "Nivels of Organization in General Intelligence" (PDF). Artificial General Intelligence. Berlín: Springer.
- Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgement of Global Risks" (PDF). En Bostrom, Nick; Ćirković, Milan (eds.). Riesgos catastróficos globales. Oxford University Press. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2008). "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF). En Bostrom, Nick; Ćirković, Milan (eds.). Riesgos catastróficos globales. Oxford University Press. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2011). "Complex Value Systems in Friendly AI" (PDF). Inteligencia General Artificial: 4a Conferencia Internacional, AGI 2011, Mountain View, CA, USA, 3 al 6 de agosto de 2011. Berlín: Springer.
- Yudkowsky, Eliezer (2012). "Inteligencia Artificial". In Eden, Ammon; Moor, James; Søraker, John; et al. (eds.). Singularidad Hipótesis: Evaluación científica y filosófica. La Colección Frontiers. Berlin: Springer. pp. 181–195. doi:10.1007/978-3-642-32560-1_10. ISBN 978-3-642-32559-5.
- Bostrom, Nick; Yudkowsky, Eliezer (2014). "La ética de la inteligencia artificial" (PDF). En Frankish, Keith; Ramsey, William (eds.). The Cambridge Handbook of Artificial Intelligence. Nueva York: Cambridge University Press. ISBN 978-0-521-87142-6.
- LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Equilibrio de programa en el dilema del preso a través del teorema de Löb". Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications.
- Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibilidad" (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications.
Contenido relacionado
Ralph ellison
Optatam Totius
Isaac Asimov