Más de 1000 líderes tecnológicos e investigadores, incluido Elon Musk, han instado a los laboratorios de IA a detener el desarrollo de los sistemas más avanzados, advirtiendo en una carta abierta que las herramientas de IA presentan “profundos peligros para la sociedad y la humanidad”.
Los desarrolladores de IA están “atrapados en una carrera fuera de control para desarrollar y desplegar cerebros digitales cada vez más poderosos que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera confiable”, según la carta, que El futuro de la organización sin fines de lucro dijo que fue publicado por Life Institute el lunes.
Entre los otros que firmaron la carta estaba Steve Wozniak, uno de los cofundadores de Apple. Andrew Yang, empresario y candidato presidencial de 2020; y Rachel Bronson, presidenta del Bulletin of the Atomic Scientists, que establece el reloj del fin del mundo.
“Estas cosas dan forma a nuestro mundo”, dijo en una entrevista Gary Marcus, un empresario y académico que se ha quejado durante mucho tiempo de las fallas en los sistemas de IA. “Tenemos una tormenta perfecta de irresponsabilidad corporativa, adopción generalizada, falta de regulación y un montón de incógnitas”.
La IA impulsa chatbots como ChatGPT, Bing de Microsoft y Bard de Google, que pueden llevar a cabo conversaciones similares a las de los humanos, crear artículos sobre una variedad infinita de temas y realizar tareas más complejas, como escribir código de computadora.
El impulso para desarrollar chatbots más potentes ha llevado a una carrera que podría determinar los próximos líderes en la industria tecnológica. Pero estas herramientas han sido criticadas por equivocarse en los detalles y por su capacidad para difundir información errónea.
La carta abierta pedía una pausa en el desarrollo de sistemas de inteligencia artificial más potentes que GPT-4, el chatbot presentado este mes por el laboratorio de investigación OpenAI, del cual Musk fue cofundador. La carta decía que la pausa ganaría tiempo para la introducción de “protocolos de seguridad comunes” para los sistemas de IA. Agregó: “Si tal moratoria no se puede activar rápidamente, los gobiernos deberían intervenir e imponer una moratoria”.
La carta establece que el desarrollo de sistemas sólidos de IA debe proceder “solo una vez que estemos seguros de que sus efectos serán positivos y que sus riesgos estarán bajo control”.
“La humanidad puede disfrutar de un futuro próspero con inteligencia artificial”, decía la carta. “Habiendo creado con éxito sistemas robustos de IA, ahora podemos disfrutar de un ‘verano de IA’ a medida que cosechamos las recompensas, diseñando estos sistemas para que sean de beneficio obvio para todos y brindando a la sociedad la oportunidad de adaptarse.
Sam Altman, CEO de OpenAI, no firmó la carta.
Marcus y otros creen que será difícil convencer a la comunidad tecnológica en general para que acepte la moratoria. Pero la acción rápida del gobierno también es una pequeña posibilidad, ya que los legisladores han hecho poco para regular la IA.
Los políticos estadounidenses no tienen mucha comprensión de la tecnología, dijo recientemente al New York Times el representante Jay Obernault, republicano por California. En 2021, los legisladores de la UE propusieron una ley diseñada para regular las tecnologías de inteligencia artificial potencialmente dañinas, incluidos los sistemas de reconocimiento facial.
Se espera que se apruebe este año, la medida requerirá que las empresas realicen evaluaciones de riesgo de las tecnologías de IA para determinar cómo sus aplicaciones afectan la salud, la seguridad y los derechos individuales.
GPT-4 es lo que los investigadores de IA llaman una red neuronal, un tipo de sistema matemático que aprende habilidades mediante el análisis de datos. Una red neuronal es la misma tecnología que usan los asistentes digitales como Siri y Alexa para reconocer los comandos hablados, y que usan los autos sin conductor para identificar a los peatones.
Alrededor de 2018, empresas como Google y OpenAI comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia, registros de chat y otra información obtenida de Internet. Las redes se denominan modelos de lenguaje grande o LLM.
Al identificar los miles de millones de patrones en todo ese texto, LLM aprende a crear texto por sí mismo, incluidos tweets, trabajos finales y programas de computadora. Incluso pueden mantener una conversación. A lo largo de los años, OpenAI y otras empresas han creado LLM que aprenden de más y más datos.
Esto mejoró sus capacidades, pero los sistemas aún cometían errores. A menudo confunden hechos e inventan información sin previo aviso, un fenómeno que los investigadores llaman “alucinaciones”. Debido a que los sistemas presentan toda la información con lo que parece ser una total confianza, a menudo es difícil para las personas saber qué está bien y qué está mal.
A los expertos les preocupa que estos sistemas puedan usarse indebidamente para difundir desinformación de manera más rápida y eficiente de lo que era posible en el pasado. Creen que estos pueden usarse para convencer a las personas en línea del comportamiento.
Antes de lanzar GPT-4, OpenAI pidió a investigadores externos que probaran usos peligrosos del sistema. Los investigadores han demostrado que se le puede persuadir sugiriendo cómo comprar armas de fuego ilegales en línea, describiendo formas de hacer materiales peligrosos a partir de artículos para el hogar y escribiendo publicaciones en Facebook para convencer a las mujeres de que el aborto no es seguro.
También descubrieron que el sistema podía usar Task Rabbit para reclutar a un humano en línea y derrotar a Captcha, que se usa ampliamente para identificar bots en línea. Cuando el humano preguntó si el sistema era un “robot”, el sistema dijo que era una persona con discapacidad visual.
Después de los cambios realizados por OpenAI, GPT-4 ya no hace estas cosas.
Durante años, muchos investigadores, académicos y ejecutivos de tecnología de IA, incluido Musk, se han preocupado de que los sistemas de IA puedan causar más daño. Algunos son parte de una gran comunidad en línea llamada racionalistas o altruistas de acción que creen que la inteligencia artificial eventualmente puede destruir a la humanidad.
La carta fue patrocinada por Future of Life Institute, una organización dedicada a investigar los riesgos existenciales para la humanidad que ha advertido durante mucho tiempo sobre los peligros de la inteligencia artificial. Pero fue firmado por una amplia variedad de personas de la industria y la academia.
Aunque algunos de los que firmaron la carta son conocidos por expresar repetidamente su temor de que la inteligencia artificial pueda destruir a la humanidad, otros, incluido Marcus, están más preocupados por los peligros a corto plazo, incluida la difusión de información errónea y el riesgo de que las personas confíen en ella. Sistemas de asesoramiento médico y emocional.
Marcus, quien firmó la carta, dijo que la carta “muestra cuántas personas están profundamente preocupadas por lo que está pasando”. Él cree que la carta será un punto de inflexión. “Creo que es un momento realmente importante en la historia de la IA, y quizás de la humanidad”, dijo.
Sin embargo, reconoció que quienes firmaron la carta pueden tener dificultades para convencer a la comunidad más amplia de empresas e investigadores para que impongan una prohibición. “El mensaje no es perfecto”, dijo. “Pero el espíritu es el correcto”.