Un grupo de líderes de la industria planea advertir el martes que la tecnología de IA que están construyendo podría representar algún día una amenaza existencial para la humanidad y debería considerarse un riesgo social a la par de las pandemias y la guerra nuclear.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales, como las pandemias y la guerra nuclear”, se lee en una declaración de una oración que se espera que emita el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta está firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en inteligencia artificial.
Los signatarios incluyeron altos ejecutivos de tres empresas líderes en inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, CEO, Google DeepMind; y Dario Amodi, director ejecutivo de Anthropic.
Geoffrey Hinton y Joshua Bengio, dos de los tres ganadores del Premio Turing por su trabajo pionero en redes neuronales y a menudo considerados los “padrinos” del movimiento moderno de inteligencia artificial, firmaron la declaración, al igual que otros investigadores notables en el campo (tercer Premio Turing el ganador, Yan Lekun, quien lidera el esfuerzo de investigación de IA de Meta, no firmó hasta el martes).
La declaración llega en un momento de creciente preocupación por los daños potenciales de la inteligencia artificial. Los desarrollos recientes en los llamados grandes modelos de lenguaje, el tipo de sistema de IA utilizado por ChatGPT y otros chatbots, han generado preocupaciones de que la IA pronto podría usarse a gran escala para difundir desinformación y propaganda, o que podría eliminar a millones de blancos. trabajos de cuello.
Eventualmente, algunos creen que la IA podría volverse lo suficientemente poderosa como para crear disturbios sociales en unos pocos años si no se hace nada para frenarla, aunque los investigadores a veces dejan de explicar cómo sucede esto.
Muchos líderes de la industria comparten estas preocupaciones, lo que los coloca en la posición inusual de argumentar que la tecnología que están construyendo, y en muchos casos, están compitiendo furiosamente para construir más rápido que sus competidores, presenta riesgos serios y debe ser regulada más estrictamente. .
Este mes, el Sr. Altman, el Sr. Hassabis y el Sr. Amoudi se reunieron con el presidente Biden y la vicepresidenta Kamala Harris para hablar sobre la regulación de la IA. En testimonio ante el Senado después de la reunión, el Sr. Altman advirtió que los riesgos de los sistemas avanzados de IA son lo suficientemente graves como para justificar la intervención del gobierno y pidió la regulación de la IA por su daño potencial.
Dan Hendricks, director ejecutivo del Centro para la Seguridad de la Inteligencia Artificial, dijo en una entrevista que la carta abierta marcó una “salida” para algunos líderes de la industria que habían expresado preocupaciones, pero solo en privado, sobre los riesgos de la tecnología que estaban desarrollando.
“Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo unos pocos están afectados”, dijo Hendricks. “Pero, de hecho, muchas personas expresan en privado su preocupación por estas cosas”.
Algunos escépticos argumentan que la tecnología de IA aún es demasiado inmadura para representar una amenaza existencial. Cuando se trata de los sistemas de IA actuales, se preocupan más por los problemas a corto plazo, como las respuestas sesgadas e incorrectas, que por los riesgos a largo plazo.
Pero otros han argumentado que la IA está mejorando tan rápidamente que ya ha superado a los humanos en algunas áreas y pronto lo superará en otras. Dicen que la tecnología ha mostrado signos de capacidades y comprensión avanzadas, lo que genera preocupaciones de que la “inteligencia general artificial” o AGI, un tipo de inteligencia artificial que puede igualar o superar el rendimiento humano en una amplia variedad de tareas, puede no estar tan lejos. .
En un blog la semana pasada, el Sr. Altmann y otros dos ejecutivos de OpenAI sugirieron varias formas en las que se pueden administrar de manera responsable los poderosos sistemas de IA. Pidieron la colaboración entre los principales fabricantes de IA, más investigación técnica en modelos de lenguaje extenso y la formación de una organización internacional de seguridad de IA, siguiendo el modelo de la Agencia Internacional de Energía Atómica, que busca controlar el uso de armas nucleares.
El Sr. Altmann también expresó su apoyo a las reglas que requieren que los fabricantes de modelos de IA grandes y sofisticados se registren para obtener una licencia emitida por el gobierno.
En marzo, más de 1000 tecnólogos e investigadores firmaron otra carta abierta pidiendo una pausa de seis meses en el desarrollo de los modelos de IA más grandes, citando preocupaciones sobre “una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.
La carta, organizada por otra organización sin fines de lucro centrada en la IA, el Instituto Future of Life, fue firmada por Elon Musk y otros pioneros tecnológicos conocidos, pero no tenía muchas firmas de los principales laboratorios de IA.
La brevedad de la nueva declaración del Center for AI Security (solo 22 palabras) tenía la intención de unir a los expertos en IA que pueden estar en desacuerdo sobre la naturaleza de los riesgos o los pasos específicos para evitar que ocurran, pero que comparten sus preocupaciones generales sobre la fuerza. Sistemas de inteligencia artificial, dijo Hendricks.
“No queríamos presionar por una lista muy grande de 30 tacleadas potenciales”, dijo el Sr. Hendricks. “Cuando eso sucede, debilita el mensaje”.
La declaración se compartió inicialmente con algunos destacados expertos en IA, incluido el Sr. Hinton, quien renunció a su trabajo en Google este mes para poder hablar con más libertad, dijo, sobre los daños potenciales de la IA. A partir de ahí, se dirigió a varios laboratorios importantes de IA, donde algunos empleados iniciaron sesión.
La urgencia de las advertencias de los líderes de IA ha aumentado a medida que millones de personas recurren a los chatbots de IA para entretenimiento, compañía y mayor productividad, y a medida que la tecnología subyacente mejora a un ritmo acelerado.
“Creo que si algo sale mal con esta tecnología, puede salir absolutamente mal”, dijo Altman al subcomité del Senado. “Queremos trabajar con el gobierno para evitar que eso suceda”.