Siete empresas líderes de inteligencia artificial de EE. UU. acordaron garantías voluntarias para el desarrollo de tecnología, anunció la Casa Blanca el viernes, comprometiéndose a gestionar los riesgos de las nuevas herramientas incluso cuando compiten por el potencial de inteligencia artificial.
Las siete empresas (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) anunciarán formalmente su compromiso con los nuevos estándares en las áreas de seguridad y confianza en una reunión con el presidente Biden en la Casa Blanca el viernes por la tarde.
El anuncio se produce cuando las empresas compiten para superarse entre sí con versiones de inteligencia artificial que ofrecen nuevas y poderosas formas de crear texto, imágenes, música y video sin intervención humana. Pero los saltos tecnológicos han generado preocupaciones sobre la difusión de información errónea y advertencias terribles de un “riesgo de extinción” a medida que se desarrollan las computadoras autoconscientes.
Las salvaguardas voluntarias son solo un paso inicial y tentativo mientras Washington y los gobiernos de todo el mundo se apresuran a establecer marcos legales y regulatorios para el desarrollo de la inteligencia artificial. Reflejan la urgencia de la administración de Biden y los legisladores para responder a la tecnología en rápida evolución, incluso cuando los legisladores han luchado por regular las redes sociales y otras tecnologías.
La Casa Blanca no ha proporcionado detalles de una próxima orden ejecutiva que abordará un problema mayor: cómo controlar la capacidad de China y otros competidores para adquirir nuevo software de inteligencia artificial o los componentes utilizados para desarrollarlo.
Esto incluye nuevas restricciones sobre semiconductores avanzados y restricciones sobre la exportación de modelos de lenguaje grande. Difícil de controlar: se pueden instalar y comprimir demasiados programas en una memoria USB.
Una orden ejecutiva podría provocar más oposición de la industria que los compromisos voluntarios del viernes, que según los expertos ya se han reflejado en las prácticas de las empresas involucradas. Las promesas no restringirán los planes de las empresas de IA ni obstaculizarán el desarrollo de sus tecnologías. Y como compromisos voluntarios, no serán impuestos por los reguladores gubernamentales.
“Estamos emocionados de hacer estos compromisos voluntarios junto con otros en el sector”, dijo en un comunicado Nick Clegg, jefe de asuntos globales de Meta, la empresa matriz de Facebook. “Es un primer paso importante para garantizar que existan sandboxes de IA responsables, y también crea un modelo a seguir para otros gobiernos”.
Como parte de las salvaguardias, las empresas acordaron:
Pruebas de seguridad de sus productos de IA, en parte por expertos independientes y el intercambio de información sobre sus productos con gobiernos y otros que intentan gestionar los riesgos tecnológicos.
Asegúrese de que los consumidores puedan descubrir material generado por IA mediante la aplicación de marcas de agua u otros medios para identificar el contenido generado.
Informar públicamente las capacidades y limitaciones de sus sistemas de forma regular, incluidos los riesgos de seguridad y la evidencia de sesgo.
Implemente herramientas avanzadas de IA para abordar los mayores desafíos de la sociedad, como curar el cáncer y combatir el cambio climático.
Realice investigaciones sobre los riesgos de sesgo, discriminación e invasión de la privacidad a partir de la proliferación de herramientas de IA.
En un comunicado anunciando los acuerdos, la administración de Biden dijo que las empresas deben asegurarse de que “la innovación no se produzca a expensas de los derechos y la seguridad de los estadounidenses”.
“Las empresas que desarrollan estas tecnologías emergentes tienen la responsabilidad de garantizar la seguridad de sus productos”, dijo el departamento en un comunicado.
Brad Smith, presidente de Microsoft y uno de los ejecutivos presentes en la reunión de la Casa Blanca, dijo que su empresa apoya las salvaguardas voluntarias.
“Al actuar rápidamente, los compromisos de la Casa Blanca crean una base para ayudar a garantizar la supervivencia de la promesa de la IA antes de sus riesgos”, dijo el Sr. Smith.
Anna Makangu, vicepresidenta de Asuntos Globales de OpenAI, describió el anuncio como “parte de nuestra colaboración continua con gobiernos, organizaciones de la sociedad civil y otros en todo el mundo para fortalecer la gobernanza de la IA”.
Para las empresas, los estándares descritos el viernes tienen dos propósitos: un intento de frustrar o dar forma a los movimientos legislativos y regulatorios a través de la moderación, y una señal de que abordan esta nueva tecnología de manera reflexiva y proactiva.
Pero las reglas que acordaron son en gran medida el mínimo común denominador, y cada empresa puede interpretarlas de manera diferente. Por ejemplo, las empresas se adhieren a una estricta seguridad cibernética con respecto a los datos y el código utilizados para hacer los “modelos lingüísticos” sobre los cuales se desarrollan los programas de IA generativa. Pero no hay detalles sobre lo que eso significa, y las empresas tendrían interés en proteger su propiedad intelectual de todos modos.
Incluso las empresas más cautelosas están en riesgo. Microsoft, una de las empresas que asistió al evento de la Casa Blanca con Biden, se apresuró la semana pasada para contrarrestar un ataque organizado por el gobierno chino a los correos electrónicos privados de los funcionarios estadounidenses que hacían negocios con China. Ahora parece que China robó, u obtuvo de alguna manera, una “clave privada” que Microsoft posee y que es la clave para autenticar los correos electrónicos, una de las piezas de código mejor protegidas de la compañía.
Como resultado, es poco probable que el acuerdo retrase los esfuerzos para aprobar leyes y hacer cumplir las regulaciones sobre la tecnología emergente.
Se necesita hacer más para protegerse contra los peligros que la IA representa para la sociedad, dijo Paul Barrett, subdirector del Centro Stern para Empresas y Derechos Humanos de la Universidad de Nueva York.
“Los compromisos voluntarios anunciados hoy no se pueden hacer cumplir, por lo que es fundamental que el Congreso, junto con la Casa Blanca, elaboren con urgencia una legislación que exija la transparencia y la protección de la privacidad, y aumenten la investigación sobre la amplia gama de riesgos que plantea la IA generativa”, dijo Barrett en un comunicado.
Los reguladores europeos se están preparando para adoptar leyes de IA a finales de este año, lo que llevó a muchas empresas a animar las regulaciones estadounidenses. Varios legisladores han presentado proyectos de ley que incluyen la concesión de licencias a las empresas de IA para lanzar sus tecnologías, la creación de una agencia federal para supervisar la industria y los requisitos de privacidad de datos. Pero los miembros del Congreso están lejos de ponerse de acuerdo sobre las reglas y se esfuerzan por educarse sobre la tecnología.
Los legisladores han estado lidiando con la forma de abordar el auge de la tecnología de inteligencia artificial, con algunos centrados en los riesgos para los consumidores, mientras que otros están profundamente preocupados por quedarse atrás de los enemigos, en particular China, en la carrera por el dominio en el campo.
Esta semana, el Comité Selecto de Competencia Estratégica con China de la Cámara de Representantes envió cartas bipartidistas a empresas de capital de riesgo en los Estados Unidos, exigiendo una contabilidad de las inversiones que han realizado en empresas chinas de inteligencia artificial y semiconductores. Las cartas se suman a los meses en los que una variedad de comités de la Cámara y el Senado han interrogado a los empresarios y expertos más influyentes de la industria de la IA para determinar qué tipo de barreras e incentivos legislativos debería explorar el Congreso.
Muchos de esos testigos, incluido Sam Altman de la startup OpenAI de San Francisco, han suplicado a los legisladores que regulen la industria de la IA, citando el potencial de que la nueva tecnología cause daños innecesarios. Pero dicha regulación ha tardado en surgir en el Congreso, ya que muchos legisladores aún luchan por comprender exactamente qué es la tecnología de IA.
En un esfuerzo por comprender mejor a los legisladores, el senador Chuck Schumer, demócrata de Nueva York y líder de la mayoría, inició una serie de audiencias para legisladores este verano, escuchando a funcionarios gubernamentales y expertos sobre los beneficios y riesgos de la IA en varias áreas.
El Sr. Schumer también preparó una enmienda a la versión del Senado del proyecto de ley de autorización de defensa de este año para incentivar a los empleados del Pentágono a informar problemas potenciales con las herramientas de IA a través de un programa de “recompensa de errores”, encargar al Pentágono que prepare un informe sobre cómo mejorar el intercambio de datos de IA y mejorar los informes de IA en la industria de servicios financieros.
karon demirjian Reportaje contribuido desde Washington.