Microsoft aprobó una serie de regulaciones para la inteligencia artificial el jueves, ya que la compañía aborda las preocupaciones de los gobiernos de todo el mundo sobre los peligros de la tecnología en rápida evolución.
Microsoft, que ha prometido llevar inteligencia artificial a muchos de sus productos, ha propuesto regulaciones que incluyen el requisito de que los sistemas utilizados en infraestructuras críticas puedan detenerse o ralentizarse por completo, de forma similar a un sistema de frenado de emergencia en un tren. La compañía también pidió leyes que muestren cuándo se aplican obligaciones legales adicionales a un sistema de inteligencia artificial y que las etiquetas muestren cuándo una computadora generó una imagen o un video.
“Las empresas tienen que dar un paso al frente”, dijo Brad Smith, presidente de Microsoft, en una entrevista sobre el cabildeo por regulaciones. “El gobierno necesita moverse más rápido”.
El llamado a la regulación está impregnando un auge de IA, con el lanzamiento del chatbot ChatGPT en noviembre generando una ráfaga de interés. Empresas como Microsoft y Alphabet, la empresa matriz de Google, se han apresurado desde entonces a integrar la tecnología en sus productos. Eso ha generado preocupaciones de que las empresas están sacrificando la seguridad para llegar al próximo gran avance antes que sus competidores.
Los legisladores han expresado públicamente su preocupación de que estos productos de IA, que pueden generar texto e imágenes por sí mismos, creen una avalancha de información errónea, sean utilizados por delincuentes y perturben a las personas. Los reguladores de Washington se comprometieron a estar atentos a los estafadores que utilizan inteligencia artificial y los casos en los que los sistemas perpetúan la discriminación o toman decisiones que infringen la ley.
En respuesta a este escrutinio, los desarrolladores de IA han pedido cada vez más que se transfiera parte de la carga de monitorear la tecnología al gobierno. Sam Altman, CEO de OpenAI, que fabrica ChatGPT y considera a Microsoft como un inversionista, le dijo a un subcomité del Senado este mes que el gobierno debería regular la tecnología.
La maniobra se hace eco de los nuevos llamados a leyes de privacidad o redes sociales por parte de compañías de Internet como Google y Meta, la matriz de Facebook. En los EE. UU., los legisladores se han movido lentamente después de tales llamados, con pocas reglas federales nuevas sobre privacidad o redes sociales en los últimos años.
En la entrevista, el Sr. Smith dijo que Microsoft no está tratando de eliminar la responsabilidad de administrar la nueva tecnología, porque ha estado presentando ideas específicas y se ha comprometido a implementar algunas de ellas, independientemente de si el gobierno toma medidas o no.
““No hay un ápice de abdicación de responsabilidad”, dijo.
Apoyó la idea, que Altman respaldó durante su testimonio ante el Congreso, de que una agencia gubernamental debería exigir a las empresas que obtengan licencias para implementar modelos de IA de “alta potencia”.
“Significa que notifica al gobierno cuando comienzan las pruebas”, dijo Smith. “Debe compartir los resultados con el gobierno. Incluso cuando está autorizado para su publicación, es su deber continuar monitoreándolo e informar al gobierno si surgen problemas inesperados”.
Microsoft, que generó más de $ 22 mil millones de su negocio de computación en la nube en el primer trimestre, dijo que estos sistemas de alto riesgo solo deberían poder operar en “centros de datos de IA autorizados”. El Sr. Smith admitió que la empresa no estaría “en una mala posición” para brindar dichos servicios, pero dijo que varios competidores estadounidenses también podrían brindarlos.
Microsoft agregó que los gobiernos deberían clasificar algunos sistemas de inteligencia artificial utilizados en infraestructura crítica como de “alto riesgo” y exigirles “frenos de seguridad”. Comparó la función con “los ingenieros de sistemas de frenos han incorporado durante mucho tiempo otras tecnologías, como ascensores, autobuses escolares y trenes de alta velocidad”.
Microsoft dijo que en algunos casos delicados, las empresas que proporcionan sistemas de inteligencia artificial deben conocer cierta información sobre sus clientes. La compañía dijo que para proteger a los consumidores del engaño, se debe exigir que el contenido generado por IA lleve una etiqueta privada.
Smith dijo que las empresas deberían asumir la “responsabilidad” legal por los daños relacionados con la IA. En algunos casos, dijo, la parte responsable podría ser el desarrollador de una aplicación como el motor de búsqueda Bing de Microsoft que usa la tecnología de IA subyacente de otra persona. Agregó que las empresas de computación en la nube pueden ser responsables de cumplir con las normas de seguridad y otras reglas.
“No necesariamente tenemos la mejor información o la mejor respuesta, o puede que no seamos el vocero más creíble”, dijo el Sr. Smith. “Pero, ya sabes, en este momento, especialmente en Washington, D.C., la gente está buscando ideas”.