Las empresas más grandes de la industria de la tecnología han pasado este año advirtiendo que el desarrollo de la tecnología de IA está más allá de sus expectativas más descabelladas y que necesitan limitar quién tiene acceso a ella.
Mark Zuckerberg se está redoblando en una dirección diferente: lo está regalando.
Zuckerberg, CEO de Meta, dijo el martes que tiene la intención de ofrecer el código detrás de la última y más avanzada tecnología de inteligencia artificial a desarrolladores y entusiastas del software de todo el mundo de forma gratuita.
La decisión, similar a la que tomó Meta en febrero, podría ayudar a la empresa a competir con competidores como Google y Microsoft. Estas empresas se han movido más rápidamente para integrar la IA generativa, la tecnología detrás del popular chatbot ChatGPT de OpenAI, en sus productos.
“Cuando el software está abierto, más personas pueden escanearlo para identificar posibles problemas y solucionarlos”, dijo Zuckerberg en una publicación en su página personal de Facebook.
La última versión de Meta AI está construida con un 40 por ciento más de datos que los que la compañía lanzó hace solo unos meses, y se cree que es mucho más poderosa. El Meta proporciona una hoja de ruta detallada que muestra cómo los desarrolladores pueden trabajar con la gran cantidad de datos que han recopilado.
A los investigadores les preocupa que la IA generativa pueda aumentar el volumen de desinformación y spam en Internet, lo que plantea peligros que incluso algunos de sus creadores no comprenden del todo.
Meta se adhiere a la firme creencia de que permitir que todo tipo de programadores jueguen con la tecnología es la mejor manera de mejorarla. Hasta hace poco, la mayoría de los investigadores de IA estaban de acuerdo. Pero en el último año, compañías como Google, Microsoft y OpenAI, una startup de San Francisco, impusieron límites sobre quién puede acceder a su última tecnología y establecieron controles sobre lo que se puede hacer.
Las empresas dicen que están limitando el acceso debido a problemas de seguridad, pero los críticos dicen que también están tratando de sofocar la competencia. Meta argumenta que a todos les interesa compartir en qué está trabajando.
“Históricamente, Meta ha sido un gran defensor de las plataformas abiertas, y realmente ha funcionado para nosotros como empresa”, dijo en una entrevista Ahmed Dahl, vicepresidente de IA generativa de Meta.
La medida haría que el software fuera de “código abierto”, que es un código de computadora que se puede copiar, modificar y reutilizar libremente. La tecnología, llamada LLaMA 2, proporciona todo lo que cualquier persona necesita para crear chatbots en línea como ChatGPT. LLaMA 2 se lanzará bajo una licencia comercial, lo que significa que los desarrolladores pueden crear la suya propia utilizando la IA central de Meta para impulsarlo, todo de forma gratuita.
Con LLaMA 2 de código abierto, Meta puede aprovechar las mejoras realizadas por los programadores fuera de la empresa mientras, según esperan los ejecutivos de Meta, estimular los experimentos de IA.
El enfoque de código abierto de Meta no es nada nuevo. Las empresas a menudo abren tecnologías de código fuente en un esfuerzo por ponerse al día con los competidores. Hace quince años, Google creó un sistema operativo móvil Android de código abierto para competir mejor con el iPhone de Apple. Si bien el iPhone tuvo la ventaja inicial, Android finalmente se convirtió en el software dominante utilizado en los teléfonos inteligentes.
Pero los investigadores argumentan que alguien podría publicar Meta AI sin las garantías que los gigantes tecnológicos como Google y Microsoft usan para tomar medidas enérgicas contra el contenido tóxico. Los modelos de código abierto recién creados, por ejemplo, pueden usarse para inundar Internet con más spam, fraude financiero y desinformación.
LLaMA 2, abreviatura de Large Language Model Meta AI, es lo que los científicos llaman Large Language Model, o LLM Chatbots como ChatGPT y Google Bard están construidos con grandes modelos de lenguaje.
Los modelos son sistemas que aprenden habilidades mediante el análisis de grandes cantidades de texto digital, incluidos artículos y libros de Wikipedia, conversaciones en foros en línea y registros de chat. Al identificar patrones en el texto, estos sistemas aprenden a crear su propio texto, incluidos los trabajos finales, la poesía y el código informático. Incluso pueden mantener una conversación.
Los ejecutivos de Meta argumentan que su estrategia no es tan arriesgada como muchos piensan. Dicen que las personas ya pueden producir grandes cantidades de desinformación y discurso de odio sin el uso de inteligencia artificial, y que este material tóxico puede ser severamente reducido por las redes sociales Meta como Facebook. Y sostienen que la liberación de la tecnología podría, en última instancia, mejorar la capacidad de Meta y otras empresas para resistir el abuso del software.
El Sr. Dahl dijo que Meta realizó pruebas adicionales del “Equipo rojo” de LLaMA 2 antes de su lanzamiento. Este es un término para probar software en busca de abuso potencial y descubrir formas de protegerse contra dicho abuso. La compañía también lanzará una Guía de uso responsable que contiene las mejores prácticas y pautas para los desarrolladores que desean crear software utilizando código.
Pero estas pruebas y pautas se aplican solo a uno de los modelos que lanza Meta, que se entrenará y refinará de manera que tenga firewalls y evite el abuso. Los desarrolladores también podrán usar el código para crear chatbots y software sin firewalls, un movimiento que los escépticos ven como un riesgo.
En febrero, Meta lanzó la primera versión de LLaMA para académicos, investigadores gubernamentales y más. La compañía también ha permitido que los académicos descarguen LLaMA después de haber sido capacitados en cantidades masivas de textos digitales. Los científicos llaman a este proceso “liberación de peso”.
Fue un movimiento notable porque analizar todos esos datos digitales requería enormes recursos informáticos y financieros. Con pesos, cualquiera puede construir un chatbot mucho más barato y fácilmente desde cero.
Muchos en la industria de la tecnología creen que Meta sienta un precedente peligroso, y después de que Meta compartió su tecnología de IA con un pequeño grupo de académicos en febrero, un investigador filtró la tecnología a la Internet pública.
En un artículo de opinión reciente en el Financial Times, Nick Clegg, jefe de políticas públicas globales de Meta, argumentó que “no es sostenible mantener la tecnología fundamental en manos de unas pocas grandes empresas”, y que las empresas que históricamente han lanzado el software fuente también se ha introducido estratégicamente.
“¡Espero ver lo que todos ustedes construyen!” dijo Zuckerberg en su publicación.