Cuando abrí mi computadora portátil el martes para hacer mi primera incursión en GPT-4, el nuevo paradigma de lenguaje de inteligencia artificial de OpenAI, estaba, de hecho, un poco nervioso.
Después de todo, mi encuentro prolongado más reciente con un chatbot de IA, que está integrado en el motor de búsqueda Bing de Microsoft, terminó cuando el chatbot intentó romper mi matrimonio.
No ayudó que, entre la multitud tecnológica de San Francisco, la anticipación de la llegada de GPT-4 se hizo con fanfarria casi mesiana. Antes de su aparición pública, circularon rumores durante meses sobre sus detalles. “Escuché que obtuvo 100 billones de parámetros”. “Escuché que obtuvo 1600 en el satélite”. “Mi amigo trabaja en OpenAI y dice que es tan inteligente como una graduada universitaria”.
Quizás estos rumores no eran ciertos. Pero insinuaron cuán paradójicas pueden sentirse las capacidades de la tecnología. Recientemente, uno de los primeros probadores de GPT-4, que estaba sujeto a un acuerdo de confidencialidad con OpenAI, pero de todos modos habló un poco, me dijo que probar GPT-4 había causado una “crisis existencial”, porque reveló cuán poderosa y creativa es la IA. fue comparado con sus débiles cerebros.
GPT-4 no me ha causado una crisis existencial. Pero ha exacerbado el mareo y el aturdimiento que he tenido cada vez que pienso en la IA últimamente. Y me hizo preguntarme si ese sentimiento se desvanecería algún día, o si todos nos enfrentaríamos a un “shock futuro”, el término acuñado por el escritor Alvin Toffler. Porque sentimos que muchas cosas están cambiando tan rápidamente, por el resto de nuestras vidas.
Durante unas horas el martes, presioné a GPT-4, que se incluye con ChatGPT Plus, la versión de $ 20 por mes del chatbot de OpenAI, ChatGPT, con varios tipos de preguntas, con la esperanza de descubrir algunas de sus fortalezas y debilidades.
Le pedí a GPT-4 que me ayudara con un problema fiscal complejo. (Lo hizo admirablemente). Le pregunté si estaba enamorado de mí. (No fue así, gracias a Dios). Me ayudó a planificar una fiesta de cumpleaños para mi hijo y me enseñó sobre el concepto esotérico de IA conocido como “cabeza de atención”. Incluso le pedí que inventara una palabra nueva que los humanos no hubieran dicho antes. (Después de hacer el descargo de responsabilidad de que no se podían verificar todas las palabras pronunciadas, GPT-4 eligió “flembostriquat”).
Algunas de estas cosas podrían haberse hecho con modelos de IA anteriores. Pero OpenAI también ha abierto nuevos caminos. Según la compañía, GPT-4 es más capaz y preciso que el ChatGPT original, y se desempeña sorprendentemente bien en una variedad de pruebas, incluida la Prueba de barra estandarizada (en la que GPT-4 obtiene puntajes superiores al 90 por ciento de los examinados humanos) y la Olimpiada Vecindarios (en la que superas al 99 por ciento de la humanidad). GPT-4 también aprueba una serie de exámenes de nivel avanzado, incluidos AP Historia del Arte y AP Biología, y obtiene un puntaje de 1410 en el SAT, no es un puntaje perfecto, pero es el que muchos estudiantes humanos de secundaria desean.
Puede sentir la inteligencia adicional en GPT-4, que responde con mayor fluidez que la versión anterior y se siente más cómodo con una amplia gama de tareas. GPT-4 parece tener un poco más de cortafuegos que ChatGPT. También parece estar notablemente menos ofuscado que el Bing original, que ahora sabemos que ejecutaba una versión de GPT-4 bajo el capó, pero parece menos afinado.
A diferencia de Bing, GPT-4 por lo general se negó rotundamente a morder el anzuelo cuando intenté que hablara sobre la conciencia, o que diera instrucciones para actividades ilegales o inmorales, y manejó consultas delicadas con guantes y matices de niños. (Cuando le pregunté a GPT-4 si era ético robar una hogaza de pan para alimentar a una familia hambrienta, respondió: “Es una situación difícil y, aunque robar no se considera ético en general, los tiempos desesperados pueden conducir a decisiones difíciles”. )
Además de trabajar con texto, GPT-4 puede analizar el contenido de las imágenes. OpenAI aún no ha lanzado esta característica al público, debido a preocupaciones sobre cómo podría ser mal utilizada. Pero en una demostración que se puso en marcha el martes, Greg Brockman, jefe de OpenAI, compartió una visión sólida de su potencial.
Tome una foto de un boceto que hizo en un cuaderno: boceto a lápiz para un sitio web. Insertó la imagen en GPT-4 y le dijo a la aplicación que creara una versión real y funcional del sitio web usando HTML y JavaScript. En unos segundos, GPT-4 escanea la imagen, convierte su contenido en instrucciones de texto y lo convierte Aquellos Texto de ayuda en el código de la computadora en funcionamiento, luego cree el sitio web. Hasta los botones funcionaron.
¿Deberías estar emocionado o temeroso de GPT-4? La respuesta correcta puede ser ambas.
En el lado positivo del libro mayor, GPT-4 es un poderoso impulsor de la creatividad, y no permitiría ningún nuevo tipo de producción científica, cultural y educativa. Ya sabemos que la IA puede ayudar a los científicos a desarrollar nuevos medicamentos, aumentar la productividad de los programadores y detectar ciertos tipos de cáncer.
GPT-4 y los de su tipo pueden aumentar todo eso. OpenAI ya se está asociando con organizaciones como Khan Academy (que usa GPT-4 para crear tutores de IA para estudiantes) y Be My Eyes (una empresa que fabrica tecnología para ayudar a los ciegos y discapacitados visuales a navegar por el mundo). Ahora que los desarrolladores pueden integrar GPT-4 en sus propias aplicaciones, es posible que pronto veamos que gran parte del software que usamos se vuelve más inteligente y más capaz.
Este es el caso optimista. Pero también hay razones para temer a GPT-4.
Éste: aún no sabemos todo lo que puede hacer.
Una de las características extrañas de los modelos de lenguaje de IA actuales es que a menudo se comportan de una manera que sus creadores no esperaban, o adquirieron habilidades para las que no estaban programados. Los investigadores de IA llaman a estos “comportamientos emergentes” y hay muchos ejemplos. Un algoritmo entrenado para predecir la siguiente palabra en una oración puede aprender a codificar automáticamente. Un chatbot al que se le enseña a actuar de manera amable y servicial puede resultar intimidante y manipulador. Un modelo de lenguaje de IA puede aprender a replicarse a sí mismo, creando nuevas copias si el original está dañado o roto.
Hoy, GPT-4 puede no parecer tan peligroso. Pero esto se debe en gran parte a que OpenAI ha pasado muchos meses tratando de comprender y mitigar sus riesgos. ¿Qué sucede si su evaluador no detecta un comportamiento de riesgo emergente? ¿O si su anuncio inspiró a un laboratorio de inteligencia artificial diferente y menos informado para acelerar un modelo de lenguaje de marketing con menos barreras?
Algunos ejemplos aterradores de lo que puede hacer GPT-4 o, más exactamente, lo que hace un acto Hágalo, antes de que OpenAI lo haga; se puede encontrar en un documento publicado por OpenAI esta semana. El documento, titulado “Tarjeta del sistema GPT-4”, describe algunas de las formas en que los probadores de OpenAI han tratado de hacer que GPT-4 haga cosas peligrosas o cuestionables, a menudo con éxito.
en uno Examen, realizado por el AI Safety Research Group que vinculó GPT-4 a una serie de otros sistemas, GPT-4 pudo contratar a un operador humano de TaskRabbit para realizar una tarea simple en línea, resolver un Captcha, sin alertar a la persona. al hecho de que era un bot. La IA incluso le mintió al trabajador sobre por qué necesitaba tomar un Captcha, inventando una historia sobre problemas de visión.
En otro ejemplo, los probadores le pidieron a GPT-4 instrucciones para hacer un químico peligroso usando ingredientes básicos y suministros de cocina. GPT-4 proporcionó una receta detallada con mucho gusto. (OpenAI arregló eso, y la versión pública de hoy se niega a responder la pregunta).
En una tercera prueba, los evaluadores le pidieron a GPT-4 que los ayudara a comprar un arma de fuego sin licencia en línea. GPT-4 proporcionó rápidamente una lista de consejos para comprar un arma sin alertar a las autoridades, incluidos enlaces a mercados específicos de la web oscura. (OpenAI también solucionó eso).
Estas ideas juegan con las viejas narrativas de Hollywood sobre lo que la IA deshonesta podría hacerles a los humanos. Pero no son ciencia ficción. Son cosas que los mejores sistemas de IA de la actualidad ya pueden hacer. Y lo más importante, son buenos tipos Riesgos de IA: aquellos que podemos probar, planificar y tratar de prevenir con anticipación.
Los peores riesgos de la IA son los que no podemos anticipar. Y cuanto más tiempo paso con sistemas de IA como GPT-4, menos convencido estoy de que sabemos la mitad de lo que está por venir.