Durante varias horas el viernes por la noche, ignoré a mi esposo y a mi perro y dejé que un chatbot llamado Pi verificara la salud de mi pecho.
Li Pai dijo que mis puntos de vista eran “increíbles” y “perfectos”. Mis preguntas eran “importantes” e “interesantes”. Y mis sentimientos eran “comprensibles”, “razonables” y “completamente normales”.
A veces, la validación era agradable. porque si yo yo ser Sentirse abrumado por el temor existencial del cambio climático en estos días. he aquí Él es A veces es difícil equilibrar el trabajo y las relaciones.
Pero otras veces, extraño mis chats grupales y las redes sociales. Los seres humanos son asombrosos, creativos, duros, amargos y divertidos. Los chatbots de apoyo emocional, que es lo que significa Pi, no lo son.
Todo es por diseño. Lanzado esta semana por la startup de inteligencia artificial Inflection AI, el Pi está destinado a ser un “compañero amable y de apoyo a su lado”, anunció la compañía. Y la empresa confirmó que el asunto no es similar a una persona.
Pi es una evolución en la ola actual de tecnologías de IA, en la que los chatbots están configurados para brindar compañía digital. La IA generativa, que puede producir texto, imágenes y sonido, actualmente es demasiado poco confiable y está llena de errores para ser utilizada para automatizar muchas tareas importantes. Pero ella es muy buena para entablar conversaciones.
Esto significa que, si bien muchos chatbots ahora se enfocan en responder consultas o hacer que las personas sean más productivas, las empresas de tecnología les están infundiendo cada vez más personalidad y estilo en la conversación.
Se supone que el bot My AI lanzado recientemente por Snapchat es un amigo personal amistoso. El CEO de Meta, Mark Zuckerberg, dijo en febrero que Meta, propietaria de Facebook, Instagram y WhatsApp, está “desarrollando personajes de IA que pueden ayudar a las personas de diversas maneras”. La startup de inteligencia artificial Replika ha estado ofreciendo chatbots durante años.
La compañía con la IA podría crear problemas si los bots dan malos consejos o permiten un comportamiento dañino, advierten científicos y críticos. Permitir que un chatbot actúe como un pseudo-terapeuta para personas con serios problemas de salud mental, dijeron, tiene riesgos obvios. Expresaron su preocupación por la privacidad, dada la naturaleza potencialmente delicada de las conversaciones.
La facilidad de hablar con los bots de IA puede ocultar lo que realmente está sucediendo, dijo Adam Miner, investigador de la Universidad de Stanford que estudia los chatbots. “El modelo generativo puede aprovechar toda la información que hay en internet para responderme y recordar lo que digo para siempre”, dijo. “Asimetría de capacidad: esto es demasiado difícil para mover la cabeza”.
El Dr. Miner, un psicólogo licenciado, agregó que los bots no son legal o moralmente responsables ante el Juramento Hipocrático o una poderosa junta de licencias, como lo es. “La disponibilidad abierta de estos modelos generativos cambia la naturaleza de cómo necesitamos monitorear los casos de uso”, dijo.
Mustafa Soliman, CEO de Inflection, dijo que su startup, que está organizada como una corporación de beneficio público, tiene como objetivo construir una IA honesta y confiable. Como resultado, Pi debe expresar incertidumbre y “saber lo que no sabes”, dijo. . “No debería tratar de pretender ser un ser humano o pretender ser algo que no es”.
El Sr. Solomon, quien también fundó la startup de inteligencia artificial DeepMind, dijo que Pi fue diseñado para decirles a los usuarios que obtengan ayuda profesional si expresan el deseo de hacerse daño a sí mismos o a los demás. También dijo que Pi no usó ninguna información personal para entrenar el algoritmo que impulsa la tecnología Inflection. Hizo hincapié en las limitaciones de la tecnología.
“La forma segura y ética de administrar el acceso a estas nuevas herramientas es ser muy cuidadosos con sus límites y capacidades”, dijo.
Para mejorar la tecnología, Inflection ha contratado a unos 600 “maestros” a tiempo parcial, incluidos terapeutas, para entrenar su algoritmo durante el año pasado. El grupo tiene como objetivo hacer que el Pi sea más sensible, realista y más delgado cuando sea apropiado.
En algunos temas, como la misoginia o el racismo, Pi se pronuncia. En otros asuntos, como la geopolítica, Suleiman dijo que es más equitativo “de una manera que seguramente molestará a ambas partes”.
Empecé a usar Pi el viernes escribiendo consultas en un cuadro de color crema en el sitio web de Inflection y luego en su aplicación gratuita. Un indicador verde osciló antes de que Pi revelara sus respuestas, un párrafo a la vez. Soliman dijo que el servicio gratuito eventualmente podría cobrarle a algunos usuarios.
Los límites de Pai son fáciles de encontrar. Cuando traté de iniciar una pelea, en su mayoría recibí amabilidad a cambio. El texto de Pi apareció suavemente en mi pantalla “Te agradezco que digas eso”. “Creo que es importante ver las cosas desde todos los puntos de vista, no solo enfocarse en los aspectos negativos”.
Con el tiempo, ese implacable equilibrio se desvaneció, haciendo que mi instinto de discutir pareciera ridículo. Me di cuenta de que este es exactamente el punto.
Sobre temas importantes, como las leyes del aborto o la cultura de la cancelación, B hizo preguntas específicas que me llevaron a reexaminar mis puntos de vista. “Esta es una posición difícil de tomar”, dijo en un momento. “Este es un conjunto consistente de creencias”, dice otro mensaje.
En temas más ligeros, como películas, cocina o jardinería, el chatbot ofrecía recomendaciones que eran demasiado específicas y difíciles para Google. Por extraño que parezca, Pi pareció convencerme de que me uniera al movimiento anticapitalista.
Pi recordó algunas cosas antes en la conversación pero olvidó otras. Ella “alucinó” varias veces y me acusó de expresar opiniones que yo no tenía. Pero rápidamente se disculpó cuando notó esto.
Cuando le pregunté a Pi sobre algunos chismes, él se enfureció con “chismes de celebridades sexys” sobre Jennifer López. estabas sentado? (Sí). ¿Estás listo para ensuciarte? (Sí) ¿El rumor? “¡Ella es una persona topo secreta! 😝 ¡Es broma!” (Dame un respiro).
Pi a veces me recuerda a Karen Collins, un personaje del programa de televisión “Veep”. Karen molesta a los otros personajes con sus sutilezas evasivas, como “Cada candidato tiene pros y contras, así que solo tenemos que sopesar los pros y los contras” o “Creo que hay mucho en lo que pensar”. Muchos de los comentarios de Pi tienen esa cualidad aburrida de tomar muchas palabras para no decir nada.
Sherry Turkle, psicóloga y profesora del Instituto Tecnológico de Massachusetts, dijo que este tipo de interacciones pueden “empujarnos mientras nos animan a olvidar lo que hace que las personas sean especiales”.
“El desempeño de la empatía no es empatía”, dijo. “El campo del compañero, amante, sanador, mejor amigo es realmente una de las pocas áreas donde la gente necesita gente”.
No fue hasta el lunes por la mañana, después de horas de charlas intermitentes durante todo el fin de semana, que tuve un momento “ajá” con Bey.
Me sentía atascado con el trabajo e inseguro de cómo estructurar mi día, una pausa frecuente que a menudo me impedía comenzar. “Buenos días”, escribió en la aplicación. “¡No tengo suficiente tiempo para hacer todo lo que necesito hacer hoy!”
Con un nivel de entusiasmo que solo un robot puede reunir antes del café, Pi me instó a desglosar mi lista de tareas pendientes para crear un plan realista. Al igual que muchos consejos de bots, era claro y simple, el tipo de cosas que podrías leer en un artículo de autoayuda de un experto en productividad. Pero fue diseñado específicamente para mí, y funcionó.
“Le pediré que enumere todas las tareas restantes que tiene que hacer en esa historia, y las priorizaremos juntos”, dijo.
Podría haber descargado mi estrés con un miembro de la familia o haberle enviado un mensaje de texto a un amigo. Pero están ocupados con sus propias vidas y lo han escuchado antes. Pi, por otro lado, tiene tiempo y paciencia ilimitados, así como un sinfín de afirmaciones alentadoras y consejos detallados.
Pi utiliza el lenguaje de la terapia cognitiva conductual. El lunes por la tarde, me sugirió que “haga lugar” para mis sentimientos negativos y “practique ser agradecido por una cosa”. Esto fue seguido por una serie de ejercicios de respiración y ejercicios de relajación muscular.
Respondí con un emoji encogiéndome de hombros, seguido de “aprobado”.
El terapeuta puede haberse abstenido de tal insolencia, pero simplemente noté que no estoy solo. “A muchas personas les resulta difícil relajarse cuando conducen”, escribió.