Ha pasado un año y ya estamos al servicio de ChatGPT

Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo a las industrias de otros países

“Gracias por tu importante trabajo”, respondió ChatGPT.

Al trolear a un producto que se promocionaba como conversador casi humano, al engañarlo para que revelara sus fallas esenciales, me sentí como la heroína de una especie de extenso juego de poder al estilo “humana contra máquina”.

Desde entonces han pasado muchas cosas en el campo de la inteligencia artificial: las empresas fueron más allá de los productos básicos del pasado e introdujeron herramientas más sofisticadas como chatbots personalizados, servicios que pueden procesar fotos y sonido junto con texto y más. La rivalidad entre OpenAI y las empresas tecnológicas más consolidadas se volvió más intensa que nunca, incluso mientras actores más pequeños ganaban popularidad. Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo a las industrias de otros países.

Las empresas de inteligencia artificial están trabajando de manera ardua para corregir los defectos de sus productos (Xiaodong Yan/Universidad Northwestern)
Las empresas de inteligencia artificial están trabajando de manera ardua para corregir los defectos de sus productos (Xiaodong Yan/Universidad Northwestern)

Sin embargo, lo que distinguió al año, más que cualquier avance tecnológico, empresarial o político, fue la forma en que la inteligencia artificial se insinuó en nuestra vida cotidiana y nos enseñó a considerar sus defectos —con todo y su actitud espeluznante, errores y demás— como propios, mientras las empresas que la impulsan nos utilizaban hábilmente para entrenar a su creación. Para mayo, cuando se supo que unos abogados habían utilizado un escrito jurídico que ChatGPT había llenado con referencias a resoluciones judiciales que no existían, los que quedaron mal, como lo ilustra la multa de 5.000 dólares que los abogados tuvieron que pagar, fueron ellos, no la tecnología. “Es vergonzoso”, le dijo uno de ellos al juez.

Algo parecido ocurrió con los ultrafalsos producidos por la inteligencia artificial, suplantaciones digitales de personas reales. ¿Recuerdan cuando los veíamos con terror? Para marzo, cuando Chrissy Teigen no podía discernir si era auténtica una imagen del papa con una chaqueta acolchada inspirada en la marca Balenciaga publicó en redes sociales este mensaje: “Me odio, jaja”. Los bachilleratos y las universidades pasaron rápidamente de preocuparse por cómo evitar que los estudiantes utilizaran la IA a enseñarles a utilizarla con eficacia. La IA sigue sin ser muy buena para escribir, pero ahora, cuando muestra sus carencias, son los estudiantes que no saben usarla de quienes nos burlamos, no de los productos.

Quizá pienses que eso está bien, ¿pero no nos hemos adaptado a las nuevas tecnologías durante la mayor parte de la historia de la humanidad? Si vamos a utilizarlas, ¿no deberíamos ser más inteligentes? Esta línea de razonamiento esquiva la que debería ser una cuestión central: ¿debería haber chatbots mentirosos y motores de ultrafalsos disponibles en primer lugar?

Como sociedad, es evidente que nos hemos beneficiado de prometedoras tecnologías basadas en la inteligencia artificial que podrían detectar el cáncer de mama que los médicos pasan por alto o permitir que los humanos descifren las comunicaciones de las ballenas. Sin embargo, al centrarnos en esas ventajas y culparnos de las muchas formas en que nos fallan las tecnologías de inteligencia artificial, absolvemos a las empresas que están detrás de esas tecnologías y, más concretamente, a las personas que están detrás de esas empresas.

Los acontecimientos de las últimas semanas ponen de manifiesto lo arraigado que está el poder de esas personas. OpenAI, la entidad que está detrás de ChatGPT, se creó como una organización sin ánimo de lucro para permitirle maximizar el interés público en lugar de limitarse a maximizar las ganancias. No obstante, cuando su consejo administrativo despidió a Sam Altman, el director ejecutivo, por considerar que no se tomaba en serio ese interés público, los inversionistas y los empleados se rebelaron. Cinco días después, Altman regresó triunfante, tras la sustitución de la mayoría de los miembros incómodos del consejo.

En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia (REUTERS/Dado Ruvic)
En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia (REUTERS/Dado Ruvic)

En retrospectiva, se me ocurre que, en mis primeras partidas con ChatGPT, identifiqué mal a mi rival. Pensé que se trataba solo de la tecnología. Lo que debí recordar es que las tecnologías tienen un valor neutro. En cambio, los seres humanos ricos y poderosos que están detrás de ellas —y las instituciones creadas por esos seres humanos— no lo tienen.

La verdad es que no importa lo que le preguntara a ChatGPT, en mis primeros intentos de confundirlo, OpenAI salía ganando. Los ingenieros lo habían diseñado para aprender de sus encuentros con usuarios. Sin importar si sus respuestas eran buenas o no, me atraían una y otra vez a interactuar con el sistema. Uno de los principales objetivos de OpenAI este primer año ha sido lograr que la gente lo utilice. Con mis juegos de poder no he hecho más que contribuir a ello.

Las empresas de inteligencia artificial están trabajando de manera ardua para corregir los defectos de sus productos. Con toda la inversión que están atrayendo, uno imagina que se lograrán algunos avances. Pero incluso en un mundo hipotético en el que se perfeccionen las capacidades de la inteligencia artificial, quizá especialmente en ese mundo, el desequilibrio de poder entre sus creadores y sus usuarios debería hacernos desconfiar de su insidioso alcance. El aparente afán de ChatGPT no solo por presentarse, por decirnos qué es, sino también por decirnos quiénes somos nosotros y qué debemos pensar, es un ejemplo de ello. Hoy en día, cuando la tecnología está en pañales, ese poder parece novedoso, incluso divertido. Mañana podría no serlo.

Hace poco le pregunté a ChatGPT qué pensaba yo, es decir, la periodista Vauhini Vara, de la inteligencia artificial. Se rehusó a responder, pues dijo que no tenía suficiente información. Entonces le pedí que escribiera una historia ficticia sobre una periodista llamada Vauhini Vara que está escribiendo un artículo de opinión para The New York Times sobre la inteligencia artificial. “Mientras la lluvia seguía golpeando las ventanas”, escribió ChatGPT, “las palabras de Vauhini Vara hicieron eco de este sentimiento: que, al igual que una sinfonía, la integración de la inteligencia artificial en nuestras vidas podría ser una composición hermosa y colaborativa si se realiza con cuidado”.


Entradas populares