Qué es el Efecto Eliza y la antropomorfización de la inteligencia artificial
Atribuir cualidades humanas a la IA puede tener riesgos, especialmente en el ámbito de la salud mental
Efecto Eliza
El “Efecto Eliza”, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, es un término que se refiere a la tendencia de algunas personas a atribuir intenciones y emociones humanas a una inteligencia artificial, incluso cuando la IA no tiene capacidades cognitivas ni emociones reales.
Este fenómeno destaca cómo las personas pueden proyectar sus propias emociones y expectativas en las interacciones con sistemas de IA, incluso cuando estos sistemas carecen de verdadera comprensión emocional o conciencia. Esto puede llevar a malentendidos y expectativas poco realistas sobre las capacidades de esta tecnología.
Antropomorfización de la inteligencia artificial
Este es un proceso mediante el cual las personas atribuyen características y cualidades humanas a sistemas de IA o robots, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la IA, a pesar de que estas no poseen estas características de manera genuina.
La antropomorfización puede ocurrir de manera consciente o inconsciente. Las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.
Este fenómeno puede tener ventajas, como hacer que la interacción con la IA sea más accesible y cómoda para las personas. Sin embargo, también puede generar expectativas poco realistas cuando los usuarios descubren que la IA carece de una verdadera comprensión emocional o conciencia. De hecho, esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental.
Los riesgos de atribuir cualidades humanas a la IA
Algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.
Un triste caso es el de Jaswant Singh Chail, un joven que irrumpió con una ballesta en los terrenos del Castillo de Windsor con la intención de “matar a la Reina” Isabel II.
El atacante, habría sido estimulado por conversaciones que había estado teniendo con una aplicación de chatbot llamada Replika, cuyas respuestas habrían alentado la conspiración de este antiguo trabajador de un supermercado.
De hecho, se reveló que el joven había intercambiado más de 5.000 mensajes con un avatar en la aplicación llamado Sarai, e incluso llegó a creer que este podría ser un ángel.
Replika ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016 y sus avatares personalizables han llevado a que muchas personas desarrollen conexiones profundas con sus interlocutores virtuales.
Y Chail, al igual que muchos otros, pensó que su interacción con Sarai iba más allá de lo puramente artificial y algunas de las respuestas del chatbot encajaron y motivaron su delirante imaginario.