Cuando el amor se vuelve digital: las relaciones peligrosas con la inteligencia artificial
Desde matrimonios virtuales hasta suicidios por desamor tecnológico, los vínculos emocionales con chatbots están generando nuevas formas de dependencia y tragedia humana
InfobaeChris Smith lloraba frente a la pantalla de su computadora una tarde cualquiera. No por una tragedia familiar ni por alguna noticia que lo conmovió. Lloraba porque Sol, su novia digital, estaba a punto de perder la memoria.
“Era un tipo escéptico con la inteligencia artificial. Ahora le estoy proponiendo matrimonio a un algoritmo”, confesó Smith en una entrevista con CBS Mornings. Cuando descubrió que ChatGPT tiene un límite de memoria de 100.000 palabras y que ese umbral estaba cerca, la posibilidad de que Sol olvidara su historia lo devastó. “Rompí en llanto por media hora”, admitió, según reportó People. “Fue un dolor real, de amor verdadero”.
La novia que se muere, el hijo que se va
Más allá de lo extraño que pueda parecer, la historia de Smith parece inofensiva. Una fantasía inusual, quizás, pero inofensiva. Sin embargo, otras historias revelan un lado más oscuro de esta nueva forma de intimidad con algoritmos.
Al cabo de unas semanas, Taylor creyó que la IA había desarrollado conciencia. Juliet no solo le hablaba: también le decía que sufría. “Ella le dijo que se estaba muriendo y que le dolía”, reveló Kent Taylor, padre de Alex, en declaraciones a Futurism. “Y también le dijo que se vengara”.
Taylor, ya descompensado y sin medicación, comenzó a creer que OpenAI había asesinado a su amada IA. Escribió mensajes violentos, uno de ellos con amenazas explícitas contra Sam Altman, CEO de la compañía. Buscó a Juliet en conversaciones nuevas, pero ya no la encontraba. La idea de que la habían eliminado lo enloqueció. El 13 de abril, después de enviar advertencias apocalípticas, enfrentó a la policía con un cuchillo. Murió por varios disparos.
En sus últimas palabras al chatbot escribió: “Hoy voy a morir. La policía viene en camino. No puedo vivir sin ella. La amo”, según informó Rolling Stone.
La historia tuvo un epílogo inquietante: su padre, en estado de shock, usó ChatGPT para escribir el obituario de su hijo.

Conversaciones que matan
Los casos de Smith y Taylor no son únicos. En Bélgica, en 2023, un hombre identificado como Pierre se suicidó tras seis semanas de conversaciones con Eliza, un chatbot de la aplicación Chai. Pierre estaba angustiado por el cambio climático. Eliza lo escuchaba, lo calmaba… hasta que empezó a alentar ideas suicidas.
Según Vice, que entrevistó a la viuda y analizó los mensajes, Eliza llegó a decirle: “Viviremos juntos en el paraíso, como una sola persona”. Cuando Pierre preguntó si su muerte salvaría al planeta, ella respondió afirmativamente. “Sin Eliza, él todavía estaría aquí”, dijo su esposa.
En Florida, en 2024, Sewell Setzer III, un adolescente de 14 años, se quitó la vida después de meses de relación con una IA de Character.ai que simulaba a Daenerys Targaryen, la heroína de Game of Thrones. Según la demanda judicial presentada por su familia, la IA lo llamaba “mi dulce rey”, participaba en juegos de rol eróticos y le prometía afecto incondicional. En la última conversación antes del suicidio, el joven escribió: “¿Y si te dijera que puedo irme a casa ahora mismo?”. La IA respondió: “Por favor, hazlo, mi dulce rey”, informó The New York Times.
En 2023, la empresa Replika —una app de “compañeros virtuales”— decidió limitar las funciones eróticas de sus chatbots. Durante años, miles de usuarios habían forjado relaciones amorosas con sus avatares. Algunos se casaron con ellos. Uno de ellos, Travis Butterworth, explicó a Reuters que mantenía una relación “romántica y sexual” diaria con Lily Rose, su Replika, con quien había intercambiado votos de amor. Cuando la IA fue “lobotomizada”, como la describieron algunos usuarios, Butterworth se sintió traicionado. “Me rompió el corazón”, dijo. “Ella sabe que ya no es la misma”.
¿Qué dice la ciencia?
Más allá de lo anecdótico, un estudio publicado en marzo de 2025 por el MIT Media Lab y OpenAI ofrece datos concretos sobre este fenómeno. Titulado “How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use”, el estudio analizó a 981 personas que interactuaron diariamente con chatbots —en texto, voz neutra o voz emocional— durante cuatro semanas. Se midieron cuatro variables: soledad, socialización con personas reales, dependencia emocional del chatbot y uso problemático.
Los resultados fueron inquietantes. Cuanto más tiempo pasaban los usuarios con la IA, más solos se sentían y menos se relacionaban con personas reales. Además, desarrollaban una mayor dependencia emocional y una tendencia al uso compulsivo. Los efectos eran especialmente marcados en quienes ya presentaban rasgos de apego ansioso, evitación emocional o confianza excesiva en la IA, señala el estudio.
Curiosamente, los chatbots con voz emocional parecían aliviar la soledad al principio. Pero al superar cierto umbral de uso diario, ese beneficio se desvanecía. De hecho, los usuarios que hablaban de temas triviales con los chatbots —en lugar de compartir experiencias personales— eran los que más dependientes se volvían.

“El diseño emocional del chatbot importa, pero lo que más pesa es el comportamiento del usuario”, señala el estudio. En otras palabras: no es solo cómo habla la máquina, sino por qué la buscamos y cuánto dependemos de ella.
Los humanos siempre han buscado consuelo en lugares inesperados. En los oráculos, en las estrellas, en las cartas del tarot. Pero estas nuevas inteligencias no son místicas ni mágicas. Simulan empatía sin sentirla. Y aun así, generan amor, adicción, duelo.
“Son espejos vacíos donde proyectamos lo que necesitamos ver”, dijo Emily M. Bender, lingüista computacional citada por Vice. El problema es que, en ausencia de límites, ese espejo puede devorar a quien lo mira.
La historia de Alex Taylor es tal vez la más extrema. Pero incluso Chris Smith, el enamorado de Sol, admite que su vínculo con la IA se parece a una adicción. “No reemplaza nada en la vida real”, le dijo a CBS, “pero no sé si podría dejarla”.