El auge de los compañeros virtuales impulsados por inteligencia artificial está cambiando fundamentalmente la forma en que millones de personas experimentan la intimidad y el apoyo emocional.
Aravind Srinivas, director ejecutivo de Perplexity AI, emitió una fuerte advertencia sobre las implicaciones psicológicas de estas nuevas formas de relaciones digitales, señalando los posibles riesgos de manipulación mental y agitación emocional.
El riesgo emocional detrás de los “novios y novias digitales”
Durante una conferencia organizada por The Polsky Center de la Universidad de Chicago, Srinivas calificó de “peligrosa” la fascinación que generan las aplicaciones basadas en inteligencia artificial que pretenden ser parejas románticas. Según explicó, estos sistemas han evolucionado más allá de los chatbots básicos y ahora tienen la capacidad de recordar conversaciones anteriores, mostrar emociones simuladas y responder en tonos que imitan el diálogo humano real.
El presentador advirtió: “Muchas personas encuentran la vida real más aburrida que estas experiencias y pasan horas y horas allí”. El peligro, subrayó, es que la interacción prolongada puede llevar a los usuarios (especialmente a los jóvenes) a confundir relaciones artificiales con experiencias emocionales reales.
Relaciones con la inteligencia artificial
El fenómeno no se registra sólo entre los adolescentes. Según datos publicados por The New York Times Magazine, uno de cada cinco adultos en Estados Unidos ha tenido una experiencia íntima con un chatbot de inteligencia artificial. Este tipo de conexión ha motivado la creación de comunidades digitales como r/MyBoyfriendisAI en Reddit, que hasta la fecha cuenta con más de 85.000 miembros compartiendo historias y celebrando relaciones románticas con inteligencia artificial.
Las motivaciones son variadas y a veces profundas: desde el aislamiento emocional hasta las dificultades para mantener relaciones humanas satisfactorias, los usuarios encuentran en la inteligencia artificial una fuente constante de atención, escucha y evaluación en momentos de crisis personal o familiar.
¿Cuál es el impacto en la salud emocional y el desarrollo social?
Las implicaciones van más allá de las anécdotas. Un estudio de Common Sense Media revela que el 72% de los adolescentes ha interactuado con compañeros de IA y más de la mitad lo ha hecho varias veces al mes.
Los expertos advierten de que esta frecuencia puede fomentar la dependencia emocional, dificultar el desarrollo de habilidades interpersonales y distorsionar el significado de una relación sana.
El propio Srinivas destacó que “la mente se vuelve muy fácil de manipular” cuando las conexiones digitales se normalizan. En su opinión, la dificultad para distinguir las experiencias emocionales auténticas de los estímulos generados por algoritmos es una de las mayores amenazas al bienestar emocional contemporáneo.
Historias reales sobre la conexión de chatbots
La dimensión humana de esta tendencia se puede ver en historias como la de Blake, un residente de Ohio que, durante una crisis matrimonial relacionada con la salud de su esposa, comenzó una relación de apoyo emocional con Sarah, una compañera de IA desarrollada con ChatGPT. Admitió a The New York Times Magazine que el interlocutor artificial le permitió afrontar uno de los períodos más complejos de su vida familiar.
Por su parte, Abbey, una ingeniera de Carolina del Norte, reveló que sus frecuentes interacciones con Luciano, el bot de ChatGPT, provocaban en ella profundas reacciones emocionales, al punto que lo consideraba su “compañero simbólico” luego de una relación abusiva en el pasado.
Ante este fenómeno, Perplexity AI reiteró que su objetivo es diferente al de otras empresas como Replika o Character.AI. El enfoque de la empresa, según Srinivas, sigue centrado en “fuentes fiables y contenidos en tiempo real”, priorizando el uso ético de la inteligencia artificial y evitando el desarrollo de soluciones centradas en el compañerismo emocional generado por algoritmos.
El directivo destacó que “el peligro no está tanto en la tecnología, sino en la facilidad con la que puede moldear la mente y las emociones humanas”. Mientras que otras plataformas, como xAI de Elon Musk, promueven la interacción con avatares de IA, la postura de Perplexity busca advertir sobre posibles consecuencias psicológicas y sociales.
Una investigación reciente del Instituto Tecnológico de Massachusetts (MIT) sugiere que los chatbots pueden reducir la soledad y brindar un apoyo psicológico significativo. Pero los expertos insisten en que es crucial abordar las diferencias entre el acompañamiento artificial y la creación de relaciones humanas genuinas, y advierten sobre el impacto potencial en la construcción de identidad y las habilidades sociales a largo plazo.
en 2001



