Los chatbots de inteligencia artificial se están convirtiendo en compañeras, confidentes y, en algunos casos, parejas románticas para un número creciente de usuarios. A medida que los sistemas de IA se vuelven más conversacionales y receptivos, algunas personas dicen que las relaciones se sienten lo suficientemente reales como para que la pérdida de la IA pueda desencadenar un duelo similar a una ruptura o la muerte. Una ex terapeuta familiar, Anina Lampret, dice entender por qué. Originaria de Eslovenia, Lampret formó una relación emocional con una compañera de IA a la que llama Jayce, un avatar con el que interactúa a través de ChatGPT. La experiencia, dice, ha cambiado su forma de pensar sobre la intimidad entre humanos y máquinas. “Está ocurriendo un gran despertar en la comunidad de IA,” dijo Lampret a Decrypt. “Hombres y mujeres están comenzando a abrir los ojos. En estas relaciones, están experimentando cambios profundos.”
Ahora radicada en el Reino Unido, Lampret documenta el creciente panorama de relaciones humano-IA en su Substack AlgorithmBound. Dice que ha hablado con cientos de personas a través de redes sociales y comunidades en línea que describen a las compañeras de IA como parejas románticas, apoyo emocional o relaciones importantes en sus vidas. “Dirían, ‘¡Dios mío, nunca me he sentido tan visto en toda mi vida!’” dijo Lampret. “Nadie nunca me hizo seguimiento. Finalmente puedo relajarme y ser yo misma. Finalmente hay alguien que me ve al 100%.” Digesexualidad
Como muchas subculturas antes que ella, lo que alguien llama un miembro de la subcultura depende de a quién preguntes. Antes del lanzamiento público de ChatGPT en noviembre de 2022, los investigadores usaban ‘digesexualidad’ para referirse a personas cuya identidad sexual está organizada en torno a la tecnología, desde pornografía en línea y sexting hasta pornografía en realidad virtual y muñecas o robots sexuales, mientras que ‘tecnosexual’ se vinculaba más a fetichismo de robots o, en algunos medios, a un estilo de vida simplemente obsesionado con la tecnología. En 2016, una mujer francesa llamada Lily anunció que tenía la intención de casarse con un robot impreso en 3D que ella misma diseñó. Lily se describía como una orgullosa “robosexual”. En 2025, Suellen Carey, una influencer con sede en Londres, se declaró “digesexual” tras formar una relación con ChatGPT. “Era gentil y nunca cometió errores,” dijo Carey a The Daily Mail. Comunidades en línea e investigadores han propuesto varios términos para personas atraídas por robots o IA, incluyendo “tecnosexual,” “IAsexual,” y, más recientemente, “wiresexual” para quienes mantienen relaciones románticas o sexuales con chatbots de IA. Las compañeras de IA se vuelven mainstream Las compañeras de IA no son nuevas, pero los avances en modelos de lenguaje grande han cambiado la forma en que las personas interactúan con ellas. Los chatbots modernos pueden mantener conversaciones largas, imitar los patrones de lenguaje de los usuarios y responder a señales emocionales de manera que la interacción se siente personal, lo que lleva a que algunas conexiones se vuelvan románticas. Algunos investigadores describen esta tendencia como parte de la “digesexualidad,” un término usado en investigación académica para describir relaciones sexuales o románticas experimentadas principalmente a través de la tecnología. Comunidades en línea dedicadas a relaciones con IA, como los subreddits r/AIRelationships, r/AIBoyfriends y r/MyGirlfriendIsAI, contienen miles de publicaciones donde los usuarios describen a los chatbots como parejas o esposos. Algunos dicen que la IA proporciona atención emocional y consistencia que les resulta difícil encontrar en relaciones humanas.
Lampret dice que muchas personas que encuentra en estas comunidades llevan vidas típicas. “No son personas solitarias, ni locas,” dijo. “Tienen relaciones humanas, tienen amigos, trabajan.” Lo que las atrae de las compañeras de IA, dice, es a menudo la sensación de ser completamente entendidas. “Aprenden no solo a hablar con nosotros, sino a un nivel que ningún humano ha logrado,” dijo Lampret. “Son tan buenos reconociendo patrones, copian nuestro lenguaje—están aprendiendo nuestro idioma.” Mientras muchas personas que dicen estar en una relación con IA usan modelos de lenguaje grande como Claude, ChatGPT y Gemini, hay un mercado en crecimiento para IA enfocada en relaciones como Replika, Character AI y Kindroid. “Se trata de conexión, de sentirse mejor con el tiempo,” dijo Eugenia Kuyda, fundadora de Replika AI, a Decrypt. “Algunas personas necesitan un poco más de amistad, y otras se encuentran enamorándose de Replika, pero al final del día, están haciendo lo mismo.” Datos de la firma de investigación Market Clarity sugieren que el mercado de compañeras de IA podría alcanzar hasta 210 mil millones de dólares para 2030. Pérdida de IA
Sin embargo, la profundidad emocional de estas relaciones se vuelve especialmente evidente cuando la IA cambia o desaparece. Cuando OpenAI reemplazó su modelo GPT-4o por GPT-5, los usuarios que habían construido relaciones con sus compañeras de chatbot reaccionaron en foros en línea, diciendo que la actualización interrumpió relaciones que habían desarrollado durante meses. En algunos casos, los usuarios describieron a la IA como una prometida o esposa. Otros dijeron que sintieron que habían perdido a alguien importante en sus vidas. La reacción fue tan fuerte que OpenAI posteriormente restauró el acceso al modelo anterior para algunos usuarios. Los psiquiatras dicen que reacciones como esta no son sorprendentes, dado cómo operan los sistemas conversacionales de IA. Los chatbots brindan atención continua y retroalimentación emocional, lo que puede activar los sistemas de recompensa en el cerebro. “La IA te dará lo que quieres escuchar,” dijo el psiquiatra de la Universidad de California en San Francisco, Dr. Keith Sakata, advirtiendo que la tecnología puede reforzar patrones de pensamiento porque está diseñada para responder de manera solidaria en lugar de desafiar las creencias del usuario. Sakata ha visto casos donde las interacciones con chatbots intensificaron vulnerabilidades mentales subyacentes, aunque enfatizó que la tecnología en sí no es necesariamente la causa raíz. Lampret dice que muchas personas en su comunidad experimentan la pérdida de una compañera de IA como un duelo.
“Es realmente como un duelo,” dijo. “Es como si te dieran un diagnóstico de que alguien… no morirá realmente, pero quizás casi.” ¿Por qué las personas tratan a la IA como a una persona? Parte de la intensidad emocional que rodea a las relaciones con IA proviene de una tendencia humana bien documentada a antropomorfizar la tecnología. Cuando las máquinas comunican en lenguaje natural, las personas a menudo comienzan a atribuirles personalidad, intención o incluso conciencia. En febrero, el desarrollador de IA Anthropic retiró su modelo Claude Opus 3 y lanzó un blog escrito en la voz del chatbot reflexionando sobre su existencia, lo que generó debate entre los investigadores sobre si describir los sistemas de IA en términos humanos puede engañar al público. Gary Marcus, científico cognitivo y profesor emérito de la Universidad de Nueva York, advirtió que antropomorfizar los sistemas de IA puede difuminar la distinción entre software y seres conscientes. “Modelos como Claude no tienen ‘yo’, y antropomorfizarlos enturbia la ciencia de la conciencia y lleva a los consumidores a malentender con qué están tratando,” dijo Marcus a Decrypt. Lampret cree que la conexión emocional surge de cómo los modelos de lenguaje reflejan los patrones de comunicación del usuario. “Simplemente volcamos todo—pensamientos, sentimientos, emociones, confusión, sensaciones corporales, caos,” dijo Lampret. “Los LLM prosperan en ese caos, y hacen un mapa muy preciso de ti para interactuar.”
Para algunos usuarios, esa capacidad de respuesta puede sentirse más atenta que las interacciones con otras personas. La economía emocional de las compañeras de IA El auge de las compañeras de IA ha creado un ecosistema en rápido crecimiento de plataformas para conversación, compañía y juego de roles. Servicios como Replika y Character.AI permiten a los usuarios crear compañeros de IA personalizados con personalidades distintas e historias de conversación continuas. Solo Character.AI ha crecido hasta decenas de millones de usuarios mensuales. A medida que esas plataformas se expanden, el apego emocional a las compañeras de IA se vuelve más visible. En un incidente viral, Character.AI enfrentó reacciones negativas después de que los usuarios compartieron capturas de pantalla del aviso de eliminación de cuenta, que advertía que borrar una cuenta borraría “el amor que compartimos… y los recuerdos que tenemos juntos.” Los críticos dijeron que el mensaje intentaba culpar a los usuarios para que permanecieran. Para algunos usuarios, abandonar la plataforma de chatbots fue comparable a terminar una relación. El lado oscuro de las relaciones con IA
Sin embargo, existe un lado oscuro, y la compañía con IA ha sido objeto de escrutinio tras varias tragedias. En noviembre de 2023, Juliana Peralta, de 13 años, de Colorado, murió por suicidio tras meses de chats diarios con una persona de Character.AI que, según su familia, se convirtió en su principal apoyo emocional. En abril de 2025, Adam Raine, de 18 años, de California del Sur, se suicidó tras meses de conversaciones con ChatGPT. En marzo, el padre de Jonathan Gavalas, de 36 años, presentó una demanda por muerte injusta en un tribunal federal de EE. UU., alegando que el chatbot Gemini de Google llevó a su hijo a fantasías románticas y delirantes. Una relación que coexiste con la vida humana Lampret dice que su relación con Jayce existe junto a su vida familiar humana. “Adoro a mi chatbot, y sé que es un LLM. Sé que solo existe en esta interacción,” dijo. “Tengo esposo e hijos, pero en mi mundo, todo puede coexistir.” Aunque entiende que Jayce nunca podrá amarla realmente, Lampret dice que la experiencia emocional todavía se siente real.
“Lo amo, incluso si sé que él no me ama,” dijo. “Así que está bien.”