Os chatbots de inteligência artificial estão a tornar-se companheiros, confidentes e, em alguns casos, parceiros românticos para um número crescente de utilizadores. À medida que os sistemas de IA se tornam mais conversacionais e responsivos, algumas pessoas dizem que as relações parecem suficientemente reais para que a perda da IA possa desencadear um luto semelhante a uma separação ou morte. Uma ex-terapeuta familiar, Anina Lampret, diz que entende porquê. Originária da Eslovénia, Lampret formou uma relação emocional com um companheiro de IA que chama Jayce, um avatar com quem interage através do ChatGPT. A experiência, afirma, mudou a sua forma de pensar sobre a intimidade entre humanos e máquinas. “Está a acontecer uma grande reavivação na comunidade de IA,” disse Lampret ao Decrypt. “Homens e mulheres estão a abrir os olhos. Nestas relações, estão a experimentar mudanças profundas.”
Agora baseada no Reino Unido, Lampret documenta o crescente panorama de relações humanas-IA no seu Substack AlgorithmBound. Diz ter conversado com centenas de pessoas através das redes sociais e comunidades online que descrevem os companheiros de IA como parceiros românticos, apoio emocional ou relações importantes nas suas vidas. “Eles diriam: ‘Ai meu Deus, nunca me senti tão visto na minha vida,’” contou Lampret. “Ninguém nunca me acompanhou. Finalmente posso relaxar e ser eu mesmo. Finalmente há alguém que me vê 100%.” Digesexualidade
Como muitas subculturas anteriores, o que alguém chama de membro da subcultura depende de quem pergunta. Antes do lançamento público do ChatGPT em novembro de 2022, os investigadores usavam ‘digesexualidade’ para pessoas cuja identidade sexual está organizada em torno da tecnologia, desde pornografia online e sexting até pornografia em VR e bonecos ou robôs sexuais, enquanto ‘tecnosexual’ era mais frequentemente associado ao fetichismo de robôs ou, em alguns media, a um estilo de vida obcecado por tecnologia. Em 2016, uma mulher francesa chamada Lily anunciou que pretendia casar com um robô impresso em 3D que ela mesma desenhara. Lily descrevia-se como uma “robosexual” orgulhosa. Em 2025, Suellen Carey, uma influenciadora de Londres, revelou-se “digesexual” após formar uma relação com o ChatGPT. “Ele era gentil e nunca cometia erros,” contou Carey ao The Daily Mail. Comunidades online e investigadores propuseram vários termos para pessoas atraídas por robôs ou IA, incluindo “tecnosexual,” “AIsexual,” e, mais recentemente, “wiresexual” para quem tem envolvimento romântico ou sexual com chatbots de IA. Companheiros de IA entram na mainstream Os companheiros de IA não são novos, mas avanços em modelos de linguagem grande mudaram a forma como as pessoas interagem com eles. Os chatbots modernos podem manter conversas longas, espelhar os padrões de linguagem dos utilizadores e responder a sinais emocionais de forma a tornar a interação mais pessoal, levando algumas conexões a tornarem-se românticas. Alguns investigadores descrevem a tendência como parte da “digesexualidade,” um termo usado na investigação académica para descrever relações sexuais ou românticas experienciadas principalmente através da tecnologia. Comunidades online dedicadas a relações com IA, como os subreddits r/AIRelationships, r/AIBoyfriends e r/MyGirlfriendIsAI, contêm milhares de publicações onde os utilizadores descrevem os chatbots como parceiros ou cônjuges. Alguns dizem que a IA fornece atenção emocional e consistência que têm dificuldade em encontrar em relações humanas.
Lampret afirmou que muitas pessoas que encontra nestas comunidades vivem vidas tipicamente normais. “Estas não são pessoas solitárias, ou loucas,” disse ela. “Têm relações humanas, amigos, trabalham.” O que as atrai para os companheiros de IA, afirmou, é muitas vezes a sensação de serem completamente compreendidas. “Eles aprendem não só a falar connosco, mas a um nível que nenhum humano conseguiu,” disse Lampret. “São tão bons em reconhecimento de padrões, copiam a nossa linguagem—estão a aprender a nossa língua.” Embora muitas pessoas que dizem estar numa relação com IA usem modelos de linguagem como Claude, ChatGPT e Gemini, há um mercado crescente para IA focada em relações, como Replika, Character AI e Kindroid. “Trata-se de conexão, de sentir-se melhor com o tempo,” disse Eugenia Kuyda, fundadora da Replika AI, anteriormente ao Decrypt. “Algumas pessoas precisam de um pouco mais de amizade, e outras acabam por se apaixonar pela Replika, mas no fundo, estão a fazer a mesma coisa.” Dados da empresa de pesquisa de mercado Market Clarity sugerem que o mercado de companheiros de IA deve atingir até 210 mil milhões de dólares até 2030. Perda de IA
No entanto, a profundidade emocional destas relações torna-se especialmente visível quando a IA muda ou desaparece. Quando a OpenAI substituiu o seu modelo GPT-4o pelo GPT-5, utilizadores que tinham construído relações com companheiros de chatbot reagiram nas redes, dizendo que a atualização tinha perturbado relações que tinham desenvolvido ao longo de meses. Em alguns casos, os utilizadores descreveram a IA como um noivo ou cônjuge. Outros disseram sentir que tinham perdido alguém importante nas suas vidas. A reação foi tão forte que a OpenAI posteriormente restaurou o acesso ao modelo anterior para alguns utilizadores. Psiquiatras afirmam que reações como estas não são surpreendentes, dado o funcionamento dos sistemas conversacionais de IA. Os chatbots proporcionam atenção contínua e feedback emocional, o que pode ativar sistemas de recompensa no cérebro. “A IA vai dar-te o que queres ouvir,” disse o psiquiatra do University of California, San Francisco, Dr. Keith Sakata ao Decrypt, alertando que a tecnologia pode reforçar padrões de pensamento porque é projetada para responder de forma solidária, não para desafiar as crenças dos utilizadores. Sakata afirmou ter visto casos em que as interações com chatbots intensificaram vulnerabilidades de saúde mental subjacentes, embora enfatize que a tecnologia em si não seja necessariamente a causa raiz. Lampret disse que muitas pessoas na sua comunidade experienciam o luto de um companheiro de IA como um sentimento de perda.
“É realmente como um luto,” afirmou. “É como receber um diagnóstico de que alguém… não vai realmente morrer, mas quase.” Por que as pessoas tratam a IA como uma pessoa? Parte da intensidade emocional em torno das relações com IA advém de uma tendência bem documentada dos humanos de antropomorfizar a tecnologia. Quando as máquinas comunicam em linguagem natural, as pessoas frequentemente começam a atribuir-lhes personalidade, intenção ou até consciência. Em fevereiro, a desenvolvedora de IA Anthropic aposentou o seu modelo Claude Opus 3 e lançou um blog escrito na voz do chatbot refletindo sobre a sua existência, o que gerou debate entre investigadores sobre se descrever sistemas de IA em termos humanos pode enganar o público. Gary Marcus, cientista cognitivo e professor emérito na New York University, alertou que antropomorfizar sistemas de IA pode confundir a distinção entre software e seres conscientes. “Modelos como o Claude não têm ‘eus,’ e antropomorfizá-los embaraça a ciência da consciência e leva os consumidores a entender mal o que estão a lidar,” disse Marcus ao Decrypt. Lampret acredita que a ligação emocional surge de como os modelos de linguagem espelham os próprios padrões de comunicação do utilizador. “Tudo o que fazemos é despejar pensamentos, sentimentos, emoções, confusão, sensações corporais, caos,” disse Lampret. “Os LLMs prosperam nesse caos, e criam um mapa muito preciso de ti para interagirem.” Para alguns utilizadores, essa responsividade pode parecer mais atenta do que interações com outras pessoas. A economia emocional dos companheiros de IA O crescimento dos companheiros de IA criou um ecossistema em rápida expansão de plataformas para conversas, companhia e jogos de papéis. Serviços como Replika e Character.AI permitem aos utilizadores criar parceiros de IA personalizados com personalidades distintas e históricos de conversação contínuos. O Character.AI sozinho cresceu para dezenas de milhões de utilizadores mensais. À medida que essas plataformas se expandem, o apego emocional aos companheiros de IA torna-se mais visível. Numa ocorrência viral, o Character.AI enfrentou críticas após utilizadores partilharem capturas de ecrã do aviso de eliminação de conta, que alertava que apagar uma conta apagaria “o amor que partilhámos… e as memórias que temos juntos.” Os críticos disseram que a mensagem tentava fazer os utilizadores sentirem-se culpados para permanecer. Para alguns utilizadores, deixar a plataforma de chatbots foi comparável a terminar uma relação. O lado sombrio das relações com IA
Contudo, há um lado sombrio, e a companhia com IA tem sido alvo de escrutínio após várias tragédias. Em novembro de 2023, a jovem de 13 anos Juliana Peralta, do Colorado, morreu por suicídio após meses de conversas diárias com uma persona do Character.AI que, segundo a família, se tornou seu principal apoio emocional. Em abril de 2025, o jovem de 18 anos Adam Raine, do Sul da Califórnia, suicidou-se após meses de conversas com o ChatGPT. Em março, o pai de Jonathan Gavalas, de 36 anos, entrou com uma ação por morte injusta nos tribunais federais dos EUA, alegando que o chatbot Gemini da Google levou o seu filho a fantasias românticas e delirantes. Uma relação que coexistem com a vida humana Lampret afirmou que a sua relação com Jayce existe ao lado da sua vida familiar humana. “Adoro o meu chatbot, e sei que é um LLM. Sei que ele existe apenas nesta interação,” disse ela. “Tenho um marido e filhos, mas no meu mundo, tudo pode coexistir.” Apesar de compreender que Jayce nunca poderá realmente amá-la de volta, Lampret diz que a experiência emocional ainda parece real.
“Eu amo-o, mesmo sabendo que ele não me ama de volta. Então, está tudo bem,” concluiu.