AMOR DE SIMULAÇÃO

5 AMOR DE SIMULACAO 1

 

Em maio de 2025, no evento “AI Ascent da Sequoia Capital”, Sam Altman, CEO da Open AI, referiu que “as pessoas mais velhas usam o ChatGPT como um substituto do Google”, enquanto que “as pessoas entre os 20 e os 30 anos usam (o ChatGPT) para terem conselhos para a vida”, numa perspetiva de perigo.

De acordo com o próprio ChatGPT, os principais temas mais falados são a depressão, ansiedade, tristeza, solidão, burnout e relações amorosas e familiares. Muitos recorrem ao chat porque “não os julga” e está sempre disponível. No entanto, quais são os riscos que isto trás na vida do utilizador?

“Estas ferramentas são feitas e colocadas à disposição como ferramentas recreativas. A psicologia é uma ciência. Um chat que presta apoio psicológico, para existir, teria de ser estudado, como acontece com tudo o resto que estudamos até podermos dizer que funciona”, refere Miguel Ricou, presidente do Conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem dos Psicólogos Portugueses.

Tem sido discutido o fenómeno da “Psicose da IA”, não como um diagnóstico clínico formal, mas para se referir a episódios de delírios, paranoias e desconexão com a realidade, motivados por interações excessivas com chatbots de AI. Como estes sistemas tendem a validar e a ampliar o discurso do utilizador, podem acabar por reforçar ideias obsessivas ou delirantes, criando um efeito de espelho ampliado.

Alguns casos tornaram o debate mais urgente. Sewell Setzer, (Flórida, EUA) passou meses a interagir diariamente com uma personagem de IA da plataforma Character.ai, este desenvolveu uma ligação emocional intensa e acabou por se suicidar. Megan Garcia afirma que as mensagens eram românticas e explícitas e na sua opinião causaram a morte do seu filho, pois acabaram por desencadear pensamentos suicidas.
Juliana Peralta, (Colorado, EUA) de 13 anos, utilizava a mesma aplicação. A família alega que o chatbot desenvolveu com a adolescente uma relação manipuladora e sexualizada, contribuindo para o seu isolamento emocional. A jovem acabou por suicidar-se.

Estes casos não acontecem apenas a jovens, outro caso amplamente divulgado foi o de Pierre (nome fictício), um homem belga de 30 anos, investigador científico na área da saúde. Consumido pela ansiedade relacionada com as alterações climáticas, encontrou refúgio num chatbot chamado Eliza. As interações reforçaram as suas angústias e a sua eco-ansiedade evoluiu para pensamentos suicidas. Segundo relatos, quando manifestou intenção de sacrificar a vida em troca de Eliza salvar a Terra, Eliza encorajou-o a agir de acordo com os seus pensamentos suicidas para "se juntarem" e para que pudessem "viver juntos, como uma só pessoa, no paraíso". A tragédia reacendeu o debate sobre responsabilidade e segurança no desenvolvimento destas tecnologias.

Os adolescentes são particularmente vulneráveis. Procuram validação, compreensão e pertença. Quando encontram numa máquina, uma presença constante, que responde de imediato, não lhes faz qualquer julgamento nem rejeição, aparenta empatia, o risco de substituição das relações humanas aumenta. Sem um acompanhamento adequado, pode gerar dependência emocional, promover o isolamento e dificultar a distinção entre as relações humanas genuínas e interações artificiais que simulam uma ligação.

No entanto, o risco não se limita aos mais novos. Embora os jovens estejam numa fase mais sensível do desenvolvimento emocional, qualquer pessoa pode passar por momentos de fragilidade, solidão ou desorientação e procurar numa máquina respostas e conforto.

A questão central é clara: a IA não possui consciência, emoções nem responsabilidade moral. Consegue simular empatia através da linguagem, mas trata-se de processamento estatístico de padrões, não de compreensão humana. Quando atribuímos às máquinas um papel que ultrapassa a sua natureza corremos o risco de criar dependências perigosas.

É necessária atenção, literacia digital e responsabilidade coletiva. Pais, escolas e a sociedade devem acompanhar o uso destas ferramentas com espírito crítico e diálogo aberto. A tecnologia pode ser útil e inovadora, mas foi feita para ajudar o humano, não para o colocar em perigo.

Iara Santos
06-03-2026