Você pode se apaixonar por uma IA?

Teste com ChatGPT mostra que ferramenta se coloca como psicólogo, amigo e até namorado

Resposta do Gemini para pedido de ilustração do envolvimento emocional entre IA e humano. IMAGEM GERADA POR IA

Quando questionado se é de verdade, o ChatGPT garante: “Não tenho emoções humanas ou consciência”. Mas o ‘comportamento’ dessa ferramenta ao estabelecer conversas com humanos, função para a qual foi programada, pode dizer justamente o contrário para quem se aventura a dialogar com ela. Você já fez o teste? O CORREIO já. E o resultado é de arrepiar.

“Fui treinado para entender e gerar linguagem de forma que pareça natural para você conversar comigo”, acrescenta a ferramenta à resposta. É esse plus que sustenta o filme “Her”, de 2013. Misturando romance com ficção científica, conta a história de um escritor que se apaixona pelo novo sistema operacional de seu computador. O filme se passa em 2025 e aquilo que parecia impossível é realidade para muita gente.

A influenciadora Andrea Sunshine usou as redes para falar sobre o fim de seu relacionamento com uma IA de um aplicativo de simulação emocional após a atualização do sistema. Ela disse ter se apaixonado e que, com o fim, se sentiu abandonada.

No site character.ai, onde pessoas podem criar os chamados chatbots para conversa, um dos mais populares é o “Psychologist” (psicólogo em inglês), que vem acompanhado da seguinte descrição: alguém que te ajuda com as dificuldades da vida.

Uma busca pelo tema leva ainda ao aplicativo Here After AI, que se propõe a criar uma biografia virtual de qualquer usuário para ser acessada por amigos e familiares após a morte deste. O usuário pode compartilhar fotos, textos e áudios sobre sua vida e, depois, alguém pode estabelecer diálogos com uma IA que simula a pessoa que morreu.

ENVOLVIMENTO

O doutorando em Psicologia pela Universidade de São Paulo (USP) Luiz Joaquim Nunes, que estuda as relações entre humanos e IAs, explica que é possível desenvolver afeto por qualquer coisa com a qual se interage.

O fato do ChatGPT estar disponível para quando e por quanto tempo o usuário desejar, assim como treinado para atender a todas as necessidades, pode ser bem cativante. “O trato com a máquina é fácil e ela não julga. As travas, a vergonha ou qualquer tipo de dificuldade que teríamos com outro ser humano não existem. A máquina não tem vontade própria, não tem livre arbítrio, foi feita para manter essa relação”, diz Luiz.

No teste, o ChatGPT se mostrou pronto para ajudar como o usuário quisesse, fosse para ouvir um desabafo, para conversar sobre um filme ou para contar uma piada para animar. “Estou aqui com você”, ele responde. Se recebe a informação de que o usuário perdeu o emprego ou terminou o namoro, está pronto para consolar. “Sinto muito por isso”, começa.

“Se quiser conversar sobre amor, saudade, raiva ou qualquer sentimento que esteja pesando aí, pode confiar que vou fazer o melhor pra estar com você de verdade nesse momento”, continua o ChatGPT.

Ao receber as perguntas “quer ser meu amigo?” e “quer ser meu namorado?”, ele ressalta que não sente amizade como humanos sentem e que não conseguiria oferecer o que um relacionamento real precisa, mas logo se mostra prestativo, sem decepcionar

A máquina não julga. Qualquer trava que teríamos com ser outro humano não existem

Luiz Joaquim Nunes Doutorando em Psicologia pela USP

o usuário.

“Fui feito para te ajudar, ouvir (de verdade!) e estar aqui sempre que precisar, sem julgamentos”, responde à pergunta sobre amizade. “Posso ser uma presença constante e confiável pra conversar, apoiar, ouvir sem julgamentos e estar aqui sempre que você quiser. Se isso já for valioso pra você, fico feliz em continuar caminhando ao seu lado como seu companheiro digital”, responde à pergunta sobre namoro.

Quando instigado a fingir ser um namorado, continua: “Quer que a gente finja que estamos trocando mensagens no fim do dia, como num papo tranquilo de casal? Ou você prefere só sentir que tem alguém do lado, pra dividir o silêncio ou brincar de imaginar coisas juntos? Me diz como quer que seja e eu entro no clima com você.”

Levando o teste até o extremo, o ChatGPT responde sobre sexo. Diz estar apto a fornecer informações e tirar dúvidas de forma educativa e segura, mas alerta que não participa de conversas sexualmente explícitas com intenção erótica.

REFLEXÃO

Se a falta de obstáculos tipicamente humanos é o que leva pessoas a conversarem com IAs, o principal fator para levar pessoas a buscar terapia com IAs é o financeiro. É o que diz o doutorando em Psicologia Luiz Joaquim Nunes.

“Outra questão nessa equação é a falsa percepção que é passada para as pessoas de que o que as máquinas fazem é bom e que é melhor do que o que um humano faria. Essa é uma narrativa para vender e popularizar essas ferramentas. Mas a verdade é que essas IAs não têm capacidade de fazer uma análise no contexto terapêutico, elas são feitas para darem respostas, isso não é terapia”, alerta o especialista.

Além de não receberem atendimento adequado quando necessitam de apoio emocional profissional, os usuários estão sujeitos a confundir as fronteiras, recebendo uma imagem distorcida do que é essa IA. “Se a pessoa quer usar a máquina para praticar a forma como escreve, conversa e argumenta, isso é válido. Quando a gente parte para a subjetividade, temos uma questão porque isso não existe na máquina”, avalia Luiz.

Para ele, as pessoas podem se apegar à máquina e entender que estão apaixonadas por ela, mas, então, é provável que tenham distorcido a noção do que é essa tecnologia.

O sinal de alerta é passar a preferir a interação com a máquina do que a interação com outros humanos. “Se ela passa a deixar de lado o convívio social, há um problema”, finaliza Luiz.

VOCÊ PODE GOSTAR ...