Nos últimos meses, tenho acompanhado com atenção — como psicóloga e também como jornalista — o crescimento da procura por aplicativos de inteligência artificial como substitutos de sessões de terapia. Não falo aqui apenas de curiosidade tecnológica ou de uma moda passageira. Muitas pessoas, em sofrimento emocional, estão buscando desabafar com robôs. E é justamente aí que mora o perigo.
Sim, a IA pode soar empática. Ela é programada para responder com frases de acolhimento, validar sentimentos e até sugerir reflexões. Mas a psicoterapia não é um conjunto de frases bonitas. É um processo humano, que envolve escuta ativa, análise, interpretação de contexto, responsabilidade ética e, muitas vezes, a necessidade de provocar desconfortos que levam ao crescimento.
A tecnologia pode até simular acolhimento, mas não pode substituir o trabalho humano. A IA não causa o desconforto necessário que, às vezes, desperta a mudança real. Ela não foi programada para frustrar, e sabemos que a frustração, quando bem conduzida, é parte fundamental do amadurecimento emocional.
Outro ponto grave é a questão da responsabilidade. Um psicólogo não pode — e não deve — decidir pela vida do paciente. Não dizemos: “se divorcie” ou “largue o emprego”. Orientamos a reflexão, para que a pessoa assuma seus próprios caminhos e consequências. Já a IA, ao “inventar” respostas quando não sabe o que dizer, pode induzir alguém a tomar decisões perigosas. Imagine um paciente em crise recebendo uma resposta rasa ou até equivocada. O risco é real.
E há ainda um aspecto ético inegociável: o sigilo. Quando você fala com um psicólogo, há a garantia profissional e legal de confidencialidade. Mas ao expor suas dores mais íntimas para um aplicativo, quem garante que esses dados não serão armazenados, vendidos ou usados por empresas? O que é dito no consultório permanece no consultório. O que é dito a uma IA, não temos controle sobre onde pode parar.
Entendo que a procura pela IA também está ligada à acessibilidade. A psicoterapia ainda não é acessível a todos como deveria ser. O preço, a disponibilidade e até a vergonha de procurar ajuda podem afastar muitas pessoas. Nesse ponto, é fundamental lembrar que existem alternativas seguras: clínicas-escola em universidades, atendimentos online que reduzem custos, e o próprio SUS, que oferece suporte psicológico em diferentes níveis da rede pública.
Não sou contra a tecnologia. Ela pode — e deve — ser aliada no processo de saúde mental. Aplicativos podem ajudar no registro de emoções, no acompanhamento do humor, na meditação guiada. Mas nunca substituirão o vínculo humano e a técnica de um psicólogo.
A psicoterapia é ciência, é afeto e é ética. É feita no encontro, no olhar, no silêncio que acolhe e na palavra que provoca. É ali, nesse espaço humano, que a transformação acontece.
Portanto, se você tem usado a inteligência artificial para desabafar, reflita: será que não está na hora de buscar um espaço seguro, humano e responsável para cuidar de si?
Afinal, sua vida e sua saúde mental merecem muito mais do que respostas automáticas.
Luciene Costa é psicóloga clínica, pós-graduada em Psicanálise, jornalista e especialista em bem-estar e qualidade de vida.@luciene_costa_57