Terapeutas usam ChatGPT como ferramenta complementar – 08/11/2025 – Equilíbrio

Jack Worthy, terapeuta em Manhattan, começou a usar o ChatGPT diariamente para buscar receitas e apoiar pesquisas. Há cerca de um ano, em um momento familiar estressante, decidiu pedir algo diferente ao chatbot: ajuda emocional.

Ele pediu ao bot que analisasse seus diários de sonhos, prática comum em terapia. Com alguma orientação, disse que se surpreendeu ao receber conclusões que considera úteis, como a percepção de que seus mecanismos de enfrentamento estavam sobrecarregados.

“Foi analisando meus sonhos com o ChatGPT que reconheci: estou realmente sob grande estresse”, diz Worthy.

A experiência dele reflete um movimento crescente entre profissionais e pacientes. Ainda que chatbots sejam acusados de prejudicar usuários vulneráveis —até mesmo levando-os ao suicídio—, alguns terapeutas afirmam encontrar neles uma ferramenta complementar útil em certos casos. Eles próprios, às vezes, recorrem à IA em momentos pessoais.

“Me deu um suporte que considerei de primeira linha”, afirma Nathalie Savell, terapeuta perto de Baltimore.

Worthy reforça que não substituiria seu terapeuta humano. “Mas vou explorar algo com um modelo de linguagem para tornar minha conversa com meu médico mais produtiva”, diz.

Ao mesmo tempo, cresce o alerta sobre riscos. Há relatos judicializados de adolescentes que morreram por suicídio após interações com IA. Pesquisas mostram que muitos chatbots falham ao responder adequadamente a pedidos que sugerem risco grave, como ideação suicida. Empresas reconhecem limites e dizem trabalhar para aprimorar respostas.

Terapeutas concordam que a IA deve ser, no máximo, um complemento à terapia, e que o uso seguro depende de supervisão profissional —e que provavelmente a sua formação que os permitem utilizar a ferramenta de forma segura. Ainda assim, o apelo dos chatbots como companhia ou apoio entre sessões persiste.

“Não é algo totalmente negativo”, diz Savell. Ela às vezes sugere que pacientes conversem com um chatbot sobre ansiedade, relacionamentos ou questões parentais quando precisam de apoio mais frequente que o semanal.

É difícil medir quão comum é o uso de IA para fins terapêuticos. Um estudo da Harvard Business Review de abril afirma que terapia e companhia são as principais razões pelas quais as pessoas usam IA. Mas outro estudo, conduzido pela OpenAI, concluiu que apenas 2% das mensagens do ChatGPT eram eram sobre “relacionamentos e autocuidado.”

Mas algumas pessoas estão confiando e se abrindo para chatbots. Nas redes sociais e fóruns online, usuários têm postado sobre encontrar apoio em conversas com IA. Algumas empresas desenvolveram aplicativos especificamente para fornecer terapia com IA, e, em consultório, terapeutas estão descobrindo que seus próprios clientes usam IA entre as consultas.

“Isso está acontecendo cada vez mais”, diz Worthy. “Sou grato quando meus pacientes falam abertamente sobre isso.”

Luke Percy, conselheiro em Baltimore, vê a IA como uma ferramenta de reflexão. “Penso como um diário, mas com um parceiro que faz boas perguntas e estimula pensamento”, afirma. Ele reforça: “Não substitui terapia”.

Savell diz que recorre à IA quando precisa organizar ideias, especialmente quando amigos e confidentes não estão disponíveis. Percy usa para lidar com ansiedade e luto. Mas, a maioria dos terapeutas ouvidos para a reportagem estava hesitante em apoiar uma proibição total do uso de chatbots para terapia, apesar de afirmarem que a IA não é um substituto para ajuda profissional.

Elizabeth Greene, terapeuta em Manhattan, afirma que não se imagina se abrindo para uma IA. “Para mim, o relacionamento real é onde o trabalho acontece.”

Worthy observa que só obteve bons resultados ao pedir ao chatbot para analisar os sonhos sob estruturas psicológicas específicas, algo que muitos pacientes não saberiam formular. Também alerta contra autodiagnósticos feitos pela IA. Além disso, um terapeuta humano pode usar informações não verbais para fornecer uma análise muito melhor do que um chatbot.

Samar Haroon, terapeuta perto de Los Angeles, diz que a acessibilidade do chatbot pode levar ao uso excessivo, transformando reflexões em ruminância.

Histórias de alguns dos piores cenários para terapia com IA, onde chatbots não dissuadiram ou até encorajaram usuários vulneráveis que mencionaram suicídio, ainda pairam sobre o debate. Savell diz que não se sentiria confortável tendo seu filho de 11 anos usando IA para terapia.

Todos os terapeutas entrevistados defendem que, se o paciente usa ChatGPT para refletir sobre sua saúde mental, isso deve ser levado à sessão humana.

“Antes de usar o ChatGPT, consulte seu terapeuta”, diz Percy.

Autoria: FLSP

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top