Conselho Federal de Psicologia alerta para diagnósticos falsos e atraso na busca por tratamento; uso de IA em saúde mental é debatido no Congresso.
Com a ascensão da Inteligência Artificial, muitas pessoas estão recorrendo às ferramentas como um suporte emocional, muitas vezes substituindo psicoterapeutas. Especialistas alertam, no entanto, que esse uso não pode ser confundido com psicoterapia.
“Não existem evidências de que possa haver psicoterapia realizada por IA. Porque a IA não foi programada para isso”, alerta Alessandra Santos de Almeida, presidente do Conselho Federal de Psicologia (CFP).
A preocupação é que usuários confundam respostas automáticas com atendimento clínico. De acordo com o conselho, há risco de diagnósticos equivocados ou atrasos na busca por um psicólogo de verdade.
“Às vezes a pessoa coloca lá: ‘O que eu tenho?’, recebe um diagnóstico falso e acaba protelando o cuidado real”, destacou a representante.
Riscos apontados por especialistas
Pesquisadores e psicólogos consultados pela reportagem ressaltam que a IA pode gerar alívio imediato, mas não substitui a escuta qualificada de um profissional. Além disso, respostas simplistas e até erradas podem agravar quadros já existentes.
Um exemplo foi observado em testes realizados pela jornalista Renata Ceribelli, no Fantástico deste domingo (14), com supervisão do psicanalista Christian Dunker, professor da USP.
Em uma das simulações, o programa assegurou que sintomas relatados não eram sinais de infarto, diagnosticando como crise de ansiedade. Para Dunker, o caso evidencia um risco grave: “Eu podia estar tendo um problema no coração real, com consequências sérias, e a máquina afirmou que não havia nada.”
Regulação em debate
Nos Estados Unidos, uma família está processando a OpenAI dizendo que o programa ChatGPT colaborou para o suicídio de um rapaz de 16 anos. A tragédia aconteceu em agosto e na época a empresa disse que o ChatGPT direciona usuários em crise para ajuda especializada, mas a empresa já admitiu que em conversas longas essas proteções podem falhar.
Também no mês passado, nos EUA, o estado de Illinois aprovou lei que veta o uso da inteligência artificial como psicoterapeuta. Aqui no Brasil, o Conselho Federal de Psicologia faz parte de um grupo de trabalho no Congresso Nacional para a regulamentação do uso da IA na área da saúde, inclusive mental. E a posição deles é clara.
No Brasil, a discussão está em andamento. Para o CFP, a prioridade é garantir segurança aos usuários e reforçar que a psicoterapia só pode ser feita por profissionais devidamente habilitados.
“Aplicativos podem ter utilidade como ferramentas de apoio, mas não substituem a relação terapêutica entre paciente e psicólogo”, conclui o conselho.
Fonte: Redação g1, Fantástico – 15/09/2025