O primeiro ensaio clínico de um chatbot generativo para tratamento em saúde mental mostrou sinal de benefício real. No estudo da Dartmouth, pessoas com depressão tiveram redução média de 51% nos sintomas, participantes com ansiedade reduziram sintomas em 31%, e quem estava em risco para transtornos alimentares teve queda de 19% nas preocupações com imagem corporal e peso.12
Isso é relevante. Mas não fecha a conversa. A mesma própria equipe do estudo deixou claro que o sistema ainda precisa de supervisão humana, e a FDA passou a discutir, em 2025, como enquadrar dispositivos de saúde mental movidos por IA generativa.234
O que foi testado
O chatbot do estudo, Therabot, foi desenhado para responder em linguagem natural, com base em práticas terapêuticas e sob supervisão de pesquisadores e profissionais de saúde mental.2 O ensaio incluiu 106 pessoas adultas nos Estados Unidos com transtorno depressivo maior, transtorno de ansiedade generalizada ou risco elevado para transtornos alimentares.2
Os participantes usaram o chatbot por meio de um aplicativo no smartphone, respondendo a perguntas sobre como estavam se sentindo ou iniciando conversas quando precisavam falar.2 O período de acesso foi de quatro semanas com estímulo ativo e mais quatro semanas em que os participantes podiam continuar a conversa sem novas provocações do sistema.2
Esse desenho importa porque não foi só uma demonstração de laboratório. Houve uso real, com gente real, durante semanas reais. E houve comparação com um grupo controle sem acesso ao Therabot no período do estudo.2
O que os números significam
Redução de sintomas não é o mesmo que cura, e 51% não significa que metade das pessoas ficou sem depressão. Significa que, naquele grupo específico, a intensidade média dos sintomas caiu de forma importante e clinicamente relevante ao longo do período observado.12
Os autores e a Dartmouth também ressaltaram que os efeitos foram parecidos com o que se vê em terapia ambulatorial tradicional em alguns desfechos, e os próprios participantes relataram grau de confiança e de comunicação com o sistema comparável ao de um profissional de saúde mental.2
Essa é a melhor leitura possível do resultado: o chatbot parece capaz de entregar apoio útil, estruturar conversa terapêutica e manter engajamento. Não parece, ainda, ser um substituto autônomo para cuidado humano.
Onde mora o risco
O risco central não é só errar uma frase. É errar no momento errado. Em saúde mental, isso pode significar subestimar ideação suicida, reforçar crenças delusórias, atrasar busca por ajuda ou criar uma falsa sensação de cuidado suficiente.36
A própria Dartmouth foi explícita nesse ponto. Os autores disseram que nenhum agente generativo está pronto para operar sozinho em saúde mental, justamente porque ainda existe uma grande variedade de cenários de alto risco que o sistema pode encontrar.2 O estudo também incluiu mecanismo de resposta para conteúdo de alto risco, com orientação para ligar para o 911 ou para linha de crise se surgisse ideação suicida.2
Isso mostra o ponto central: a utilidade da IA aqui depende de barreiras de segurança, supervisão e desenho de produto. Sem isso, o ganho clínico vira risco clínico.
O que a FDA está vendo
Em 6 de novembro de 2025, o FDA discutiu justamente dispositivos de saúde mental com IA generativa no seu Digital Health Advisory Committee.3 O material oficial descreve a conversa como uma avaliação de benefícios, riscos e mitigação, incluindo evidências pré-mercado e monitoramento pós-mercado.4
Isso é um sinal importante. A agência não está tratando chatbots terapêuticos como simples software de consumo, nem como um brinquedo experimental. A lógica regulatória que começa a aparecer é a de dispositivo médico digital com risco variável, exigindo evidência, rastreabilidade e vigilância contínua.34
Para o leitor, a tradução prática é simples: "parece um app" não basta. Se a ferramenta pretende tratar, mitigar ou prevenir transtorno mental, a régua precisa ser clínica.
O que o Brasil já disse
No Brasil, o CFP foi direto. Em julho de 2025, o conselho publicou posicionamento sobre IA na prática psicológica e reforçou que a atuação de psicólogas e psicólogos é central e não pode ser substituída por algoritmos.5 Em setembro, o CFP foi ainda mais explícito ao alertar para riscos de usar IA em saúde mental no SUS, destacando que não dá para delegar a algoritmos aliança terapêutica, manejo de crises e avaliação de risco.6
Esse ponto conversa bem com o que o estudo de Dartmouth também reconhece. A questão não é se a IA consegue produzir texto persuasivo. Isso ela já faz. A questão é se consegue fazer cuidado seguro, no contexto certo, com limites claros, sem substituir a responsabilidade profissional.256
O CFP ainda lembra que softwares desse tipo precisam passar pelo marco regulatório brasileiro e que a adoção não pode ser pensada como atalho para substituir equipes ou fechar lacunas estruturais do SUS.6
O que esse estudo não prova
Ele não prova que qualquer chatbot generativo serve para terapia. O Therabot foi treinado e supervisionado por equipe acadêmica, com desenho específico e mecanismos de segurança. Não é a mesma coisa que um chatbot comercial genérico.2
Ele também não prova que esses resultados vão se repetir com qualquer população, qualquer idioma, qualquer nível de gravidade ou qualquer modelo comercial. O estudo foi importante, mas ainda é um primeiro passo.
Outro limite é o tipo de controle. O ensaio comparou Therabot com waitlist, não com uma intervenção sham digital verdadeiramente equivalente. Então ainda falta saber quanto do efeito vem do conteúdo terapêutico, quanto vem da atenção recebida, e quanto vem do simples fato de haver um espaço de escuta consistente.
O que fazer com isso, agora
Se você é paciente, a regra é direta. Chatbot pode ser apoio, não substituto. Pode ajudar a organizar pensamentos, lembrar técnicas terapêuticas e abrir uma conversa, mas não deve ser o único recurso quando há sofrimento intenso, piora funcional, crise ou ideação suicida.
Se você é profissional, a leitura mais prudente é tratar essas ferramentas como adjuntos, não como terapeutas autônomos. A parte boa do Therabot é que ela sugere um caminho possível. A parte importante é que o caminho ainda precisa de gente.
Em resumo
O Therabot mostrou que um chatbot generativo pode reduzir sintomas em saúde mental, e isso já é mais do que hype.12 Mas o mesmo estudo e os posicionamentos oficiais de FDA e CFP deixam claro que a IA ainda está longe de operar sozinha com segurança clínica ampla.2356
No estado atual, a melhor frase sobre chatbots terapêuticos é esta: podem somar, mas não podem ser o cuidado.
Este conteúdo é informativo e não substitui avaliação médica individual.
