sossego.health
Calculadoras e Simuladores

IA em Saúde

Chatbots de terapia podem ajudar, mas não resolvem sozinhos: o que o Therabot mostrou e por que o risco ainda manda

O primeiro ensaio clínico de um chatbot generativo em saúde mental mostrou melhora em depressão, ansiedade e risco alimentar. O resultado é promissor, mas a segurança, a supervisão e a regulação continuam no centro da conversa.

Por Dr. Lucca Ortolan Hansen· 15 de maio de 2026· Revisado por Lucca Ortolan Hansen
Revisado por médico

Achou útil? Compartilhe com quem precisa ler.

Mão segurando smartphone com aplicativo aberto
Chatbots terapêuticos se parecem com um app comum no bolso, mas os riscos clínicos exigem outra régua de avaliação. Foto: Artem Podrez / Pexels

O primeiro ensaio clínico de um chatbot generativo para tratamento em saúde mental mostrou sinal de benefício real. No estudo da Dartmouth, pessoas com depressão tiveram redução média de 51% nos sintomas, participantes com ansiedade reduziram sintomas em 31%, e quem estava em risco para transtornos alimentares teve queda de 19% nas preocupações com imagem corporal e peso.12

Isso é relevante. Mas não fecha a conversa. A mesma própria equipe do estudo deixou claro que o sistema ainda precisa de supervisão humana, e a FDA passou a discutir, em 2025, como enquadrar dispositivos de saúde mental movidos por IA generativa.234

O que foi testado

O chatbot do estudo, Therabot, foi desenhado para responder em linguagem natural, com base em práticas terapêuticas e sob supervisão de pesquisadores e profissionais de saúde mental.2 O ensaio incluiu 106 pessoas adultas nos Estados Unidos com transtorno depressivo maior, transtorno de ansiedade generalizada ou risco elevado para transtornos alimentares.2

Os participantes usaram o chatbot por meio de um aplicativo no smartphone, respondendo a perguntas sobre como estavam se sentindo ou iniciando conversas quando precisavam falar.2 O período de acesso foi de quatro semanas com estímulo ativo e mais quatro semanas em que os participantes podiam continuar a conversa sem novas provocações do sistema.2

Esse desenho importa porque não foi só uma demonstração de laboratório. Houve uso real, com gente real, durante semanas reais. E houve comparação com um grupo controle sem acesso ao Therabot no período do estudo.2

O que os números significam

Redução de sintomas não é o mesmo que cura, e 51% não significa que metade das pessoas ficou sem depressão. Significa que, naquele grupo específico, a intensidade média dos sintomas caiu de forma importante e clinicamente relevante ao longo do período observado.12

Os autores e a Dartmouth também ressaltaram que os efeitos foram parecidos com o que se vê em terapia ambulatorial tradicional em alguns desfechos, e os próprios participantes relataram grau de confiança e de comunicação com o sistema comparável ao de um profissional de saúde mental.2

Essa é a melhor leitura possível do resultado: o chatbot parece capaz de entregar apoio útil, estruturar conversa terapêutica e manter engajamento. Não parece, ainda, ser um substituto autônomo para cuidado humano.

Onde mora o risco

O risco central não é só errar uma frase. É errar no momento errado. Em saúde mental, isso pode significar subestimar ideação suicida, reforçar crenças delusórias, atrasar busca por ajuda ou criar uma falsa sensação de cuidado suficiente.36

A própria Dartmouth foi explícita nesse ponto. Os autores disseram que nenhum agente generativo está pronto para operar sozinho em saúde mental, justamente porque ainda existe uma grande variedade de cenários de alto risco que o sistema pode encontrar.2 O estudo também incluiu mecanismo de resposta para conteúdo de alto risco, com orientação para ligar para o 911 ou para linha de crise se surgisse ideação suicida.2

Isso mostra o ponto central: a utilidade da IA aqui depende de barreiras de segurança, supervisão e desenho de produto. Sem isso, o ganho clínico vira risco clínico.

O que a FDA está vendo

Em 6 de novembro de 2025, o FDA discutiu justamente dispositivos de saúde mental com IA generativa no seu Digital Health Advisory Committee.3 O material oficial descreve a conversa como uma avaliação de benefícios, riscos e mitigação, incluindo evidências pré-mercado e monitoramento pós-mercado.4

Isso é um sinal importante. A agência não está tratando chatbots terapêuticos como simples software de consumo, nem como um brinquedo experimental. A lógica regulatória que começa a aparecer é a de dispositivo médico digital com risco variável, exigindo evidência, rastreabilidade e vigilância contínua.34

Para o leitor, a tradução prática é simples: "parece um app" não basta. Se a ferramenta pretende tratar, mitigar ou prevenir transtorno mental, a régua precisa ser clínica.

O que o Brasil já disse

No Brasil, o CFP foi direto. Em julho de 2025, o conselho publicou posicionamento sobre IA na prática psicológica e reforçou que a atuação de psicólogas e psicólogos é central e não pode ser substituída por algoritmos.5 Em setembro, o CFP foi ainda mais explícito ao alertar para riscos de usar IA em saúde mental no SUS, destacando que não dá para delegar a algoritmos aliança terapêutica, manejo de crises e avaliação de risco.6

Esse ponto conversa bem com o que o estudo de Dartmouth também reconhece. A questão não é se a IA consegue produzir texto persuasivo. Isso ela já faz. A questão é se consegue fazer cuidado seguro, no contexto certo, com limites claros, sem substituir a responsabilidade profissional.256

O CFP ainda lembra que softwares desse tipo precisam passar pelo marco regulatório brasileiro e que a adoção não pode ser pensada como atalho para substituir equipes ou fechar lacunas estruturais do SUS.6

O que esse estudo não prova

Ele não prova que qualquer chatbot generativo serve para terapia. O Therabot foi treinado e supervisionado por equipe acadêmica, com desenho específico e mecanismos de segurança. Não é a mesma coisa que um chatbot comercial genérico.2

Ele também não prova que esses resultados vão se repetir com qualquer população, qualquer idioma, qualquer nível de gravidade ou qualquer modelo comercial. O estudo foi importante, mas ainda é um primeiro passo.

Outro limite é o tipo de controle. O ensaio comparou Therabot com waitlist, não com uma intervenção sham digital verdadeiramente equivalente. Então ainda falta saber quanto do efeito vem do conteúdo terapêutico, quanto vem da atenção recebida, e quanto vem do simples fato de haver um espaço de escuta consistente.

O que fazer com isso, agora

Se você é paciente, a regra é direta. Chatbot pode ser apoio, não substituto. Pode ajudar a organizar pensamentos, lembrar técnicas terapêuticas e abrir uma conversa, mas não deve ser o único recurso quando há sofrimento intenso, piora funcional, crise ou ideação suicida.

Se você é profissional, a leitura mais prudente é tratar essas ferramentas como adjuntos, não como terapeutas autônomos. A parte boa do Therabot é que ela sugere um caminho possível. A parte importante é que o caminho ainda precisa de gente.

Em resumo

O Therabot mostrou que um chatbot generativo pode reduzir sintomas em saúde mental, e isso já é mais do que hype.12 Mas o mesmo estudo e os posicionamentos oficiais de FDA e CFP deixam claro que a IA ainda está longe de operar sozinha com segurança clínica ampla.2356

No estado atual, a melhor frase sobre chatbots terapêuticos é esta: podem somar, mas não podem ser o cuidado.


Este conteúdo é informativo e não substitui avaliação médica individual.

Fontes

  1. Heinz MV et al. Randomized Trial of a Generative AI Chatbot for Mental Health Treatment. NEJM AI, 2025· paper
  2. First Therapy Chatbot Trial Yields Mental Health Benefits· official_data
  3. FDA Digital Health Advisory Committee· regulator
  4. 24 Hour Summary of the Digital Health Advisory Committee· regulator
  5. CFP divulga posicionamento sobre Inteligência Artificial no contexto da prática psicológica· society
  6. CFP alerta para riscos de proposta de uso de inteligência artificial em saúde mental no SUS· society

Comentários

Compartilhe sua experiência. Comentários passam por moderação automática.

Verificando sua sessão...

Carregando comentários...