Conteúdo escrito por Júlio Gonçalves e Jennifer Craco
Será que o mundo está pronto para “terapeutas” do ChatGPT? Essa é a pergunta que cada vez mais tem surgido. Aplicativos como Koko têm utilizado de inteligência artificial para oferecer suporte em massa a pessoas necessitadas de ajuda.
A tentativa de automatização das psicoterapias em saúde mental já acontece há muitos anos, e os chatbots (robôs de conversa on-line) têm surgido aos montes para tentar suprir uma demanda. Um dos primeiros foi a Eliza, que ainda tá na ativa (veja aqui), na década de 60.
Estimativas sugerem que, para cada 100.000 pessoas ao redor do mundo, há apenas 4 psiquiatras em média – e esse número é ainda mais baixo na maioria dos países subdesenvolvidos ou emergentes.
Ou seja, a intenção de usar chatbots é nobre, mas ainda é preciso dados mais robustos. O mais recente experimento da Koko, por exemplo, não teve seus resultados publicados e oferece poucas evidências sobre a eficácia desses tratamentos.
O que a pesquisa da Koko conseguiu, de fato, foi revisitar questões éticas envolvendo o assunto, primeiramente, sobre a transparência.
Tanto as psicoterapias tradicionais quanto essas, usando AI, têm interesse em engajar o paciente e retê-lo no tratamento – mas as taxas de retenção de usuários nesses apps caem e atingem, em média, surpreendentes 4% ao longo de duas semanas.
Além disso, a ética por trás da retenção de pacientes é obscura, principalmente em se tratando de um chatbot. Outro ponto é a privacidade, considerando que quase 70% dos aplicativos de saúde mental tem uma política de privacidade pobre e classificada como “privacidade não inclusa”.
Muitos argumentam que os chatbots poderiam democratizar o acesso à psicoterapia – mas nos deparamos com o fato que a IA tem suas limitações: enquanto a terapia tradicional tenta direcionar o tratamento àquilo que é mais acurado e efetivo para cada caso, as IA analisam qual é a melhor abordagem e a contrabalançam com aquela que é mais fácil de ser programada.
E isso, certamente, não é uma forma efetiva de tratamento, afinal, isso é estar enviesada no sentido de escolher o caminho mais fácil.
A meu ver, o uso de IA deve ser visto como complementar, e não como o guia principal no processo terapêutico. A IA pode ser uma ferramenta para auxiliar psicoterapeutas, mas não deve substituir o julgamento clínico e a expertise humana. Algumas opções de integração para uso em psicoterapia incluem:
Essas integrações podem otimizar o tempo do terapeuta e proporcionar uma visão mais detalhada e precisa do tratamento, melhorando a qualidade da assistência prestada ao paciente.
Graber-Stiehl, I. (2023). Is the world ready for ChatGPT therapists? Nature, 617(7959), 22–24. https://doi.org/10.1038/d41586-023-01473-4
Quer fazer ciência na psicologia? Compartilhe, comente, critique e indique estudos para construirmos uma psicologia cada vez mais sólida e confiável. Vamos avançar juntos!