Julio Gonçalves

Conteúdo escrito por Júlio Gonçalves e Jennifer Craco

Será que o mundo está pronto para “terapeutas” do ChatGPTEssa é a pergunta que cada vez mais tem surgido. Aplicativos como Koko têm utilizado de inteligência artificial para oferecer suporte em massa a pessoas necessitadas de ajuda.

A tentativa de automatização das psicoterapias em saúde mental já acontece há muitos anos, e os chatbots (robôs de conversa on-line) têm surgido aos montes para tentar suprir uma demanda. Um dos primeiros foi a Eliza, que ainda tá na ativa (veja aqui), na década de 60.

Estimativas sugerem que, para cada 100.000 pessoas ao redor do mundo, há apenas 4 psiquiatras em média – e esse número é ainda mais baixo na maioria dos países subdesenvolvidos ou emergentes. 

Ou seja, a intenção de usar chatbots é nobre, mas ainda é preciso dados mais robustos. O mais recente experimento da Koko, por exemplo, não teve seus resultados publicados e oferece poucas evidências sobre a eficácia desses tratamentos.

O que a pesquisa da Koko conseguiu, de fato, foi revisitar questões éticas envolvendo o assunto, primeiramente, sobre a transparência

Tanto as psicoterapias tradicionais quanto essas, usando AI, têm interesse em engajar o paciente e retê-lo no tratamento – mas as taxas de retenção de usuários nesses apps caem e atingem, em média, surpreendentes 4% ao longo de duas semanas. 

Além disso, a ética por trás da retenção de pacientes é obscura, principalmente em se tratando de um chatbot. Outro ponto é a privacidade, considerando que quase 70% dos aplicativos de saúde mental tem uma política de privacidade pobre e classificada como “privacidade não inclusa”. 

Muitos argumentam que os chatbots poderiam democratizar o acesso à psicoterapia – mas nos deparamos com o fato que a IA tem suas limitações: enquanto a terapia tradicional tenta direcionar o tratamento àquilo que é mais acurado e efetivo para cada caso, as IA analisam qual é a melhor abordagem e a contrabalançam com aquela que é mais fácil de ser programada.

E isso, certamente, não é uma forma efetiva de tratamento, afinal, isso é estar enviesada no sentido de escolher o caminho mais fácil.

A meu ver, o uso de IA deve ser visto como complementar, e não como o guia principal no processo terapêutico. A IA pode ser uma ferramenta para auxiliar psicoterapeutas, mas não deve substituir o julgamento clínico e a expertise humana. Algumas opções de integração para uso em psicoterapia incluem:

  • Gerar gráficos: A IA pode ser usada para monitorar o progresso do paciente, criar gráficos de evolução e identificar padrões de comportamento ao longo do tempo.
  • Construir entrevistas personalizadas: A IA pode ajudar a formular perguntas específicas baseadas nas respostas anteriores do paciente, tornando as entrevistas mais focadas e produtivas.
  • Contagem de comportamentos: Ferramentas de IA podem ser utilizadas para registrar e analisar a frequência de certos comportamentos, auxiliando no acompanhamento e na avaliação da eficácia das intervenções.

Essas integrações podem otimizar o tempo do terapeuta e proporcionar uma visão mais detalhada e precisa do tratamento, melhorando a qualidade da assistência prestada ao paciente.

Graber-Stiehl, I. (2023). Is the world ready for ChatGPT therapists? Nature, 617(7959), 22–24. https://doi.org/10.1038/d41586-023-01473-4

Inscrever-se
Notificar de
0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários