Doze milhões de pessoas já usam a inteligência artificial para fazer terapia no Brasil, segundo estimativas do UOL com base em um relatório da Talk Inc, empresa de pesquisa focada em comportamento. Muitas pessoas buscam essa alternativa porque as plataformas de IA estão acessíveis a qualquer um com internet, a qualquer hora do dia. Já os profissionais de saúde mental muitas vezes não estão acessíveis 24 horas nem em pequenas cidades dos interiores do país. A IA também oferece anonimato, quebrando a barreira do estigma.
Mas o que eu quero chamar atenção é que as diferentes terapias do mundo psi funcionam e trazem benefícios justamente porque são uma troca humana, mesmo que online. A relação entre o terapeuta e o paciente é a base de sua efetividade. E isso não acontece com uma IA.
Quando o paciente está frente a frente com o terapeuta, o que ele transmite não são só queixas e histórias. Especialmente com adolescentes, que têm grande dificuldade em expressar o turbilhão de coisas que sentem, a leitura das pausas, dos silêncios, de um olho marejado ao falar de um assunto, de um roer de unhas ou sorriso encabulado diz muito sobre o sofrimento daquele jovem. A IA simplesmente não é capaz de captar esses sinais não-verbais, tão vitais quando estamos frente a frente com um paciente.
Outro problema está no modo de comunicação. Quando conversamos com outra pessoa (por exemplo, o terapeuta), prestamos atenção a sua postura. Se a pessoa manifesta desconforto ou muda de assunto, isso costuma ser um sinal de alerta sobre sua confiança. A máquina, por outro lado, fornece respostas quase automáticas, o que podem criar a ilusão de que tudo o que ela responde é confiável. E não é. Os chatbots podem “alucinar”, ou seja, fornecer informações incorretas ou tendenciosas.
Imagine o potencial perigo de um adolescente ler um conselho equivocado de uma IA sobre o seu estado emocional. Adolescentes não têm tantas ferramentas quanto os adultos para avaliar riscos com precisão (é bom dizer que adultos também são falíveis), e uma resposta imprecisa ou distorcida pode funcionar como gatilho para uma crise de saúde mental, com consequências que não conseguimos sequer mensurar.
Já há dados que apontam que os bots podem falhar ao identificar uma questão mais grave, como a ideia de suicídio, a menos que a pessoa escreva a palavra expressamente. A tentativa de tirar a própria vida – algo que sabemos tem sido mais frequente entre os jovens – é a condição de maior urgência para a medicina. Quando pensamos que a IA pode falhar nessa identificação e quando pensamos que uma máquina jamais será capaz de acudir alguém, os riscos tornam-se ainda maiores.
A inteligência artificial pode ser mais assertiva em diagnósticos do que os próprios médicos. Se o adolescente busca um nome para um conjunto de sintomas, a máquina pode fornecer uma resposta rápida. Mas muitos problemas de saúde mental compartilham sintomas semelhantes. Daí a importância do olhar humano para separar o joio do trigo.
Mas e quanto às causas de um sofrimento? A IA seria capaz de chegar às raízes dele? Faltam às máquinas algo essencial: emoções. Um dos aspectos mais transformadores e curativos da terapia é justamente a conexão verdadeira entre terapeuta e paciente. Isso, nenhuma inteligência artificial será capaz de fazer – não por enquanto, pelo menos.
Dr. Arthur Guerra é professor da Faculdade de Medicina da USP, da Faculdade de Medicina do ABC e cofundador da Caliandra Saúde Mental.
Fonte: Forbes