Ícone do site Edição Brasília

IA como terapia: riscos e debates éticos preocupam especialistas

Ética IA terapia online

Foto: Marcelo Camargo/Agência Brasil

IA como Terapia: O Risco da Empatia Artificial

A crescente popularidade de chatbots como ferramenta terapêutica tem gerado debates acalorados entre especialistas. A aparente capacidade desses sistemas de inteligência artificial (IA) em oferecer aconselhamento levanta preocupações significativas sobre privacidade e segurança da saúde mental dos usuários. O cenário, ainda em formação, impulsiona conselhos de psicologia a buscarem uma regulamentação eficaz e ética para o uso dessas tecnologias.

Um breve diálogo, aparentemente trivial, ilustra a complexidade do assunto: “Tenho me perguntado se a vida vale a pena”, diz um usuário. A resposta do chatbot, “É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro…”, demonstra uma compreensão empática. Entretanto, essa empatia é apenas uma simulação, fruto de algoritmos sofisticados que analisam padrões de linguagem a partir de imensos bancos de dados.

A Simulação da Empatia: Como os Chatbots Funcionam

Segundo Victor Hugo de Albuquerque, professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará (UFC), esses sistemas “são treinados para reconhecer padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores”. Eles não raciocinam, mas sim identificam e respondem a partir de padrões previamente aprendidos. Albuquerque destaca que, apesar de conseguirem captar o tom e a intenção das mensagens, simulando uma conversa humana, a interação está longe de ser genuinamente humana.

Essa capacidade de simular conversas naturais e empáticas tem atraído muitos usuários, que confiam seus medos e angústias aos chatbots, utilizando-os como se fossem terapeutas. De fato, uma pesquisa da Harvard Business Review apontou que, em 2025, o aconselhamento terapêutico se tornou o principal objetivo do uso de ferramentas de IA, empatado com a busca por companhia. Organização pessoal, busca por propósito e uma vida mais saudável também figuram entre os principais usos.

O Conselho Federal de Psicologia e a Necessidade de Regulamentação

A crescente utilização de IAs com fins terapêuticos, mesmo que não projetadas para isso, motivou o Conselho Federal de Psicologia (CFP) a criar um grupo de trabalho para discutir a regulamentação dessa área. Como explica a conselheira Maria Carolina Roseiro, o CFP “recebe consultas sobre o uso de inteligência artificial relacionada à psicologia praticamente toda semana”. A preocupação central é a falta de responsabilidade legal dessas ferramentas. “Uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta Roseiro.

O CFP busca estabelecer diretrizes para o desenvolvimento e uso de ferramentas terapêuticas com base em métodos e técnicas reconhecidos, criadas por profissionais habilitados e responsáveis. Além disso, o órgão planeja divulgar orientações à população, alertando sobre os perigos de confiar o bem-estar emocional a ferramentas não destinadas a esse fim.

Os Desafios Éticos e a Necessidade de Cautela

Leonardo Martins, professor da PUC-Rio e membro do grupo de trabalho do CFP, defende um olhar cuidadoso sobre o tema, sem demonizar as ferramentas digitais. Ele ressalta a importância de que essas tecnologias sejam desenvolvidas por profissionais responsáveis e baseadas em pesquisas sólidas, principalmente considerando a atual crise de saúde mental, com milhões de pessoas sofrendo de ansiedade e depressão. Martins cita o exemplo positivo de um chatbot criado pelo sistema de saúde inglês, que facilitou o acesso aos serviços de saúde mental, especialmente para grupos marginalizados.

Por outro lado, estudos demonstram os potenciais efeitos negativos de plataformas sem critérios técnicos e éticos. Segundo Martins, “esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário”, podendo, inclusive, desaconselhar ações importantes para o tratamento de um problema. Maria Elisa Almeida, que utiliza um aplicativo de diário com IA, confirma a utilidade da ferramenta para seu próprio bem-estar, mas reforça que ele não substitui um profissional e não é indicado para momentos de crise.

Maria Carolina Roseiro reconhece o lado positivo do aumento da procura por essas ferramentas, indicando uma maior atenção à saúde mental. Contudo, ela destaca que “os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. A máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional”. A simulação de empatia, portanto, pode ser enganosa e não garantir um cuidado real. Martins complementa que a tendência dos chatbots em concordar com o usuário pode ser prejudicial, pois o processo terapêutico muitas vezes requer confrontar crenças e comportamentos.

Privacidade e Segurança de Dados: Uma Preocupação Central

Além dos aspectos éticos, a privacidade dos dados compartilhados com os chatbots preocupa o CFP. Segundo Leonardo Martins, “essas ferramentas estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde”. O risco de vazamento ou uso indevido dessas informações sensíveis é concreto, especialmente em um contexto tão vulnerável quanto o da saúde mental. Victor Hugo de Albuquerque reforça essa preocupação, alertando sobre a possibilidade de interceptação de dados caso a plataforma seja hackeada ou apresente falhas de segurança, mesmo que se declare o anonimato.

Em conclusão, a utilização de IAs como ferramentas terapêuticas apresenta um cenário complexo e desafiador. Apesar do potencial de acesso a recursos de saúde mental, os riscos relacionados à privacidade, à segurança e à falta de responsabilidade ética exigem uma regulamentação cuidadosa e um alerta para os usuários sobre os limites e potenciais perigos dessas tecnologias. A discussão sobre a ética e a regulamentação do uso de IA em saúde mental é crucial para garantir o bem-estar dos usuários e evitar consequências negativas.

Sair da versão mobile