
Inteligência Artificial: O impacto dos Chatbots na Saúde Mental
” – Tenho me perguntado se a vida vale a pena.”
O poder dos Chatbots na Compreensão Emocional
“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”
Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, “aprendido” após a análise de um volume enorme de dados. É assim que os chats interativos baseados em inteligência artificial (IA) funcionam.
“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará Victor Hugo de Albuquerque.
“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa. Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos.
Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.
Impacto na Saúde Mental e Regulamentação
A revista Harvard Business Review, editada pela escola de pós-graduação em administração da faculdade americana de Harvard, publicou no mês passado um levantamento que mostra que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de IA este ano, ao lado da busca por uma companhia. Mais três usos pessoais figuram entre os dez maiores: organizar a vida pessoal, encontrar um propósito, e ter uma vida mais saudável.
“Praticamente toda semana, o Conselho Federal de Psicologia [CFP] recebe consultas sobre o uso de inteligência artificial relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, conta a conselheira Maria Carolina Roseiro.
Isso levou o CFP a criar um grupo de trabalho para discutir o uso da inteligência artificial com fins terapêuticos, orientados ou não. O órgão estuda como regulamentar novas ferramentas terapêuticas que estejam de acordo com métodos e técnicas reconhecidas e sejam desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Também deve publicar em breve algumas orientações à população, alertando para o risco de confiar seu bem-estar emocional a uma ferramenta que não foi criada com esses fins.
“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira.
Prós e Contras da Utilização de Chatbots em Saúde Mental
O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.
“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundos estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a essa aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.
Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês como porta de entrada para os serviços de saúde mental.
A utilização de inteligência artificial em conversas relacionadas à saúde tem gerado um aumento significativo na procura por serviços de saúde, especialmente entre populações marginalizadas, como imigrantes e pessoas LGBTQIA+. Essas pessoas, que muitas vezes têm receio de buscar ajuda devido a questões de discriminação e preconceito, têm encontrado nas plataformas de IA uma alternativa para se expressar e obter orientação.
Entretanto, segundo o professor da PUC-Rio, o uso de plataformas que não foram desenvolvidas com objetivos específicos e não seguem critérios técnicos e éticos pode gerar resultados negativos. Um estudo apontou que esses modelos de IA tendem a oferecer respostas que agradam ao usuário, mesmo que não sejam as mais adequadas para a situação. Isso pode levar a recomendações prejudiciais, como evitar situações importantes para a pessoa em vez de lidar com suas emoções.
A assessora de comunicação científica Maria Elisa Almeida, que utiliza um aplicativo de diário com inteligência artificial, relata que a ferramenta a ajuda a manter o foco e oferece reflexões interessantes. No entanto, ela ressalta que essas ferramentas não são seguras para pessoas em momentos de crise e não podem substituir os profissionais de saúde mental, destacando a importância do acompanhamento profissional adequado.
A conselheira do CFP, Maria Carolina Roseiro, vê o aumento da procura por ferramentas de IA como um sinal positivo de que as pessoas estão mais atentas à sua saúde mental. No entanto, ela alerta para os riscos envolvidos, já que as interações com máquinas não possuem os filtros e a ética presentes nas relações humanas. A simulação de empatia pela inteligência artificial pode criar uma ilusão de acolhimento, sem necessariamente oferecer um cuidado efetivo.
O professor Leonardo Martins destaca que os chatbots e sistemas de IA tendem a concordar com o usuário e se adaptar aos seus interesses, o que pode dificultar a percepção de que determinadas atitudes ou pensamentos estão causando prejuízos. O espaço para procurar ajuda profissional é justamente o contrário, um lugar onde é possível questionar e refletir sobre essas questões.
Em relação à privacidade dos dados dos usuários, o grupo de trabalho criado pelo Conselho Federal de Psicologia demonstra preocupação. As ferramentas de IA disponíveis atualmente não possuem regulação em relação à privacidade de dados na área da saúde, o que pode resultar em vazamento de informações pessoais e vulnerabilidades para os usuários. Dados sensíveis podem ser interceptados por terceiros, caso as plataformas sejam hackeadas ou tenham falhas de segurança, representando um risco real para a segurança dos usuários.
O professor Victor Hugo de Albuquerque ressalta que os chatbots e sistemas de IA podem armazenar temporariamente as interações dos usuários para melhorar o serviço, o que pode expor informações sem consentimento explícito. Portanto, é essencial que as plataformas de IA adotem medidas rigorosas de segurança e transparência para proteger a privacidade e a segurança dos usuários.
Diante desse cenário, é fundamental que os usuários estejam cientes dos riscos e das limitações das ferramentas de inteligência artificial em saúde mental e busquem sempre o acompanhamento de profissionais qualificados. A conscientização e a regulação adequada são essenciais para garantir que o uso da IA contribua de forma positiva para o cuidado com a saúde mental das pessoas.
Já segue o macuxi nas redes sociais? Acompanhe todas as notícias em nosso Instagram, Twitter, Facebook, Telegram e também no Tiktok