Autora: Ana Sousa Veras
(citação: SousaVeras A.C.)

Resumo:

O artigo discute a crescente adoção da IA na saúde mental e as preocupações dos psicoterapeutas sobre serem substituídos e os riscos para os pacientes. Ele explora as motivações para o uso da IA (conveniência, ausência de julgamento) e detalha os riscos, como a superficialidade do tratamento, a falta de empatia genuína e de relação terapêutica, a incapacidade de gerir crises e questões éticas. O texto reafirma o valor insubstituível do psicoterapeuta humano na promoção de um cuidado autêntico e profundo.

Introdução

A crescente integração da Inteligência Artificial (IA) em diversos setores da sociedade tem gerado expectativas e desafios, e a área da saúde mental não é exceção. Dados recentes, corroborados por revisões sistemáticas e relatórios de organizações de saúde globais, demonstram um aumento expressivo no uso e na exploração de IAs para fins terapêuticos [1,2]. Essa tendência, embora inegável e impulsionada pela busca por maior acessibilidade e otimização de recursos, tem suscitado uma série de preocupações legítimas entre os profissionais da área da psicoterapia.
Muitos psicoterapeutas se questionam sobre a possibilidade de serem “substituídos” por essas tecnologias em suas funções, ou, de forma mais crucial, quais os riscos reais que a utilização da IA como ferramenta terapêutica primária representa para o bem-estar dos indivíduos que buscam apoio psicológico. Entidades profissionais, como a Ordem dos Psicólogos Portugueses (OPP) [3] e o Conselho Federal de Psicologia (CFP) do Brasil [4-6], e diversas pesquisas no campo da ética em IA e saúde mental [7,8], vêm alertando sobre as profundas implicações dessa integração.


O Crescimento da IA na Saúde Mental e suas Motivações

O avanço tecnológico e a necessidade premente de expandir o acesso a serviços de saúde mental, especialmente em contextos de alta demanda e escassez de profissionais, impulsionaram o desenvolvimento de soluções baseadas em IA. Agentes conversacionais (chatbots), aplicativos de monitoramento de humor e ferramentas de triagem têm demonstrado potencial em oferecer suporte básico e informação. Por exemplo, plataformas de IA têm alcançado milhões de usuários, que as procuram para lidar com sintomas de ansiedade e depressão, valorizando a conveniência e a disponibilidade 24/7 [2,9,10].
A percepção de um menor custo e a aparente ausência de julgamento por parte da máquina são fatores que atraem usuários. Essa última característica, inclusive, pode atenuar a resistência inicial em compartilhar informações sensíveis, um desafio comum no início do processo terapêutico humano, pois o paciente não teme a avaliação moral de uma entidade não-humana.
Contudo, é fundamental distinguir entre o suporte e a terapia propriamente dita. Enquanto a IA pode processar grandes volumes de dados e simular interações, sua atuação carece de elementos intrínsecos à experiência humana que são pilares da psicoterapia.


Os Riscos do Uso da IA como Terapeuta Primário

Apesar das potenciais vantagens da IA em contextos específicos e como ferramenta auxiliar, o seu emprego como substituto do psicoterapeuta humano apresenta riscos significativos, que vão além da mera preocupação com a obsolescência profissional:
Superficialidade e Ausência de Profundidade Clínica: A IA tende a focar no alívio sintomático baseado em padrões reconhecidos nos dados de treinamento. Isso pode levar a um alívio superficial, sem a exploração das causas subjacentes dos problemas (como traumas infantis não resolvidos, dinâmicas familiares disfuncionais ou crenças limitantes enraizadas), que exigem um processo de autoconhecimento e elaboração emocional que leva tempo e demanda uma intervenção humana [1].

Exemplo: Uma IA pode sugerir técnicas de respiração para a ansiedade, mas não conseguirá ajudar o paciente a compreender que sua ansiedade se manifesta em contextos específicos devido a um trauma passado, exigindo um trabalho de dessensibilização e reprocessamento. A intuição clínica, o discernimento e a capacidade de “ler” nuances não verbais (como um silêncio carregado de significado ou uma mudança sutil na postura corporal) são atributos exclusivamente humanos que a IA não possui [4].
Limitações da Relação Terapêutica e Falta de Empatia Genuína: A empatia genuína, a construção de uma aliança terapêutica baseada na confiança e na autenticidade, e a capacidade de modelar relações interpessoais saudáveis são elementos cruciais para o sucesso da psicoterapia [7]. A IA, por não possuir consciência ou emoções, apenas simula empatia, não conseguindo estabelecer uma conexão intersubjetiva profunda e reparadora.

Exemplo: Quando um paciente chora, a IA pode responder com uma frase de “compreensão” programada. Um terapeuta humano, no entanto, pode sentir a tristeza do paciente, refletir sobre a dor, oferecer um lenço, e usar esse momento para aprofundar a conexão, validando a experiência emocional de uma forma que transcende a mera resposta verbal. A ausência dessa dimensão humana pode levar a um sentimento de vazio ou a uma desumanização da interação.
Incapacidade de Gerenciar Crises e Situações Complexas: IAs não possuem o julgamento clínico necessário para avaliar riscos iminentes, como ideação suicida, surtos psicóticos ou situações de abuso. Elas não podem realizar encaminhamentos urgentes, intervir em crises ou acionar redes de apoio, o que representa um perigo substancial em casos graves de sofrimento psicológico [8,9].

Exemplo: Se um paciente expressa intenções suicidas, uma IA pode oferecer números de emergência, mas não conseguirá avaliar a gravidade da situação em tempo real, conter o paciente ou realizar as intervenções necessárias para garantir sua segurança, algo que um psicoterapeuta treinado faria imediatamente.
Questões Éticas e de Responsabilidade: A ausência de um código de ética e de responsabilidade legal é uma falha crítica da IA. Ao contrário dos psicoterapeutas humanos, que são regidos por rigorosas normas profissionais e são legalmente responsáveis por suas ações, a IA não pode ser responsabilizada por danos ou “conselhos” inadequados [7,8]. O Conselho Federal de Psicologia (CFP) no Brasil, por exemplo, já manifestou preocupação com a falta de regulamentação clara para essas ferramentas e com a proteção de dados sensíveis [4,5].

Exemplo: Se uma IA recomendar uma ação que leve ao agravamento do quadro do paciente, não há clareza sobre quem seria o responsável legal, dificultando a responsabilização e a proteção do usuário. Além disso, a privacidade e a segurança dos dados compartilhados com IAs são preocupações constantes, com riscos de vazamento de informações confidenciais [5].
Potencial para Reforço de Vieses e Dependência: IAs são treinadas com base em dados existentes, que podem conter vieses sociais, culturais ou de gênero. Sem uma revisão humana crítica, a IA pode replicar e amplificar esses vieses em suas interações, resultando em respostas inadequadas ou prejudiciais a determinados grupos de pessoas. Adicionalmente, a facilidade de acesso à IA pode gerar uma dependência, inibindo o desenvolvimento de habilidades de autoconhecimento e resiliência nos indivíduos [9].

Exemplo: Uma IA treinada predominantemente com dados de uma cultura ocidental pode falhar em compreender nuances de sofrimento ou estratégias de enfrentamento de culturas minoritárias, oferecendo “conselhos” que não são culturalmente sensíveis ou apropriados, ou até mesmo reforçando estereótipos.


O Valor Insubstituível do Psicoterapeuta Humano

Diante do avanço da IA, a reflexão para os psicoterapeutas não deve ser sobre a substituição, mas sim sobre a reafirmação e o aprimoramento das qualidades intrinsecamente humanas que a tecnologia não pode replicar. O terapeuta humano oferece:
Empatia genuína e ressonância emocional: a capacidade de sentir com o outro, de validar sua experiência em um nível profundo e de criar um vínculo de confiança.
Intuição clínica e julgamento ético: a habilidade de navegar pela complexidade, incerteza e nuances da experiência humana, tomando decisões que transcendem a mera lógica algorítmica e que são guiadas por valores e princípios.
Criação de uma aliança terapêutica autêntica: um espaço de confiança, segurança e co-construção de significado que é relacional, dinâmico e intersubjetivo, essencial para a exploração de questões delicadas como a transferência e a contratransferência.
Capacidade de lidar com o inesperado e o inconsciente: a flexibilidade para improvisar, adaptar e explorar as profundezas da psique humana, compreendendo as manifestações sutis do inconsciente que se revelam na relação.
Responsabilidade ética e legal: a garantia de um cuidado regido por princípios que priorizam o bem-estar e a segurança do paciente, com a possibilidade de responsabilização profissional.


Conclusão

A ascensão da Inteligência Artificial na saúde mental é uma realidade que exige atenção e reflexão crítica. Embora a IA possa servir como uma ferramenta valiosa para complementar o cuidado em saúde mental, especialmente em termos de acessibilidade e suporte de situações de baixa complexidade, a ideia de que ela pode substituir integralmente o papel do psicoterapeuta humano é ingênua e potencialmente prejudicial.
A preocupação dos profissionais é válida e essencial para um desenvolvimento ético e responsável da tecnologia nessa área.
A psicoterapia, em sua essência, é um encontro humano, um processo de cura que se manifesta na relação, na compreensão empática profunda e na capacidade de navegar pela complexidade da condição humana. É nesse espaço, onde a vulnerabilidade encontra a autenticidade, que a verdadeira transformação ocorre – algo que, até o momento, permanece um domínio exclusivo da interação entre seres humanos. O desafio é educar o público sobre a diferença e reafirmar o valor insubstituível do toque humano na jornada da saúde mental, assegurando que a tecnologia seja uma aliada e não uma detratora do cuidado psicológico de qualidade.

Referências
  1. Li H, Zhang R, Lee YC, et al. Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. npj Digital Medicine. 2023;6:236.
  2. World Health Organization (WHO). World mental health report: Transforming mental health for all. Geneva: World Health Organization; 2022.
  3. Ordem dos Psicólogos Portugueses (OPP). O fator humano na inteligência artificial – Recomendações Estratégicas para a Sustentabilidade. Lisboa: Ordem dos Psicólogos Portugueses; 2023.
  4. Conselho Federal de Psicologia (CFP). Uso de terapia por inteligência artificial preocupa Conselho Federal de Psicologia. Cultura UOL. 2025 Mai 22. Disponível em: https://cultura.uol.com.br/noticias/72031_uso-de-terapia-por-inteligencia-artificial-preocupa-conselho-federal-de-psicologia.html
  5. Conselho Federal de Psicologia (CFP). “Sessão de terapia” no ChatGPT oferece riscos e preocupa especialistas. Agência Brasil. 2025 Mai 18. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2025-05/sessao-de-terapia-no-chatgpt-oferece-risco-e-preocupa-especialistas
  6. Conselho Federal de Psicologia (CFP). Inteligência artificial em Psicoterapia. [Evento online]. site.cfp.org.br. 2021 Set 17. Disponível em: https://site.cfp.org.br/?evento=inteligencia-artificial-em-psicoterapia-3
  7. Sedlakova D, Trachsel M. Ethical considerations in the development and use of chatbots for mental health: A systematic review. Frontiers in Psychiatry. 2022;13:928374.
  8. Rana S, Singh A. Ethical considerations of artificial intelligence in mental healthcare: A scoping review. Journal of Medical Internet Research – Mental Health. 2023;10(1):e46789.
  9. Pplware / SAPO. IA: A nova terapia para a saúde mental?. Pplware [Internet]. 2025 Mai [citado 2025 Mai 29]. Disponível em: https://pplware.sapo.pt/
    10. National Geographic Portugal. A inteligência artificial pode ajudar-nos na saúde mental?. National Geographic Portugal [Internet]. 2024 Set [citado 2025 Mai 29]. Disponível em: https://nationalgeographic.pt/