Grupo HDI

OpenAI avança com ChatGPT Health e reacende debate sobre os limites da IA na saúde mental

Doctor shows patient medical scan on tablet.
Photo by Vitaly Gariev on Unsplash

Especialistas em saúde e tecnologia defendem integração responsável entre inovação, ética e cuidado humano

Em meio ao Janeiro Branco, mês dedicado globalmente à conscientização sobre a importância da saúde mental, a OpenAI anunciou o lançamento do ChatGPT Health, nova frente da plataforma voltada à aplicação da inteligência artificial em contextos de saúde, com foco especial no bem-estar emocional.  A iniciativa, que inclui alertas para pausas em interações prolongadas e mecanismos capazes de identificar sinais de sofrimento psicológico, amplia o debate sobre até onde a tecnologia pode e deve atuar no cuidado emocional das pessoas.

O anúncio acontece em um contexto de crescente uso da IA como ferramenta de apoio emocional. Segundo pesquisa da Harvard Business Review, aplicações relacionadas a aconselhamento terapêutico e bem-estar emocional já figuram como a principal motivação para o uso de ferramentas de IA generativa no mundo. No Brasil, o movimento segue a mesma tendência, sendo que um em cada dez usuários recorre à tecnologia para apoio psicológico, de acordo com levantamento da Talk Inc.

Alerta dos especialistas

Apesar dos avanços e da promessa de maior acessibilidade, especialistas reforçam que a evolução tecnológica precisa caminhar lado a lado com responsabilidade clínica, ética e limites bem definidos. Para Rui Brandão, vice-presidente de saúde mental da Conexa, ecossistema digital de saúde física e mental, os dados reforçam a necessidade de cautela.

“Já existem evidências de que modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais ou até oferecendo respostas inadequadas em contextos sensíveis. Um estudo recente publicado no arXiv mostra que, enquanto terapeutas humanos responderam de forma adequada em 93% dos testes, sistemas de IA acertaram, em média, apenas 50% das respostas dentro dos padrões terapêuticos básicos”, explica o executivo.

“A indústria tem avançado e o ChatGPT Health é um reflexo desse esforço, mas é fundamental deixar claro que a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, jamais substituir a relação terapêutica humana”, completa Brandão.

Leandro Oliveira, diretor da Humand no Brasil, plataforma global focada na centralização da cultura organizacional, também chama atenção para os riscos de uma dependência excessiva da tecnologia no cuidado emocional. “Existe um perigo real quando tentamos resolver questões profundamente humanas com ferramentas que não vivenciam emoções, contexto ou vínculo. Bem-estar emocional exige empatia, confiança e conexão genuína”, pontua.

Tecnologia como apoio e não como substituição

Os especialistas reconhecem que o ChatGPT Health representa um avanço importante ao ampliar o acesso ao suporte emocional, especialmente em um cenário marcado por filas de espera, escassez de profissionais e limitações de horário. A capacidade da IA de operar 24 horas por dia pode funcionar como um ponto de contato inicial relevante para pessoas em sofrimento.

“A disponibilidade contínua é um diferencial, principalmente para quem enfrenta crises fora do horário de funcionamento das clínicas tradicionais”, afirma o executivo da Conexa.

Ainda assim, há limitações estruturais difíceis de contornar. A prática terapêutica envolve muito mais do que o diálogo textual: gestos, silêncios, pausas e expressões são elementos essenciais do processo de cuidado, e permanecem fora do alcance dos modelos de linguagem.

“Muitas vezes, o que torna a terapia humana eficaz são justamente suas ‘imperfeições’. O processo de cura é não linear, exige tempo e construção de vínculo. Torná-lo excessivamente eficiente por meio da IA pode eliminar os próprios elementos que sustentam o cuidado”, reforça Oliveira.

No ambiente corporativo, onde ferramentas generativas também ganham espaço, o alerta se repete. “A inteligência artificial pode otimizar processos, mas não substitui os pequenos gestos que constroem cultura organizacional, como escuta ativa, trocas espontâneas e criatividade coletiva”, diz o executivo da Humand.

Privacidade e segurança de dados no centro do debate

Outro ponto crítico levantado pelos especialistas diz respeito à proteção de dados sensíveis. Conversas sobre saúde mental envolvem informações altamente confidenciais, o que amplia os riscos de vazamentos, uso indevido ou compartilhamento não autorizado, especialmente em contextos que ainda não contam com total aderência às normas de proteção de dados de saúde.

Para Brandão, o futuro do uso da IA na saúde passa, necessariamente, por modelos híbridos e seguros. “A tecnologia pode apoiar terapeutas no acompanhamento entre sessões e em processos de psicoeducação, desde que exista governança robusta, transparência e proteção de dados. O objetivo não deve ser tornar profissionais mais parecidos com máquinas, mas usar as máquinas para que eles possam ser ainda mais humanos”, conclui.

Total
0
Shares
Anterior
CAIXA Capitalização lança X CAP Singular para pessoa física, com prêmios de até 20 vezes o valor do título
Capitalização arrecada R$ 16,9 bilhões no primeiro semestre de 2025 / Foto: Freepik

CAIXA Capitalização lança X CAP Singular para pessoa física, com prêmios de até 20 vezes o valor do título

Novo produto amplia as opções de planejamento financeiro para clientes do

Próximo
GBOEX lança campanhas de valorização
GBOEX lança campanhas de valorização / Divulgação

GBOEX lança campanhas de valorização

Corretores de seguros parceiros e associados são os públicos beneficiados nas

Veja também