O Google desativou resumos de saúde produzidos por inteligência artificial (IA) depois que o jornal The Guardian identificou informações falsas e enganosas nos resultados. A suspensão ocorreu após investigação revelar que o recurso AI Overviews apresentava dados imprecisos que poderiam colocar pacientes em risco.
A empresa removeu consultas específicas relacionadas a exames de fígado depois que especialistas consultados pelo The Guardian classificaram os resultados como “perigosas”. A investigação também detectou um erro crítico sobre câncer de pâncreas. Neste caso, a IA recomendava que pacientes evitassem alimentos gordurosos, contrariando diretrizes médicas que incentivam a manutenção do peso.
Falhas estruturais no sistema de IA
O recurso AI Overviews foi desenvolvido para exibir informações baseadas nos principais resultados da web, partindo do pressuposto que páginas bem posicionadas contêm dados precisos. No entanto, o algoritmo de classificação do Google enfrenta dificuldades com conteúdo manipulado para SEO e spam.
A suspensão dos resumos aconteceu três dias antes da publicação da matéria original pelo The Guardian. Apesar das descobertas, o Google desativou apenas os resumos relacionados a exames de fígado, mantendo outras respostas potencialmente problemáticas disponíveis aos usuários.
Impacto nos pacientes
A investigação demonstrou que pessoas com doenças hepáticas graves poderiam acreditar erroneamente que estavam saudáveis ao consultar os resumos gerados pela IA. Isso poderia levar à negligência do acompanhamento médico necessário.
O problema foi identificado em buscas como “qual é a faixa normal para exames de sangue do fígado”, que geravam tabelas de dados brutos listando enzimas específicas (ALT, AST e fosfatase alcalina) sem o contexto necessário.
Além disso, o recurso não ajustava esses valores conforme dados demográficos dos pacientes, como idade, sexo e etnia.
O jornal descobriu que digitando pequenas variações das consultas originais, como “intervalo de referência lft” ou “intervalo de referência de teste lft”, resultados problemáticos continuaram aparecendo.
Posicionamento de especialistas e da empresa
Vanessa Hebditch, diretora de comunicação e políticas do British Liver Trust, afirmou ao The Guardian que entender os resultados de testes de função hepática “é complexo e envolve muito mais do que comparar um conjunto de números”. Ela alertou que os relatórios da IA não informavam que uma pessoa pode obter resultado “normal” nesses testes mesmo quando tem doença hepática grave e precisa de cuidados médicos adicionais. “Essa falsa sensação de segurança pode ser muito prejudicial”, destacou.
Por outro lado, um porta-voz do Google declarou ao The Verge que a empresa investe na qualidade das Visões Gerais de IA, principalmente para tópicos de saúde, e que “a grande maioria fornece informações precisas”. O representante acrescentou que a equipe interna de médicos da empresa revisou o conteúdo compartilhado e “constatou que, em muitos casos, as informações não eram imprecisas e também eram respaldadas por sites de alta qualidade”.
Até o momento, não há informações se o Google planeja revisar outros resumos de saúde gerados por IA. A empresa também não revelou se implementará mudanças estruturais no sistema AI Overviews.
The post Erros médicos fazem Google desativar resumos de saúde feitos por IA appeared first on Giz Brasil.