Análise detalhada sobre os riscos das imagens médicas geradas por IA

Um estudo recente envolvendo especialistas em visualização biomédica de renomadas instituições – Universidade de Bergen (Noruega), Universidade de Toronto (Canadá) e Harvard (Estados Unidos) – destacou os perigos de utilizar ferramentas de inteligência artificial (IA) para criar imagens médicas. Publicado pelo The Register e intitulado "It looks sexy but it's wrong. Tensions in creativity and accuracy using GenAI for biomedical visualization", o trabalho alerta que, mesmo com uma aparência polida e profissional, as imagens geradas por modelos como GPT-4o e DALL-E 3 frequentemente apresentam imprecisões anatômicas e biológicas.

Apesar de o visual impactante poder induzir confiança, os pesquisadores afirmam que essa ilusão de acurácia pode levar a diagnósticos errôneos e decisões clínicas perigosas. A questão vai além da estética: imagens falsas podem disseminar desinformação científica e influenciar tanto a opinião pública quanto a atuação de profissionais de saúde, que podem basear suas decisões em representações visuais comprometidas.

O estudo, que será apresentado na conferência IEEE Vis 2025 em novembro, reuniu os pontos de vista de profissionais da área mediante uma pesquisa com 17 especialistas em BioMedVis, dividindo-os em diferentes perfis, desde entusiastas a críticos cautelosos do uso de IA para essa finalidade. A pesquisa apontou que, embora muitos já incorporem ferramentas generativas em seus fluxos de trabalho, a precisão anatômica continua sendo um requisito inegociável para a segurança clínica.

Entre os problemas identificados, alguns exemplos chamaram a atenção:

  • Imprecisão anatômica: Estudos evidenciaram que imagens geradas podem, por exemplo, confundir a estrutura de nervos – como o nervo ciático e o nervo ulnar – além de apresentar elementos absurdos, como o icônico "rato bem dotado".
  • Termos e referências inventadas: Casos de representações como o "green glowing protein" (proteína verde brilhante) demonstram a tendência do sistema em criar detalhes fantasiosos, que não correspondem à realidade médica.
  • Diferenciação equivocada de estruturas: Incidentes humorísticos, mas potencialmente perigosos, como o caso citado em que um modelo de IA respondeu a solicitação de uma imagem de pâncreas com o que foi descrito como "uma pilha de ovos alienígenas", ilustram bem os limites da tecnologia atual.

Mesmo que tais erros possam, em muitos casos, parecer inofensivos ou ser apreciados como uma curiosidade pela comunidade de BioMedVis – que inclusive os utiliza para debater e criticar o uso da tecnologia – os especialistas alertam para os riscos de se confiar automaticamente em imagens produzidas por IA. Conforme enfatiza Roxanne Ziman, pesquisadora e PhD na área de visualização, a possibilidade de um público leigo ou até mesmo de um clínico inexperiente tomar decisões com base em representações imprecisas pode ter consequências graves, ainda que não se tenha, até o momento, um caso documentado de prejuízo direto ao paciente.

O estudo também ressalta que a disseminação de imagens erradas pode afetar negativamente a credibilidade da comunidade científica. Referências satíricas, como a famosa exibição do "rato bem dotado" em programas como o The Late Show com Stephen Colbert, demonstram como abordagens humorísticas podem, na realidade, fomentar o ceticismo e a desconfiança em relação a pesquisas legítimas. Tal cenário é comparável às dificuldades enfrentadas durante campanhas de saúde pública, como as de vacinação, em que a comunicação eficaz é essencial para garantir o entendimento e a segurança da população.

Além dos desafios técnicos, os autores também discutem a problemática da "caixa-preta" dos modelos de IA, onde a falta de transparência impede identificar com precisão os mecanismos responsáveis pelos erros. Essa opacidade gera preocupações em torno da responsabilidade e da ética, especialmente quando se trata de áreas sensíveis como a saúde. Um dos entrevistados, identificado como Kim, pontuou que é fundamental haver alguém capaz de explicar os resultados apresentados, reforçando a importância da confiança e da competência nos sistemas utilizados.

Em uma perspectiva mais ampla, as preocupações abordadas no estudo não se restringem apenas às imagens médicas. A utilização de ferramentas genéricas de IA para outras tarefas, como a geração de código ou a redação de textos, também pode resultar na propagação de informações imprecisas e na criação de referências equivocadas, ampliando o debate sobre o papel e os limites dessas tecnologias na sociedade contemporânea.

Concluindo, os pesquisadores defendem a criação urgente de diretrizes e melhores práticas para o uso seguro da IA em contextos biomédicos. Eles ressaltam que, apesar dos avanços tecnológicos e da crescente adoção de métodos automatizados, a precisão técnica e a responsabilidade ética devem permanecer como prioridades fundamentais. A esperança é de que, com um diálogo aberto e uma reflexão crítica, a comunidade de saúde possa aproveitar os benefícios da IA sem comprometer a segurança dos pacientes nem a credibilidade científica, evitando, assim, que o charme visual se transforme em um risco real na prática clínica.

Em meio a um cenário tecnológico cada vez mais acelerado, a reflexão sobre os limites do que a IA pode – e deve – fazer é imprescindível, principalmente em um país como o Brasil, onde as disparidades na saúde e na tecnologia já demandam uma atenção especial. O alerta dos pesquisadores, divulgado pelo The Register, serve como um chamado para que profissionais, instituições e reguladores trabalhem juntos na definição de um uso mais seguro e criterioso dessa poderosa ferramenta.