O Google apresentou uma novidade na aplicação da Inteligência Artificial (IA) na Medicina com o lançamento do AMIE Multimodal. O AMIE (Articulate Medical Intelligence Explorer) é um sistema de diagnóstico conversacional que combina linguagem e visão para realizar consultas médicas simuladas com alto grau de precisão. A nova versão, agora equipada com raciocínio multimodal, demonstrou contribuir com médicos de atenção primária em diversos critérios clínicos durante testes com pacientes simulados.
A inovação reside na capacidade da IA do Google de solicitar, interpretar e raciocinar com base em dados visuais, como fotos da pele ou exames laboratoriais, em tempo real, durante uma conversa com o paciente. Isso simula o comportamento de um médico humano experiente, que adapta suas perguntas conforme recebe novas informações e reformula hipóteses diagnósticas.
Conversas mais inteligentes e visão computacional
Embora sistemas de IA baseados em linguagem natural, como o próprio AMIE em sua versão anterior, já tenham mostrado bons resultados em consultas médicas baseadas em texto, o novo desafio era integrar elementos visuais à conversa. Na prática médica, imagens e documentos são fundamentais para diagnósticos precisos. Plataformas de mensagens instantâneas já oferecem suporte para esse tipo de conteúdo, inclusive em contextos clínicos, mas a IA ainda não havia avançado nesse território.
O Google resolveu esse problema ao integrar ao AMIE o modelo Gemini 2.0 Flash, um sistema nativamente multimodal, capaz de processar imagens e texto simultaneamente e otimizar as respostas. Assim, a IA pode simular o comportamento de um clínico ao longo de três fases: anamnese (coleta de informações sobre o paciente), diagnóstico e manejo, e acompanhamento, com transições baseadas na evolução da conversa e no grau de incerteza sobre o quadro do paciente.
Testes rigorosos do AMIE
Para validar o desempenho do AMIE Multimodal, os pesquisadores utilizaram um formato conhecido na educação médica: o OSCE (Exame Clínico Objetivo Estruturado). Com ele, pessoas simulam pacientes em consultas padrão. Em um estudo remoto com 105 cenários diferentes, os pacientes conversaram via chat com o AMIE e com médicos humanos. As interações permitiam o envio de fotos e outros artefatos multimodais.
As conversas foram avaliadas por especialistas em dermatologia, cardiologia e clínica médica, que analisaram aspectos como precisão diagnóstica, qualidade do plano de tratamento, empatia e adequação da comunicação. Os resultados mostraram que a IA superou os médicos humanos em diversos indicadores.
“Nosso estudo demonstrou que o AMIE supera os médicos de atenção primária na interpretação de dados multimodais em consultas simuladas por mensagens instantâneas. Também obteve pontuação mais alta em outros indicadores-chave de qualidade da consulta, como precisão diagnóstica, raciocínio gerencial e empatia. O AMIE produziu diagnósticos diferenciais mais precisos e completos”, pontua a empresa em nota.
Empatia e precisão
O AMIE Multimodal foi capaz de gerar diagnósticos diferenciais mais completos, interpretar corretamente imagens fornecidas pelos pacientes e adaptar sua estratégia de coleta de informações com mais eficácia. Em métricas como empatia e confiabilidade percebida, também se saiu melhor. As pessoas que simulavam pacientes frequentemente relataram se sentirem mais acolhidas ao interagir com a IA.
A taxa de “alucinações”, ou seja, quando a IA gera informações incorretas ou inexistentes, foi estatisticamente indistinguível da dos médicos participantes. Isso é especialmente relevante, considerando os riscos associados a decisões clínicas baseadas em IA.
A equipe também avaliou uma versão ainda mais recente da IA, baseada no modelo Gemini 2.5 Flash. O Google fez testes preliminares com o mesmo ambiente de simulação. Essa nova versão mostrou ganhos estatisticamente significativos em critérios como a precisão do diagnóstico entre as três primeiras hipóteses e a adequação do plano de tratamento, com desempenho consistente na coleta de informações e manutenção da segurança (baixa taxa de alucinações).
Embora ainda em estágio de pesquisa, os resultados indicam que futuras versões do AMIE poderão se tornar ainda mais eficazes com a evolução dos modelos de IA subjacentes.
Limitações e próximos passos do AMIE
Os pesquisadores destacam que, apesar dos resultados animadores, o estudo foi realizado em ambiente simulado, e isso representa apenas uma fração da complexidade da prática clínica real. Além disso, a simulação não captura todas as nuances da interação médico-paciente, como linguagem corporal, expressões faciais e entonação da voz.
Por isso, o próximo passo será um estudo prospectivo com pacientes reais, realizado em parceria com o Beth Israel Deaconess Medical Center, nos Estados Unidos. O objetivo é entender como o AMIE se comporta em condições clínicas reais. Além disso, avaliar seu impacto nos fluxos de trabalho e nos desfechos dos pacientes.
Outro desafio em desenvolvimento é permitir interações por áudio e vídeo em tempo real, fundamentais para consultas por telemedicina. Atualmente, o AMIE funciona apenas por meio de mensagens de texto, o que limita sua capacidade de captar sinais não verbais.
“A integração da percepção e do raciocínio multimodais representa um avanço significativo para as capacidades da IA conversacional na medicina. Ao permitir que a AMIE ‘veja’ e interprete os tipos de evidências visuais e documentais cruciais para a prática clínica, impulsionada pelos recursos avançados do Gemini, esta pesquisa demonstra as capacidades de IA necessárias para auxiliar pacientes e médicos de forma mais eficaz em cuidados de alta qualidade. Nossa pesquisa reforça nosso compromisso com a inovação responsável, com avaliações rigorosas quanto à aplicabilidade e segurança no mundo real”, finaliza a big tech.
IACX 2025
A Inteligência Artificial está transformando a maneira como empresas e marcas se conectam com seus consumidores. No IACX, seminário realizado pela Consumidor Moderno e pelo Grupo Padrão, lideranças compartilharão estratégias e desafios para colocar essa tecnologia revolucionária em prática.
O evento será realizado no dia 6 de maio e terá transmissão online. Inscreva-se já e não fique de fora do futuro do CX!