Daily Journal

O Futuro da Informação

Daily Journal

Pacientes raramente extraem informação médica útil da IA, mostram estudos

Estudos recentes indicam que pacientes comuns raramente conseguem extrair informações médicas úteis de ferramentas de inteligência artificial, como ChatGPT e Llama, e que esses sistemas falham em identificar falácias médicas, especialmente quando apresentadas em jargão clínico.

Daily Journal
|
10/02 às 11:26

Pontos principais

  • A qualidade da informação médica fornecida por IA cai drasticamente quando usada por leigos, em comparação com cientistas.
  • Pesquisadores da Universidade de Oxford mostraram que leigos obtêm diagnósticos corretos em apenas 34,5% dos casos usando IA, contra 94,9% dos cientistas.
  • A forma como a pergunta é formulada afeta significativamente o resultado obtido dos grandes modelos de linguagem (LLMs).
  • Um segundo estudo, do Mount Sinai, revelou que LLMs falham em identificar 31,7% das informações médicas incorretas, sendo menos eficazes com jargão clínico.
  • Modelos mais avançados como o ChatGPT 4.0 tiveram melhor desempenho, mas ainda deixaram passar 10,6% dos erros.
  • Os estudos sugerem que é prematuro confiar em chatbots de IA como fonte primária de informação médica ou para triagem de pacientes.
  • A falha não é atribuída à incapacidade do usuário, mas à diferença entre a formulação de perguntas por leigos e por profissionais, e à interpretação errônea por parte da IA.

Mencionado nesta matéria

Pessoas

Andrew Bean (cientista)Mahmud Omar (cientista)

Organizações

Universidade de OxfordMount SinaiRedditNature MedicineThe Lancet Digital Health

Lugares

Nova York