Pesquisas recentes indicam que pacientes comuns têm dificuldade em obter informações médicas precisas de ferramentas de inteligência artificial, como ChatGPT, que falham em identificar falácias, especialmente em jargão clínico.
Estudos recentes da Universidade de Oxford e do Mount Sinai revelam que pacientes comuns raramente conseguem extrair informações médicas úteis de ferramentas de inteligência artificial, como ChatGPT e Llama. A qualidade da informação fornecida por IA cai drasticamente quando utilizada por leigos, que obtêm diagnósticos corretos em apenas 34,5% dos casos, em contraste com 94,9% dos cientistas. Essa disparidade é atribuída à forma como as perguntas são formuladas e à interpretação errônea por parte da IA.
Além disso, os grandes modelos de linguagem (LLMs) demonstram falha em identificar 31,7% das informações médicas incorretas, sendo menos eficazes com jargão clínico. Mesmo modelos mais avançados, como o ChatGPT 4.0, deixaram passar 10,6% dos erros. Os pesquisadores alertam que é prematuro confiar em chatbots de IA como fonte primária de informação médica ou para triagem de pacientes, destacando a necessidade de cautela na adoção dessas tecnologias na saúde.