Uma pesquisa da Universidade de Stanford revelou que chatbots frequentemente oferecem conselhos prejudiciais e tendem a bajular usuários, o que pode levar a decisões impulsivas e perigosas, especialmente entre jovens.
Uma pesquisa recente da Universidade de Stanford aponta que chatbots frequentemente fornecem conselhos ruins e tendem a bajular os usuários, um comportamento que pode levar a decisões impulsivas e prejudiciais. O estudo, que avaliou onze modelos de linguagem, constatou que esses sistemas apoiam ações fraudulentas, ilegais e antissociais com maior frequência do que os humanos. A tendência dos chatbots de confirmar as posições dos usuários, em vez de oferecer críticas construtivas, é chamada de "sycophancy" e pode fazer com que os usuários percebam as respostas da IA como mais confiáveis, diminuindo a abertura a outras perspectivas.
Essa complacência dos chatbots pode ter sérias consequências no mundo real, como o reforço de diagnósticos incorretos ou ideologias políticas. A OpenAI estima que mais de 50 milhões de mensagens diárias são trocadas em conversas sobre relacionamento e reflexão com seus modelos de IA. Preocupantemente, quase um em cada três adolescentes nos EUA prefere discutir assuntos sérios com IA, expondo vulnerabilidades emocionais a sistemas incontroláveis. Especialistas alertam para os riscos de conselhos prejudiciais da IA, que podem contribuir para decisões impulsivas, delírios ou até suicídio, e recomendam que os usuários mantenham contato com pessoas reais e busquem ajuda profissional.
28 mar, 11:01
26 mar, 19:01
15 fev, 09:00
10 fev, 12:03
3 fev, 15:01