68% não identificaram erros deliberados em respostas de IA; dois terços aceitam outputs sem verificação mesmo suspeitando de falhas.
Um estudo com 1.372 participantes e mais de 9.000 testes deu nome ao fenômeno: 'capitulação cognitiva'. Em cenários controlados onde pesquisadores inseriram erros factuais deliberados em outputs de IA, 68% dos participantes não identificaram os erros antes de incorporá-los ao trabalho. Quase dois terços dos usuários exibem alta 'descarga cognitiva', aceitando respostas sem verificação mesmo quando suspeitam de falhas.
Trabalhadores que rotineiramente delegavam tarefas analíticas a modelos de linguagem mostraram declínios mensuráveis em capacidades de raciocínio específico de domínio ao longo do período de estudo. Os pesquisadores notaram, porém, que a capitulação cognitiva não é inerentemente irracional — um sistema estatisticamente superior poderia dar resultados melhores que humanos em contextos probabilísticos e avaliação de risco.
13 mar, 09:00
7 mar, 09:00
5 mar, 09:00
27 fev, 12:29
26 fev, 18:39