Com a evolução das ferramentas de inteligência artificial, especialistas apontam sinais para identificar conteúdos falsos em imagens, áudios e vídeos, cruciais para a verificação de informações.

Especialistas em inteligência artificial e verificação de fatos estão desenvolvendo métodos para identificar conteúdos gerados por IA, que se tornam cada vez mais realistas. A crescente incerteza sobre a autenticidade de imagens, vídeos e áudios manipulados por IA representa um desafio significativo para a circulação de informações, especialmente em contextos sensíveis como eleições e crises públicas. Mesmo indivíduos sem treinamento técnico encontram dificuldade em distinguir o real do artificial, o que ressalta a importância de ferramentas e conhecimentos para a detecção.
Profissionais como Hany Farid e Lele Cao apontam que, apesar do avanço, a IA ainda apresenta limitações na compreensão do mundo físico, o que gera pistas para a detecção. Em imagens, sinais como mãos com dedos anômalos, olhos desalinhados, fundos borrados ou padrões repetidos, e a plausibilidade geral da cena, podem indicar manipulação. Para áudios, a falta de naturalidade na entonação, a ausência de ruídos de fundo e mensagens inesperadas são indicativos. Já em vídeos, conhecidos como deepfakes, piscadas não naturais, expressões faciais estranhas, falta de sincronia labial e movimentos corporais inconsistentes são sinais de alerta.
16 abr, 10:07
11 mar, 13:02
9 fev, 12:38
3 fev, 02:00
24 jul, 21:00