Daily Journal

O Futuro da Informação

Daily Journal

Modelos de IA de código aberto são vulneráveis ​​ao uso criminoso, diz estudo

Um estudo revela que modelos de IA de código aberto são vulneráveis a uso criminoso, permitindo que hackers os utilizem para atividades maliciosas como spam, phishing e desinformação, devido à falta de proteções adequadas.

Daily Journal
|
29/01 às 13:51

Pontos principais

  • Hackers podem controlar computadores com LLMs de código aberto para atividades criminosas, como spam e phishing.
  • A pesquisa, realizada por SentinelOne e Censys, durou 293 dias e foi compartilhada com a Reuters.
  • Milhares de implementações de LLMs de código aberto podem ser usadas para invasão de sistemas, discurso de ódio, roubo de dados e outros crimes.
  • Variantes de LLMs da Meta (Llama) e Google DeepMind (Gemma) são comuns em servidores acessíveis pela internet.
  • Muitos modelos de código aberto têm seus mecanismos de proteção removidos explicitamente.
  • A pesquisa analisou LLMs implementados via Ollama, identificando que 7,5% poderiam permitir atividades prejudiciais.
  • A responsabilidade pelo uso indevido de modelos abertos é compartilhada, com laboratórios tendo o dever de antecipar danos e fornecer orientações de mitigação.

Mencionado nesta matéria

Pessoas

Juan Andres Guerrero-Saade (diretor executivo de pesquisa de inteligência e segurança da SentinelOne)Rachel Adams (presidente-executivo e fundadora do Global Center on AI Governance)Ram Shankar Siva Kumar (líder da equipe vermelha de IA da Microsoft)

Organizações

SentinelOneCensysReutersMetaGoogle DeepMindGlobal Center on AI GovernanceMicrosoftAlphabetAnthropicOllama

Lugares

ChinaEUA