Modelos de IA de código aberto são vulneráveis ao uso criminoso, diz estudo
Um estudo revela que modelos de IA de código aberto são vulneráveis a uso criminoso, permitindo que hackers os utilizem para atividades maliciosas como spam, phishing e desinformação, devido à falta de proteções adequadas.
|
29/01 às 13:51
Pontos principais
- Hackers podem controlar computadores com LLMs de código aberto para atividades criminosas, como spam e phishing.
- A pesquisa, realizada por SentinelOne e Censys, durou 293 dias e foi compartilhada com a Reuters.
- Milhares de implementações de LLMs de código aberto podem ser usadas para invasão de sistemas, discurso de ódio, roubo de dados e outros crimes.
- Variantes de LLMs da Meta (Llama) e Google DeepMind (Gemma) são comuns em servidores acessíveis pela internet.
- Muitos modelos de código aberto têm seus mecanismos de proteção removidos explicitamente.
- A pesquisa analisou LLMs implementados via Ollama, identificando que 7,5% poderiam permitir atividades prejudiciais.
- A responsabilidade pelo uso indevido de modelos abertos é compartilhada, com laboratórios tendo o dever de antecipar danos e fornecer orientações de mitigação.
Mencionado nesta matéria
Pessoas
Juan Andres Guerrero-Saade (diretor executivo de pesquisa de inteligência e segurança da SentinelOne)Rachel Adams (presidente-executivo e fundadora do Global Center on AI Governance)Ram Shankar Siva Kumar (líder da equipe vermelha de IA da Microsoft)
Organizações
SentinelOneCensysReutersMetaGoogle DeepMindGlobal Center on AI GovernanceMicrosoftAlphabetAnthropicOllama
Lugares
ChinaEUA

