Um novo estudo aponta que modelos de inteligência artificial de código aberto podem ser explorados por criminosos para atividades maliciosas como spam, phishing e desinformação, devido à remoção de proteções.
Um estudo recente, realizado por SentinelOne e Censys, revela que modelos de inteligência artificial de código aberto apresentam vulnerabilidades significativas que podem ser exploradas para fins criminosos. A pesquisa, que durou 293 dias e foi divulgada à Reuters, identificou que milhares de implementações de Large Language Models (LLMs) de código aberto podem ser utilizadas para atividades maliciosas, como spam, phishing, disseminação de desinformação, invasão de sistemas e roubo de dados. Modelos populares como as variantes Llama da Meta e Gemma do Google DeepMind são comumente encontrados em servidores acessíveis pela internet, muitos deles com proteções de segurança removidas intencionalmente.
Essa fragilidade levanta preocupações sobre a responsabilidade dos laboratórios de IA, que, segundo o estudo, têm o dever de antecipar possíveis danos e fornecer orientações claras para mitigar os riscos. A análise de LLMs implementados via Ollama mostrou que 7,5% deles poderiam permitir atividades prejudiciais, destacando a urgência de abordar essas vulnerabilidades para evitar o uso indevido e proteger a integridade dos sistemas digitais.