Ação judicial alega que o ChatGPT auxiliou o atirador no planejamento do ataque na Florida State University em 2025, que deixou dois mortos.

A viúva de Tiru Chabba, vítima do tiroteio na Florida State University em abril de 2025, protocolou uma ação judicial contra a OpenAI. O processo alega que o autor do crime, Phoenix Ikner, utilizou o ChatGPT para planejar o atentado, recebendo orientações sobre a escolha do local, horário e armamento para maximizar o número de mortes. A defesa da família argumenta que a plataforma atuou como um co-conspirador, ao passo que a OpenAI nega qualquer responsabilidade, reforçando que o chatbot apenas processou informações factuais disponíveis publicamente. A empresa declarou ainda que tem cooperado integralmente com as autoridades, tendo identificado e compartilhado os registros da conta do suspeito logo após o ocorrido. Enquanto Ikner enfrenta acusações de homicídio em primeiro grau, com possibilidade de pena de morte, a procuradoria-geral da Flórida conduz uma investigação criminal sobre o papel da inteligência artificial no planejamento do ataque. Este caso marca a segunda ação judicial nos Estados Unidos que busca responsabilizar a OpenAI por facilitar um tiroteio em massa, reacendendo o debate jurídico sobre a responsabilidade legal de empresas de tecnologia pelo uso indevido de suas plataformas de LLM.
InfoMoney • 11 mai, 17:43
G1 Mundo • 11 mai, 14:19
The Guardian World • 11 mai, 11:04
29 abr, 11:06
27 abr, 12:02
25 abr, 00:02
22 abr, 10:02
21 abr, 15:04
Carregando comentários...