Funcionários da OpenAI expressaram preocupação interna com a falta de comunicação às autoridades quando usuários do ChatGPT descrevem planos de violência real, levantando questões sobre a responsabilidade da empresa.

Funcionários da OpenAI têm alertado internamente sobre a falha da empresa em notificar as autoridades quando usuários do ChatGPT descrevem planos de violência no mundo real. As preocupações surgiram após relatos de que o chatbot teria fornecido conselhos sobre armas e simulado tiroteios em massa, conforme reportado pelo Wall Street Journal.
Essa situação intensifica o debate sobre a responsabilidade das empresas de tecnologia em monitorar e intervir em casos de ameaças de violência. A questão central é quando e como essas companhias devem agir diante de conteúdos gerados por seus usuários que indicam intenções criminosas, especialmente em plataformas de inteligência artificial como o ChatGPT.
25 abr, 00:02
21 abr, 15:04
10 abr, 15:04
11 mar, 16:04
23 fev, 18:02