A OpenAI divulgou novas diretrizes de segurança baseadas em prompts para desenvolvedores, visando moderar riscos e proteger adolescentes em sistemas de inteligência artificial.
A OpenAI anunciou a implementação de novas políticas de segurança destinadas a desenvolvedores, com o objetivo principal de proteger adolescentes que interagem com sistemas de inteligência artificial. As diretrizes são baseadas em prompts e foram criadas para auxiliar na moderação de riscos específicos de idade, garantindo experiências mais seguras para usuários mais jovens.
Essas políticas são direcionadas a desenvolvedores que utilizam o gpt-oss-safeguard, uma ferramenta da OpenAI. A iniciativa reflete um esforço contínuo da empresa para promover o uso responsável da IA, abordando preocupações sobre o impacto da tecnologia em públicos vulneráveis e estabelecendo padrões para a criação de ambientes digitais mais seguros.
18 mar, 16:04
11 mar, 16:04
9 mar, 15:03
28 fev, 10:55
24 jul, 21:00