A OpenAI divulgou novas diretrizes de segurança baseadas em prompts para desenvolvedores, visando moderar riscos e proteger adolescentes em sistemas de inteligência artificial.

A OpenAI anunciou a implementação de novas políticas de segurança destinadas a desenvolvedores, com o objetivo principal de proteger adolescentes que interagem com sistemas de inteligência artificial. As diretrizes são baseadas em prompts e foram criadas para auxiliar na moderação de riscos específicos de idade, garantindo experiências mais seguras para usuários mais jovens.
Essas políticas são direcionadas a desenvolvedores que utilizam o gpt-oss-safeguard, uma ferramenta da OpenAI. A iniciativa reflete um esforço contínuo da empresa para promover o uso responsável da IA, abordando preocupações sobre o impacto da tecnologia em públicos vulneráveis e estabelecendo padrões para a criação de ambientes digitais mais seguros.
7 mai, 19:02
14 abr, 18:03
18 mar, 16:04
11 mar, 16:04
24 jul, 21:00
Carregando comentários...