OpenAI ajuda desenvolvedores a criar experiências de IA mais seguras para adolescentes
A OpenAI lançou políticas de segurança baseadas em prompts para desenvolvedores que utilizam o gpt-oss-safeguard, visando moderar riscos específicos de idade em sistemas de inteligência artificial e proteger adolescentes.
|
24/03 às 08:00
Pontos principais
- A OpenAI divulgou novas políticas de segurança para desenvolvedores.
- As políticas são focadas na proteção de adolescentes ao usar sistemas de IA.
- O objetivo é ajudar a moderar riscos específicos de idade em experiências de IA.
- As diretrizes são baseadas em prompts e destinam-se a desenvolvedores que usam o gpt-oss-safeguard.
Mencionado nesta matéria
Organizações
OpenAI
