A Anthropic lançou a versão 3.0 de sua Política de Escalabilidade Responsável, comprometendo-se com a segurança infantil e a mitigação de riscos eleitorais em IA.
A Anthropic, empresa de pesquisa em inteligência artificial, anunciou o lançamento da versão 3.0 de sua Política de Escalabilidade Responsável (RSP). Esta atualização reforça o compromisso da companhia com o desenvolvimento seguro da IA, priorizando a mitigação de riscos catastróficos que podem surgir com o avanço de sistemas inteligentes. A RSP consiste em um conjunto de protocolos técnicos e organizacionais para gerenciar os riscos associados ao desenvolvimento de sistemas de IA cada vez mais capazes, detalhando estratégias para gerenciar e reduzir perigos emergentes, incluindo riscos de uso indevido deliberado ou de capacidades não intencionais que possam causar devastação em larga escala.
Além disso, a Anthropic, juntamente com outras empresas líderes em inteligência artificial, comprometeu-se a implementar medidas robustas de segurança infantil no desenvolvimento, implantação e manutenção de tecnologias de IA generativa. Esta iniciativa visa alinhar princípios para garantir um ambiente digital seguro para os jovens, destacando a importância da colaboração entre as empresas para estabelecer padrões de segurança. A empresa também compartilhou reflexões sobre a implementação da RSP, que foi publicada pela primeira vez no ano passado, com o objetivo de transformar conceitos de segurança de alto nível em diretrizes práticas para organizações técnicas e demonstrar a viabilidade dessas diretrizes como possíveis padrões da indústria.
Em um esforço contínuo para garantir o uso responsável da inteligência artificial, a Anthropic tem se dedicado a testar e mitigar os riscos que seus modelos de IA podem representar para as eleições. Desde o verão passado, a empresa tem trabalhado para identificar e resolver potenciais problemas que a IA pode causar em contextos eleitorais, como a disseminação de desinformação e outras ameaças à integridade do processo. A empresa detalha as medidas específicas tomadas para detectar e mitigar o uso indevido de suas ferramentas de inteligência artificial em contextos políticos durante as eleições globais de 2024. Este trabalho reflete o compromisso da Anthropic com a segurança e a integridade do processo eleitoral, buscando promover a discussão pública sobre como todos os laboratórios podem implantar modelos de IA de forma segura, contribuindo para o avanço da segurança no setor.
11 mar, 09:00
5 mar, 13:01
1 mar, 13:19
28 fev, 10:55
27 fev, 12:29