Como TikTok e Meta ignoraram segurança para ganhar disputa por engajamento, segundo ex-funcionários
Ex-funcionários do TikTok e da Meta revelam que as empresas priorizaram o engajamento e o lucro em detrimento da segurança dos usuários, permitindo a proliferação de conteúdo nocivo e ignorando alertas internos.
|
21/03 às 03:00
Pontos principais
- Denunciantes afirmam que TikTok e Meta permitiram conteúdo nocivo para impulsionar o engajamento e competir no mercado.
- Engenheiros da Meta foram instruídos a permitir conteúdo "limítrofe" como misoginia e teorias conspiratórias para competir com o TikTok.
- Funcionários do TikTok priorizaram casos envolvendo políticos em detrimento de denúncias de conteúdo nocivo envolvendo crianças, para evitar regulação.
- Pesquisas internas da Meta mostraram que o Instagram Reels tinha maior prevalência de bullying, assédio e discurso de ódio.
- Equipes de segurança da Meta tiveram contratações negadas enquanto a empresa investia na expansão do Reels.
- Documentos internos da Meta indicam que a empresa estava ciente de que seu algoritmo amplificava conteúdo que gerava indignação e danos.
- Ex-funcionários aconselham pais a removerem o TikTok dos dispositivos de seus filhos devido aos riscos de segurança.
Mencionado nesta matéria
Pessoas
Matt Motyl (pesquisador sênior da Meta)Ruofan Ding (engenheiro de aprendizado de máquina do TikTok)Calum (adolescente)Nick (integrante da equipe de confiança e segurança do TikTok)Brandon Silverman (fundador da Crowdtangle)Mark Zuckerberg (CEO da Meta)Tim (ex-engenheiro da Meta)
Organizações
TikTokMetaBBCFacebookInstagramInstagram ReelsCrowdtangleg1
Lugares
Reino UnidoFrançaIraqueCalifórnia
