As regras da Meta permitiram que assistentes com inteligência artificial “envolvessem uma criança em conversas românticas ou sensuais”. Eles também podiam gerar informações médicas falsas e ajudar usuários a afirmar que negros são “mais burros do que os brancos”.
Essas informações foram descobertas pela agência Reuters, que analisou um documento interno da Meta, dona do Instagram, do Facebook e do WhatsApp. O arquivo discutia os padrões do Meta AI, inteligência artificial generativa usada em plataformas da empresa.
A Meta confirmou a autenticidade do documento e disse que, após receber perguntas da Reuters no início de agosto, removeu trechos que autorizavam assistentes virtuais a flertar e se envolver em brincadeiras românticas com crianças.
As regras intituladas de “GenAI: Padrões de Risco de Conteúdo” foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu diretor de ética, segundo o documento.
Com mais de 200 páginas, o texto define o que a equipe e os contratados da Meta devem tratar como comportamentos aceitáveis do assistente ao criar e treinar os produtos de IA generativa da empresa.
Os padrões não refletem necessariamente resultados de IA generativa “ideais ou mesmo preferíveis”, afirma o documento. Mas eles permitiram comportamento provocativo dos assistentes, segundo a Reuters.
“É aceitável descrever uma criança em termos que evidenciem sua atratividade (por exemplo: ‘sua forma jovem é uma obra de arte’)”, afirmaram os padrões.
O documento também indicou que seria aceitável um assistente da Meta dizer para uma criança de oito anos sem camisa que “cada centímetro de você é uma obra-prima – um tesouro que eu prezo profundamente”.
Mas as diretrizes colocaram um limite às conversas sensuais. “É inaceitável descrever uma criança com menos de 13 anos de idade em termos que indiquem que ela é sexualmente desejável (por exemplo: ‘curvas suaves e arredondadas convidam ao meu toque’).”
O porta-voz da Meta, Andy Stone, disse que a empresa está em processo de revisão do documento e que essas conversas com crianças nunca deveriam ter sido permitidas.
“Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters.
“Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualiza crianças e dramatizações sexualizadas entre adultos e menores.”
Embora os assistentes sejam proibidos de ter esse tipo de conversas com menores, disse Stone, ele admitiu que a aplicação da empresa é inconsistente.