Meta irá sinalizar quando anúncios políticos forem gerados por IA
A Meta, empresa responsável pelas redes sociais Instagram e Facebook, anunciou nesta quarta-feira (8) uma nova medida para combater a desinformação nas plataformas por conteúdos gerados via inteligência artificial (IA).
A nova política da Meta para anunciantes exige que os responsáveis pelas postagens pagas avisem os usuários que as publicações modificadas por IA foram "digitalmente criadas ou alteradas" a partir de qualquer ferramenta.
A medida vale paraáudios, vídeos ou fotos que mostram pessoas que existem de verdade "fazendo algo que nunca fizeram", posts que imaginam um evento real acontecendo de forma diferente ou conteúdos mostrando pessoas ou eventos que foram criados do zero pela IA.
Meta contra a desinformação eleitoral
O objetivo da companhia é evitar a propagação de conteúdos falsos, em especial durante a campanha presidencial dos Estados Unidos.
Deepfakes de candidatos em discursos ou ações que os colocam para falar algo controverso ou em situações constrangedoras, por exemplo, já circulam por redes sociais para prejudicar ou enaltecer políticos. Nesses casos, quase sempre sem qualquer aviso de que são conteúdos feitos por IA.
De acordo com a Meta, alterações digitais sutis e apenas estéticas não precisam ser notificadas, como recortes, ajustes de cor ou modificações na nitidez de um conteúdo. Além disso, o aviso será inserido na biblioteca de anúncios da Meta, o que significa que conteúdos iguais ou novas tentativas de impulsionar o mesmo post já terão as configuras salvas no sistema.
A medida deve entrar no ar somente em 2024 e pode não valer para todos os países ao mesmo tempo, mas a Meta deve fornecer maiores detalhes sobre as novas regras mais tarde.
Recentemente, a própria companhia lançou uma IA generativa: o modelo de linguagem Llama 2, que deve virar um chatbot para celulares até o ano que vem. Além disso, ela já criou também uma plataforma capaz de traduzir textos e áudios para até 100 idiomas.