Governo determina que Meta pare de usar dados pessoais para treinamento de IA

Decisão ocorre a partir das mudanças nos termos de uso das redes sociais cuja Meta é dona, como o WhatsApp, Instagram e Facebook

2 jul 2024 - 09h51
(atualizado às 10h44)
Logo da Meta em Mumbai, Índia
20/9/2023REUTERS/Francis Mascarenhas/Arquivo
Logo da Meta em Mumbai, Índia 20/9/2023REUTERS/Francis Mascarenhas/Arquivo
Foto: Reuters

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma Medida Preventiva nesta terça-feira (2) para que a Meta, dona do WhatsApp, Instagram e Facebook, interrompa o uso de dados pessoais de brasileiros para treinar sua inteligência artificial (IA) generativa.

A ANPD estabeleceu multa de R$ 50 mil por violação e o cumprimento é imediato. A decisão foi tomada pelo Conselho Diretor da autoridade, assinada pelo diretor-presidente, Waldemar Gonçalves.

Publicidade

A ordem vem junto com a atualização das novas políticas de uso das plataformas da Meta, que entrou em vigor no dia 16 de junho.

Agora, as redes permitem automaticamente que a IA da companhia utilize informações postadas por usuários das mídias, excluindo somente mensagens diretas para amigos e família. 

Em um post no blog da empresa, a Meta admite que uma das formas que está desenvolvendo sua IA é com o uso de informações disponíveis publicamente e dados licenciados na internet.

Decisão da ANPD

De acordo com o comunicado da ANPD, a política atinge um número grande de brasileiros, uma vez que somente o Facebook possui cerca de 102 milhões de usuários ativos no país.

Publicidade

O Instituto de Defesa de Consumidores (Idec) considera que a Meta está violando as leis brasileiras na forma como utiliza dados dos usuários para treinar a IA. Segundo o órgão, a empresa pode ser multada em até R$ 50 milhões por infração por infringir a Lei Geral de Proteção de Dados (LGPD).

A Meta respondeu ao Byte sobre o despacho da ANPD. Confira na íntegra o posicionamento da companhia:

"Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil", diz porta-voz da Meta.

Em até cinco dias após a Meta ser intimada, a empresa precisa apresentar ao governo um documento que prove as mudança nas Políticas de Privacidade, de forma que o trecho sobre o uso de dados pessoais para treinar a IA seja excluído.

Mudanças nas redes sociais da Meta

A mudança nas regras da Meta ocorreu em 16 de junho, sem aviso explícito ao público. Na União Europeia, isso foi feito de outra forma, graças ao Regulamento Geral de Proteção de Dados (GDPR). 

Na Europa, usuários receberam um aviso a respeito das mudanças via aplicativo e por e-mail. A Meta informou que quem preferir, pode se opor ao uso dos dados para desenvolver IA até o dia 26 de junho.

Publicidade

Já no Brasil, mesmo com a LGPD, não houve grande destaque para informar os usuários. 

Em comunicado, a Meta informa que “com base nas leis locais do Brasil, você poderá se opor ao uso de suas informações de nossos produtos e serviços para desenvolver e melhorar a inteligência artificial da Meta. O formulário de objeção pode ser encontrado na nossa Central de Privacidade".

Mesmo com a possibilidade de se opôr, o caminho dos usuários não era facilitado e precisava, ainda, de uma análise do pedido de oposição.

Fonte: Redação Byte
TAGS
Curtiu? Fique por dentro das principais notícias através do nosso ZAP
Inscreva-se