ANPD Proíbe Meta De Utilizar Dados Para Treinamento De IA No Facebook E Instagram

Nesta terça-feira (2), a Autoridade Nacional de Proteção de Dados (ANPD), vinculada ao Ministério da Justiça, implementou uma medida preventiva que proíbe a Meta de utilizar dados pessoais para treinar sistemas de inteligência artificial no Facebook, Instagram e Messenger. Esta decisão foi tomada em território brasileiro.

A determinação surge após a atualização da política de privacidade da Meta na semana anterior, permitindo o uso de informações públicas e conteúdos dos usuários para o aprimoramento dos seus sistemas de IA generativa. Com mais de 102 milhões de pessoas usando o Facebook no Brasil, a ANPD identificou possíveis infrações à Lei Geral de Proteção de Dados (LGPD) e riscos significativos aos titulares dos dados.

A ANPD enumerou várias razões para a medida protetiva. Constatou-se um uso inadequado da base legal para tratamento de dados pessoais, falta de clareza e precisão nas informações divulgadas sobre as mudanças na política de privacidade e no processamento desses dados. Existiam também restrições excessivas ao exercício dos direitos dos titulares e deficiências na proteção dos dados pessoais de crianças e adolescentes.

Impacto da Decisão

Se descumprida, a ordem implica uma multa diária de R$ 50 mil à empresa. A suspensão temporária afeta diretamente o modo como a Meta usa os conteúdos compartilhados pelos usuários para otimizar suas tecnologias. Um ponto crítico é que muitas das informações atualmente presentes nas plataformas da Meta foram inicialmente compartilhadas num contexto diferente – principalmente com familiares, amigos ou empresas do interesse do usuário –, sem expectativa do seu uso em treinamentos avançados de IA.

Além disso, o tratamento inadequado dos dados das crianças e adolescentes foi sublinhado como uma preocupação grave. A Meta não providenciou as informações necessárias para que os usuários entendessem as consequências do uso dos seus dados no desenvolvimento das IA. A autoridade observou entraves injustificados ao acesso às informações e ao direito dos usuários se oporem ao tratamento dessas informações.

Em resposta, a Meta expressou desapontamento quanto à decisão da ANPD. A empresa afirmou que sua abordagem é mais transparente comparada com outros no setor que igualmente empregam conteúdos públicos para treinar modelos e produtos. Apesar de garantir conformidade com leis brasileiras, ressaltaram os danos potenciais dessa medida à inovação e competitividade no desenvolvimento da IA.

A ação da ANPD vem como uma tentativa rigorosa de proteger a privacidade dos cidadãos brasileiros frente às novas políticas corporativas em constante evolução tecnológica. O embate entre execução regulatória e inovação tecnológica permanece um desafio contínuo no cenário digital global.

FatoDetalhes
O que aconteceu?A ANPD proibiu a Meta de usar dados pessoais para treinar IA.
Quando?Terça-feira, 2 de outubro.
Onde?Brasil.
MotivoAtualização da política de privacidade da Meta e possíveis infrações à LGPD.
ImpactoMulta diária de R$ 50 mil se descumprida; afeta o uso de conteúdos para otimizar tecnologias da Meta.
Resposta da MetaDesapontamento e defesa de sua transparência e conformidade com leis brasileiras.

Com informações do site CNN Brasil.

IMPORTANTE: O Artigo acima foi escrito e revisado por nossos advogados. Ele tem função apenas informativa, e deve servir apenas como base de conhecimento. Sempre consulte um advogado para analisar seu caso concreto.

Compartilhe com os amigos:

Facebook
Twitter
Pinterest
LinkedIn

Autor:

Categorias:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *