ANPD suspende tratamento de dados pessoais da Meta para treinamento de IA

A Autoridade de data protection informou publicamente a decisão nessa terça-feira (02), afirmando ter encontrado indícios de que o processo de uso das informações se baseava em hipótese legal inadequada e representava riscos aos titulares. Em nota, a Meta se disse desapontada pela decisão, definindo-a como um retrocesso para a inovação

Compartilhar:

A Autoridade Nacional de Proteção de Dados (ANPD), emitiu uma Suspensão Cautelar contra os processos de tratamento de dados pessoais da Meta direcionados para o treinamento da Inteligência Artificial da companhia. A medida preventiva visa suspender de imediato a vigência da nova política de privacidade da Big Tech, que autorizava o uso de dados pessoais mantidos nas plataformas para alimentar os sistemas internos de IA.

 

De acordo com nota veiculada hoje (02), a medida da ANPD se refere à última atualização da política de privacidade da empresa, que entrou em vigor no último dia 26 de junho e contemplava todos os serviços mantidos pela Meta, incluindo Facebook, Messenger, Instagram e WhatsApp. A partir dessa nova atualização, a política autorizava a companhia a utilizar informações publicamente disponíveis e conteúdos compartilhados pelos usuários das plataformas para alimentar e aperfeiçoar os sistemas internos de IA Generativa.

 

Diante da atualização, a Autoridade entendeu que tal tratamento poderia impactar um número substancial de usuários nativos. Para ela, a hipótese legal usada para justificar esse tipo de tratamento–o legítimo interesse da empresa–foi considerada preliminarmente inadequada. Isso porque a hipótese não se aplica a casos que envolvem o tratamento de dados sensíveis.

 

“No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações–inclusive as compartilhadas muitos anos atrás–fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas”, prossegue a nota.

 

Por fim, a autarquia considera que os dados pessoais de crianças e adolescentes, como fotos, vídeos, posts, e outras interações com as plataformas, também seriam utilizadas para treinar os sistemas de IA da Meta. Por serem consideradas populações vulneráveis, a Lei Geral de Proteção de Dados (LGPD) define que o tratamento de informações de jovens deve contar com salvaguardas e medidas de mitigação de risco superiores aos dos usuários maduros.

 

Além da suspensão sumária, a ANPD definiu uma multa diária de R$ 50 mil caso a decisão seja descumprida. “A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros. Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento”, encerra o comunicado.

 

Outro lado

Em posicionamento enviado para a Security Report, a Meta se disse desapontada pela decisão da ANPD e afirmou ser um retrocesso para a inovação e competitividade no desenvolvimento de IA no Brasil. Segundo a Big Tech a abordagem cumpre com as leis de privacidade e regulações do país, e se colocou à disposição da autoridade de proteção de dados para oferecer todas as informações necessárias.

 

“Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Isso é um retrocesso para a inovação e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, acrescenta a mensagem, atribuída a um porta-voz da Meta.

 

A Security Report publica, na íntegra, posicionamento enviado pela Meta:

 

“‘Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil’ Porta-voz da Meta”.

Conteúdos Relacionados

Security Report | Destaques

APIs e Aplicações: o calcanhar de Aquiles da segurança digital?

Durante Painel de Debates Online Organizado pela TVSecurity, executivos da Brookfield, Grupo Moura, Imperva, e Nec Brasil abordaram os desafios...
Security Report | Destaques

Para combater os desafios da IA, só com uso correto da própria IA

Durante painel de debates transmitido pela TVSecurity, Líderes do Tribunal de Justiça da Bahia, Embratur, Nec Brasil e Skyhigh Security...
Security Report | Destaques

Gartner afirma que IA deverá reduzir gap de talentos em Cyber até 2028

A consultoria apresentou hoje sua lista de previsões para a Segurança da Informação nos próximos anos, e segundo ela, a...
Security Report | Destaques

Black Friday 2024: Governo e sociedade civil se mobilizam para proteger usuário de fraudes

Estudos recentes indicam que a data de promoções deste ano deverá atingir um novo recorde de transações, o que pode...