X utiliza postagens para treinar IA sem consentimento dos usuários

Em nova atualização na Política de Privacidade, a plataforma de mídia social informa que poderá usar publicações e conteúdos lançados na rede para alimentar sua linguagem de Inteligência Artificial, sem oferecer possibilidade de oposição do usuário ao tratamento. Especialistas apontam afronta grave à LGPD, mas Autoridade de Proteção de Dados ainda não se posicionou

Compartilhar:

A rede social X promoveu nesta semana uma mudança na Política de Privacidade da plataforma, que lhe autoriza a coletar dados produzidos pelos usuários dentro da mídia para alimentação de modelos de Inteligência Artificial. De acordo com nota de atualização das políticas, os novos critérios serão efetivados a partir de 15 de novembro.

 

Na mensagem, o X informa que as atualizações visam garantir transparência e incorporar novos produtos, serviços e recursos à rede social. Entre os ajustes apontados, citam-se novas regras sobre como os dados poderão ser usados para treinar IA. Entretanto, não há indicações claras de quais alterações foram feitas.

 

Na política, no tópico “Como utilizamos as informações”, a plataforma diz que poderá usar registros coletados e disponíveis publicamente para treinar o aprendizado de máquina ou modelos de Inteligência Artificial para os mesmos fins descritos pelo documento. Por não citar formas dos usuários se oporem ao tratamento, entende-se que, a partir da data estipulada, todos eles estariam sujeitos à nova demanda.

 

Na visão de especialistas ouvidos pela Folha de S. Paulo, a mudança promovida pela X Corp nas Políticas de Privacidade entra em choque com a Lei Geral de Proteção de Dados. Em especial, a falta de confirmação por parte dos donos de perfis coloca em xeque o princípio de legítimo interesse dos cidadãos.

 

“As imposições da plataforma são totalmente ilegais. O aditivo cria uma brecha para a plataforma de Musk desrespeitar a opção de oposição ao tratamento de dados presentes nas próprias configurações”, disse ao jornal o professor de direito digital da Fundação Getúlio Vargas, Luca Belli.

 

Já o diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), Ronaldo Lemos, lembrou de situação similar ocorrida com a companhia Meta, gestora de plataformas como Facebook, Instagram e WhatsApp. Neste caso, teria bastado uma mudança menos crítica das Políticas de Privacidade das redes para que a Autoridade Nacional de Proteção de Dados (ANPD) agisse.

 

Em julho, a ANPD emitiu uma suspensão cautelar contra os processos de tratamento de dados pessoais da Meta direcionados para o treinamento da Inteligência Artificial da empresa. A Diretora da autarquia, Miriam Wimmer, explicou que o ponto mais grave da decisão envolveu o uso do legítimo interesse para justificar o tratamento dos dados mantidos nas mídias sociais.

 

A decisão só foi revista no mês seguinte, em agosto, quando a ANPD entendeu que o plano de conformidade oferecido pela Meta atendia às demandas do órgão. Depois da retomada, os diretores da Autoridade disseram haver a possibilidade de outras organizações também serem alvos das mesmas sanções que a Meta, caso tomassem decisões similares.

 

“É fato que outros atores desse mercado demandam preocupações semelhantes. Por isso a ANPD já pediu e recebeu informações adicionais sobre atividades no âmbito do X, além de já ter alinhado reuniões com a OpenAI para também tratar da coleta de dados. Mas, por ora, esses casos não demandam uma ação assertiva do órgão, sendo possível avançar em uma discussão mais demorada”, concluiu Míriam, em entrevista coletiva sobre decisão da Meta.

 

A Security Report entrou em contato com a ANPD para saber se a organização já se mobilizou a respeito e se há a possibilidade de que os tratamentos de dados do X sejam suspensos como ocorreu com a Meta. Em resposta, a ANPD disse que não tinha uma posição disponível, mas assim que a tivesse, ela informaria. Uma atualização será feita tão logo esse retorno ocorra.

 

X Corp na mira da ANPD

A Autoridade também havia confirmado, no fim do mês de julho, que abriu um processo de fiscalização contra a X Corp, devido a possíveis problemas no uso de dados pessoais de usuários no treinamento da nova Inteligência Artificial da companhia, o Grok. A decisão vem à esteira de outra mudança feita na mídia social.

 

A organização havia, então, alterado o controle de privacidade dos usuários sem que nenhum deles fosse notificado, adicionando uma nova configuração para desautorizar o uso dos posts do perfil para alimentar o Grok com informações. Como a opção está ativada por padrão, todos os usuários do X estão sumariamente autorizando esse compartilhamento de dados sem que tenham sido notificados, de fato, pela X Corp.

 

*Com informações da Folha de S. Paulo

 

Conteúdos Relacionados

Security Report | Destaques

Número recorde de Cases de Sucesso preenche agenda do Security Leaders Nacional

Diversas companhias usuárias de tecnologia contribuirão com o compartilhamento de técnicas e boas práticas focadas em Segurança, como a Claro,...
Security Report | Destaques

Polícia Federal prende suspeito de hackear autoridades de Segurança

Mandado foi cumprido no âmbito da operação Data Breach, que investiga invasões cibernéticas aos sistemas da própria PF e de...
Security Report | Destaques

74% das organizações possuem storages em nuvem expostos, alerta reporte

A informação foi registrada no mais recente estudo Cloud Risk Report, da Tenable, que também encontrou 84% das empresas com...
Security Report | Destaques

CISO sob os holofotes: o que falta para os líderes assumirem seu papel executivo?

Tanto as novas ameaças de Cibersegurança quanto a maior atenção dos boards sobre esse tema levaram os CISOs a preencherem...