ANPD volta a defender protagonismo na regulamentação da IA

Em evento organizado pela PUC-Rio, a diretora Miriam Wimmer lembrou que a Lei Geral de Proteção de Dados atribui à Autoridade o papel de interpretar o texto legal e de articular com outros órgãos

Compartilhar:

A Diretora da Autoridade Nacional de Proteção de Dados (ANPD) Miriam Wimmer participou, na última sexta-feira (12), do I Seminário Internacional de Inteligência Artificial e Direito. O evento, que ocorreu de 11 a 13, foi promovido pelo Departamento de Direito da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) com fomento do Programa de Apoio a Eventos no País (Paep) da Fundação Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes). 

 

A servidora abordou o tema Arranjos Institucionais para Regulação da Inteligência Artificial (IA). Segundo ela, é importante que o País avance no desenvolvimento de políticas, regulamentos e sistemas de governança que assegurem ética, privacidade, transparência, segurança e responsabilidade. Tais aspectos apresentam-se, hoje, como os principais desafios enfrentados pelo Brasil em termos de regulação e têm sido objeto de preocupação por todos os setores interessados na discussão da regulamentação da IA. 

 

“É importante existir uma ampla cooperação com o governo, por intermédio de instâncias, como a ANPD e outras agências reguladoras, ministérios e comissões parlamentares; e com o setor privado, a academia, a sociedade civil e organizações internacionais. Tendo em vista a onipresença dessa nova tecnologia, não podemos correr o risco de não participarmos ativamente do processo de regulamentação”, defendeu. 

 

O debate abordou, também, a necessidade ou não de se criar uma autoridade específica para regulamentar a IA. A servidora acredita que já existe uma grande proximidade entre a Lei Geral de Proteção de Dados (LGPD), espinha dorsal da atuação da Autoridade, e os projetos de lei que tratam de Inteligência Artificial (IA).

 

Segundo ela, isso se deve não apenas por conta do fato de que a IA depende intrinsecamente do processamento de grandes volumes de dados, mas também em razão da semelhança entre a sistemática de regulação já prevista pela LGPD e aquela debatida atualmente no Senado Federal. Esse cenário, na opinião da gestora, qualifica a ANPD para ser o órgão central de regulamentação da IA, em articulação outras agências, uma vez que a IA caracteriza-se por sua transversalidade. 

 

“Uma das preocupações que tem sido suscitadas no debate público diz respeito a eventual sobreposição de competências entre uma autoridade central, responsável por implementar a futura legislação de IA, e as agências reguladoras setoriais”, destacou Miriam. A diretora também relembrou que essa preocupação foi também manifesta na época da discussão da LGPD, e a solução encontrada foi de atribuir à ANPD o papel de intérprete central da Lei e de promotora da articulação entre a Autoridade e outros entes reguladores. 

 

“A ANPD tem dado cumprimento a esse comando legal por meio dos diversos acordos de cooperação técnica já firmados. Uma sistemática semelhante parece ser necessária também no contexto da regulação da IA”, defende. 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Exploração de vulnerabilidades é principal causa de ransomware no setor da saúde, aponta relatório

Estudo também revelou um crescimento de ameaças de extorsão sem criptografia e forte impacto psicológico nas equipes de TI e...
Security Report | Overview

Tecnologias convergentes devem redefinir Cibersegurança 2026, prevê análise

Análise Global prevê que convergência entre IA autônoma, computação quântica e Web 4.0 deve transformar a inovação e elevar os...
Security Report | Overview

Estudo: quase 50% das empresas brasileiras não sabem como priorizar os investimentos em SI

Falta de diagnósticos e avaliações de riscos tornam as organizações reativas em relação à proteção. Especialistas indicam como entender o...
Security Report | Overview

Gartner identifica pontos cegos críticos da GenAI e alerta CIOs

Até 2030, mais de 40% das organizações sofrerão incidentes de segurança ou conformidade relacionados com shadow AI não autorizada