Comunidade Internacional debate regulação da AI

Compartilhar:

Discussão sobre mau uso da Inteligência Artificial avança em escala global, com organizações civis e governos se posicionando para regular as aplicações da tecnologia, inclusive no Brasil. A própria OpenAI se manifestou a favor. Especialistas em Cibersegurança entendem ser necessário agir antes que ameaças se tornem um risco real

Depois dos mercados de tecnologia serem frontalmente impactados com os novos avanços das linguagens generativas de Inteligência Artificial, iniciados pelo lançamento pela 4ª versão do ChatGPT, grupos civis têm cada vez mais pressionado os poderes públicos do mundo a agirem depressa na regulamentação dos novos recursos digitais, antes que eles se consolidem sem qualquer cuidado ou monitoramento.

Uma das manifestações mais recentes veio da própria desenvolvedora do ChatGPT, a OpenAI. Em carta aberta no site da empresa e assinada pelos fundadores e executivos da companhia – Sam Altman, Greg Brockman e Ilya Sutskever – a empresa pede que a comunidade global se debruce sobre o tema e atue no estabelecimento de um órgão internacional de regulação da IA aos moldes da Agência Internacional de Energia Atômica (AIEA), capaz de criar limites anuais de crescimento da capacidade da tecnologia.

“A Inteligência Artificial será mais poderosa do que outras tecnologias com as quais a humanidade teve de lidar no passado. Podemos ter um futuro muito mais próspero, mas precisamos gerenciar os riscos para chegar lá. Não podemos ser apenas reativos: precisamos mitigar as ameaças da tecnologia de IA atual, exigindo tratamento e coordenação especiais”, prossegue o texto.

Durante o Security Leaders Rio de Janeiro, o CISO do TJRJ e Membro do Comitê Gestor de Cibersegurança no CNJ, Ivan Lindenberg, fez um alerta aos participantes sobre ameaças  iminentes de ataques cibernéticos baseados em IA. Esse risco, segundo o C-Level, direcionou o conjunto de tribunais do país a se mobilizar no compartilhamento de aprendizados e riscos cibernéticos enfrentado individualmente pelas cortes.

“É uma realidade cada vez mais próxima e bastante preocupante mesmo ao poder Judiciário. Já em 2020, o Fórum Econômico Mundial afirmou que a Segurança da Informação como conhecíamos então se tornaria obsoleto em 5 anos. Já avançamos muito nesse prazo apontado, e o relógio continua correndo. Com isso temos trabalhado internamente para estarmos prontos quando isso acontecer, nenhum tribunal ou nenhuma corporação vai conseguir enfrentar esse tipo de risco sozinho”, disse Lindenberg.

A partir dessa necessidade de regulamentação e considerando os riscos oferecidos pela nova tecnologia, o presidente do Senado, Rodrigo Pacheco (PSD-MG), protocolou no começo de abril um projeto para um marco regulatório da Inteligência Artificial no Brasil. Ainda sem data definida de tramitação, o projeto foi elaborado por juristas e especialistas em direito civil e digital, e prevê, entre outras propostas, a responsabilização objetiva de fornecedores e operadores de tecnologias baseadas em IA.

De acordo com a Agência Brasil, um dos princípios do PL é a “prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial”. O projeto ainda observa como fundamentos essenciais: participação humana no ciclo da inteligência artificial e supervisão humana efetiva; não discriminação; justiça, equidade e inclusão; transparência, explicabilidade, inteligibilidade e auditabilidade; entre outros.

Europa e América do Norte

Outro ente bastante avançado na regulamentação das ferramentas de IA no mundo é a União Europeia. O bloco iniciou em maio as discussões por um arcabouço próprio de controle da nova tecnologia. Batizada de “AI Act”, a lei é considerada a primeira reguladora de Inteligência Artificial no mundo, abordando usos específicos como reconhecimento facial, monitoramento biométrico, entre outros.

Da mesma forma, congressistas dos Estados Unidos já expuseram suas intenções em criar leis que controlem melhor as aplicações práticas da tecnologia. Segundo autoridades governamentais ouvidas pelo The Washington Post, apesar de as previsões não indicarem usos diretos de IA em ações ilícitas antes de 2024, o país precisa atuar desde já para impedir a solidificação desses riscos.

“A IA deve se tornar arma mais poderosa deste século, As armas mais poderosas do século passado, as bombas nucleares, foram construídas e mantidas por governos que eram frequentemente desincentivados a usá-las. Essa tecnologia atual é construída por empresas cujo trabalho é maximizar os lucros de seus acionistas. É uma conversa diferente e eu aplaudo os esforços para tentar se antecipar a ela”, disse a diretora da CISA, Jen Easterly.

O debate também foi largamente abordado no contexto da RSA Conference, em março. Durante o painel “Segurança como parte da IA responsável: em casa ou em desacordo?”, a fundadora do Bias Buccaneers, Rumman Chowdhury, lembrou que os envolvidos na temática precisam olhar para dois caminhos desafiadores da Inteligência Artificial: o da Cibersegurança, enfrentando agentes maliciosos apoiados pela IA, e o da ética, corrigindo erros de pessoas inocentes, danosas aos parâmetros básicos da IA.

“Vivemos numa posição de equilíbrio entre controle social das tecnologias e alertas para conteúdos maliciosos, e as mídias sociais são ótimos exemplos da complexidade de se preservar sistemas éticos e efetivos de uso. É necessário agir com uma perspectiva técnica, casada com um contexto de uso apropriado da plataforma de IA. Isso tende a ser uma tarefa contínua de todo o mercado de Inteligência Artificial”, explicou Rumman.

*Com informações da Agência Reuters, Agência Brasil e The Washington Post


Conteúdos Relacionados

Security Report | Destaques

Polícia Federal prende suspeito de hackear autoridades de Segurança

Mandado foi cumprido no âmbito da operação Data Breach, que investiga invasões cibernéticas aos sistemas da própria PF e de...
Security Report | Destaques

74% das organizações possuem storages em nuvem expostos, alerta reporte

A informação foi registrada no mais recente estudo Cloud Risk Report, da Tenable, que também encontrou 84% das empresas com...
Security Report | Destaques

CISO sob os holofotes: o que falta para os líderes assumirem seu papel executivo?

Tanto as novas ameaças de Cibersegurança quanto a maior atenção dos boards sobre esse tema levaram os CISOs a preencherem...
Security Report | Destaques

Hospital da Criança de Brasília confirma paralisação por ataque hacker

Incidente teria se iniciado no último fim de semana, exigindo que a organização indisponibilizasse todos os sistemas e fornecesse os...