O uso massificado de linguagens generativas de IA tem gerado preocupações e debates dos agentes públicos em relação aos potenciais riscos oferecidos à Cibersegurança. Isso tem motivado pressões para atuação imediata no campo legislativo, mas especialistas alertam para os desafios de se regulamentar inovações ainda sem um potencial de atuação definido
A Câmara de Comércio dos Estados Unidos emitiu um pedido oficial por um projeto de regulamentação da Inteligência Artificial, com objetivo de mitigar os riscos à Cibersegurança no país. A ação foi seguida por uma série de investidas de diversos governos para aplicarem controles de responsabilidade nos avanços acelerados da tecnologia. Essa nova tendência surge junto com um novo momento de usos da IA, fortalecido com a chegada do ChatGPT ao mercado.
O pesquisador e especialista em IA da Zup, Geraldo Gomes Jr., lembra que aplicações baseadas em IA estão cada vez mais presentes no cotidiano das pessoas, com impactos em setores educacionais, industriais, saúde, segurança pública, dentre outros. Essa nova tendência evidencia a necessidade de discussões, pesquisas e propostas de como regulamentar o uso no ambiente corporativo a fim de encontrar um equilíbrio entre os benefícios proporcionados e possíveis maus usos de suas funcionalidades.
“Por exemplo, como o governo pode aplicar câmeras de reconhecimento facial para a detecção de foragidos e não impactar na proteção dos direitos e privacidades dos indivíduos? Discussões como esta precisam acontecer em diferentes esferas sociais para buscarmos modelos de regulamentação de uso sem necessariamente limitar suas funcionalidades e benefícios para a população” disse Gomes em entrevista à Security Report.
Apesar de se reconhecer a importância do debate, existe a preocupação entre os profissionais de cyber de que esses processos possam comprometer as inovações da Inteligência Artificial. Portanto, regulamentar os usos feitos pela ferramenta é uma ação bem mais efetiva do que criar restrições à própria tecnologia, na visão do executivo.
Tarek Bazzi, Coordenador do Núcleo da SI de Terceiros no Bradesco, acredita que uma legislação para a IA precisa gerar incentivos às boas práticas de corporações e pessoas. Para isso, os riscos que o mau uso da IA oferecem à sociedade precisam estar contemplados em qualquer proposta de regulamentação.
“Entre esses riscos está o vazamento de informações. Nós ouvimos da OpenAI as garantias de que os dados são tratados internamente com segurança. Mas e se eles sofrerem qualquer tipo de ataque que resulte em vazamento? Como uma corporação pode ter garantia de proteção desse ativo? A partir do momento em que há compartilhamento de código fonte, o vazamento de dados passa a ser uma preocupação”, disse Bazzi.
Além desse exemplo, o executivo também cita a evolução de ataques baseados em engenharia artificial para burlar as limitações das IAs e o uso dessas tecnologias para detectar fragilidades em sistemas de segurança, até mesmo, pontos vulneráveis nas superfícies de ataque.
Estes riscos só tornam ainda maior a necessidade de se estabelecer marcos legais para o uso da IA. Mas na visão da advogada e Sócia Fundadora da Peck Advogados, Patrícia Peck, esse desafio aumenta com a necessidade de conhecimentos técnicos e a dificuldade do marco legal em acompanhar os avanços tecnológicos de forma a se manter atualizado.
“No caso da IA, há bastante discussão que envolve desde a definição dos conceitos até o quanto a regulamentação deve alcançar nos setores específicos que a solução estiver aplicada. Além disso, há questões de alinhamento técnico-jurídico, de compreensão de como funcionam os algoritmos e que há níveis distintos de inteligência artificial. Por fim, é fundamental que haja um diálogo de leis, para se aproveitar os investimentos de conformidade com demais legislações”, explicou Patrícia em entrevista para a Security Report.
Ainda segundo a advogada, todo processo de inovação traz impactos sociais e econômicos, assim como envolve riscos. Por isso é importante estabelecer regras claras que possam garantir um patamar de confiabilidade e segurança jurídica que permita atrair investimentos. É necessário aprender com o mercado, evoluir com as soluções de IA e pensar um modelo que permita manter a lei em acordo com as atualizações.
Patrícia aponta diversos materiais sobre regulamentação de IA, como da Unesco e da OCDE, que devem ser observados. Ela recomenda encontrar o melhor modelo para o cenário brasileiro, possivelmente algo em formato mais híbrido e agregando o que houver de melhor dos demais e adaptando para o contexto do país.
“O modelo norte-americano trata mais a regulamentação de IA setorizado, já o modelo europeu traz uma visão mais centralizada de regulamentação. Temos que encontrar qual seria o melhor modelo para o Brasil, acredito que um formato mais híbrido, pegando o que tiver de melhor dos demais e adaptando para o contexto do nosso país”, encerra ela.