Na medida em que os sistemas de Inteligência Artificial se tornam mais sofisticados e intrínsecos às estratégias de negócio, surge a necessidade de estabelecer padrões éticos e regulamentações claras para o desenvolvimento e o uso da IA. Do Fórum Econômico Mundial às conferências e painéis com líderes de diversas áreas, todos estão em debate no sentido de estabelecer padrões éticos, regras e melhores práticas para essa tecnologia.
Na visão de Patrícia Peck, advogada especialista em direito digital, CEO e Founding Partner do escritório Peck Advogados, a regulação ética da IA requer uma abordagem multidisciplinar e colaborativa, na qual especialistas de diversas áreas desempenhem papel central a fim de minimizar riscos e garantir que a IA seja desenvolvida e usada de maneira benéfica para a sociedade.
Patrícia Peck acaba de ser nomeada para o Comitê Nacional de Cibersegurança (CNCiber) como representante titular de entidades da sociedade civil com atuação relacionada à segurança cibernética e, em entrevista à Security Report, destaca como o Brasil pode atuar diante de uma regulamentação forte e eficiente e quais impactos dos Conselhos, como o CNCiber, nas diretrizes de atuação da Inteligência Artificial nos mais diversos setores.
Graça Sermoud: Quais são as principais diferenças entre regular a Inteligência Artificial e regular o uso dos recursos de IA?
Patrícia Peck: Em primeiro lugar, é importante entendermos o que é uma IA, quais são os tipos de linguagens e os princípios a serem seguidos. Um exemplo é destinar essa inteligência para uma tarefa que seja realizável, ou seja, ela não é um ser humano, então, não deve agir como uma pessoa. É preciso que existam limites éticos e de gestão de risco para que a IA saia da fábrica com padrões já instaurados. Esse seria um controle da IA em si.
Já a regulamentação do uso da IA está diretamente ligada com a aplicação dessa inteligência em um produto ou serviço. É importante dizer que qualquer tipo de solução desenvolvida já deveria de início seguir certos padrões éticos e regras. E isso não pode ser uma lei genérica.
Graça Sermoud: E sem esses padrões a IA pode se tornar perigosa?
Patrícia Peck: A Inteligência Artificial usa algoritmos, ela já nasce com um propósito e isso pode, por exemplo, sugerir conteúdos, viralizar ideias ilícitas, capturar pessoas para quadrilhas de terrorismo e cibercrime, disseminar pornografia infantil, entre outras ações maléficas. São riscos que precisam ser mitigados, por isso que o nível de regulação precisa ser setorizado pelo regulador específico de cada mercado.
Graça Sermoud: Ou seja, a ética precisa vir em primeiro lugar?
Patrícia Peck: Só para dar um exemplo, uma inteligência artificial não deveria se passar por uma pessoa, com comportamentos restritos ao ser humano. É ético uma IA dizer que ficou doente? Que está na academia se exercitando? Que foi viajar para Paris? Então, devemos partir da premissa de que a IA deve se apresentar como uma inteligência artificial, como um robô e não como uma pessoa.
Hoje, podemos ver diversas IAs sendo treinadas para dialogar com humanos e estão assumindo um comportamento que elas jamais poderiam ter. É aqui que mora o perigo, pois podemos entrar em um campo que não é só a mudança de realidade e fantasia, mas é uma fraude, é uma ilicitude. Uma coisa é a IA desenvolver capacidades de realizar tarefas como um humano, mas viver como uma pessoa não é possível.
Graça Sermoud: E quem seria esse regulador no Brasil? Faz sentido, por exemplo, a ANPD estar à frente desse projeto?
Patrícia Peck: Eu entendo que a ANPD ainda precisa se fortalecer como uma instituição fiscalizadora e reguladora de proteção de dados pessoais. Mas isso ainda não aconteceu, logo, não faz sentido cuidar de outros assuntos.
Além disso, quem trabalha com IA deve ter um conhecimento profundo de modelagem de base de dados. São cientistas de dados altamente capacitados que estão sendo disputados no mercado pelas próprias empresas com projetos de IA, e dentro da ANPD não exige esse perfil de profissional.
Mas, claro, é um órgão importante de ser ouvido dentro da dinâmica de regulamentação da IA, porque uma parte dos dados que alimentam a inteligência artificial são dados pessoais, mas é só uma parcela, não a totalidade.
Graça Sermoud: Então, quem seria o melhor candidato na sua visão?
Patrícia Peck: É melhor pensar em uma regulação setorizada ao invés de um regulador centralizado, o que, na minha opinião, não funciona. A Inteligência Artificial pode conter diferentes tipos de dados de diversos segmentos de atuação, dados pessoais e industriais, estruturados e não estruturados. Já é um desafio para um regulador multisetorial, imagina quando envolve questões da IA? Acreditar que um único regulador vai conseguir olhar todo o espectro de big data para atender mais de 40 setores econômicos com todas as particularidades é utopia.
Por isso que o caminho é tirar proveito de reguladores que já são setorizados e o poder executivo pode criar um conselho ou comitê, para ser uma autorregulação regulada, e os demais reguladores setorizados se reúnem também dentro desse Conselho para executar e atualizar essa legislação.
O papel dos Conselhos
Graça Sermoud: E nos processos regulatórios é importante que a sociedade perceba que não se trata apenas de uma agenda política. Um Conselho, como este estabelecido pela Política Nacional de Cibersegurança, formado por diversos líderes, acadêmicos e sociedade civil pode trazer mais credibilidade em um projeto como esse?
Patrícia Peck: Um Conselho é importante tanto no setor público quanto no privado, mas ele precisa ser ouvido e dar visibilidade também para as ações que envolvem seu próprio trabalho. Ser apenas figurativo, sem uma agenda estabelecida de trabalho e sem aplicabilidade não funciona.
Os Conselhos precisam de autonomia, independência e devem estar ligados aos ambientes de aplicação tecnológica de ponta. É preciso que estejam conectados com entidades estrangeiras com observatório de desenvolvimento, ou seja, é uma troca importante de experiências, pois uma Inteligência Artificial é multisetorial.
Graça Sermoud: Então, esse modelo regulatório não teria que estar ligado a uma Autoridade, por exemplo? Isso limitaria o avanço da tecnologia?
Patrícia Peck: É um modelo fadado ao fracasso, pois um único regulador não vai enxergar o espectro como um todo. O Brasil precisa aprender com as experiências de outros países, garantir conselhos técnicos e uma comissão mais híbrida, multidisciplinar. Não tem como resolver todos os problemas em uma única legislação, pois estamos falando de uma regulação que vai evoluir com a própria tecnologia.
Devemos, então, fatiar o problema: começar validando conceitos, padrões éticos, princípios já estabelecidos desde a fábrica. Vamos combinar a criação desse conselho que vai reunir entidades fiscalizadoras para avaliar os riscos de cada setor.
Liderança na inovação
Graça Sermoud: E até que ponto o conhecimento especializado em IA tem que ser prioritário para os participantes do Conselho?
Patricia Peck: A riqueza está em criar um grupo de experts, com profissionais munidos de doutorados, Ph.D. e profissionais que estejam estudando o tema há pelo menos 10 anos, com livros publicados, inclusive. Ou seja, pessoas realmente gabaritadas para que, juntos, possam construir uma regulação forte e relevante.
Graça Sermoud: E o Brasil está pronto para acompanhar um avanço como esse?
Patrícia Peck: Com a diversidade que temos, nós é que deveríamos estar na liderança global das discussões regulatórias de Inteligência Artificial. Somos um país com mais de 200 milhões de pessoas, temos enormes desafios econômicos e sociais para resolver e vamos importar soluções para adaptar à nossa realidade? Vai dar problema porque não foi testado como deveria, pois aquele país só tinha gente branca, não tinha todos os tons de bege que temos no Brasil, por exemplo.
Eu participo de um grupo internacional liderado pela Holanda com aproximadamente 25 especialistas compostos por juristas, psicólogos, sociólogos, linguistas, cientistas de dados e antropólogos e a riqueza está nesta troca multidisciplinar, pois a IA tem que aprender línguas e existem modelos hoje que nem sabem português. Era para o Brasil estar exportando nossa regulação, e não importando de outros países.
Graça Sermoud: Na sua visão, qual a importância do líder de Cyber Security fazer parte desse movimento?
Patrícia Peck: O que mais preocupa é aquele jogo da batata quente, um empurrando para o outro, assim como foi com a Proteção de Dados e o papel do DPO dentro das organizações. Levou muito tempo para as empresas definirem de quem seria a responsabilidade dessa legislação, se seria papel do CISO, do jurídico, do compliance.
Então, tudo isso faz com que o Brasil fique pra trás nas corridas globais de inovação e regulação. Ou seja, todos os líderes de Cyber Security e TI deveriam estar envolvidos nessas discussões, formando comitês internos com times multidisciplinares.
Graça Sermoud: Você tem visto esses comitês serem formados dentro das organizações ou os líderes estão atuando de forma mais isolada em projetos de Inteligência Artificial?
Patrícia Peck: As empresas estão investindo em inovação. Se você, como empresa, não tem um projeto de IA, como vai responder ao acionista ou ao Conselho Administrativo? Então, neste sentido, virou regra ter qualquer projeto envolvendo Inteligência Artificial, se ele é bom ou ruim, se está funcionando ou não, é outra história.
Por isso reforço que estamos bem atrasados do ponto de vista regulatório, pois as empresas estão trabalhando com IA. É preciso que as entidades criem pelo menos algumas guias de melhores práticas dos setores regulados destacando recomendações mínimas do uso da IA. Isso pode, inclusive, inspirar o esboço de uma legislação mais forte.
Graça Sermoud: E na esfera política, qual o maior risco do uso desenfreado de IA nas campanhas eleitorais?
Patrícia Peck: A Inteligência Artificial não é neutra, tudo que é colocado nela serve para um propósito, todo algoritmo inscrito precisa realizar um tipo de tarefa para gerar algum resultado. Então, o risco está no envenenamento de dados e nas IAs influenciadoras que podem dizer se irão votar no candidato A ou B.
Estamos falando de informações que podem ser manipuladas, induzindo as pessoas a tomarem alguma decisão sem saber se esse caminho seria tomado, de fato, se não tivesse sob influência de um algum algoritmo. Esse sim é o grande risco para 2024.