Data Poisoning: qual o futuro da IA na superfície de riscos corporativos?

A expansão do mercado de Inteligência Artificial fez essa tecnologia assumir um papel crítico na superfície de risco no negócio, exigindo que os Líderes de Cyber e Proteção de Dados tenham atenção especial a ela. Para especialistas no setor, o comprometimento dessas ferramentas através do envenenamento de dados é uma ameaça real e importante para o futuro próximo

Compartilhar:

A Inteligência Artificial, a partir do salto mercadológico ocorrido nos últimos 18 meses, passou a ocupar um papel central nas estratégias de negócio de todas as companhias. Devido a isso, passou a ser vital aos profissionais de Segurança Cibernética conhecer não apenas a tecnologia em si, mas também quais riscos ela corre no ciberespaço contemporâneo. Entre esses riscos, um dos mais importantes é o envenenamento de dados.

 

De acordo com a especialista em Direito Digital e sócia da Sleiman Sociedade de Advogados, Cristina Sleiman, a prática de Data Poisoning visa justamente alimentar uma linguagem de IA com informações falhas, inverídicas ou absurdas, com o objetivo de prejudicar a capacidade dessa tecnologia de tomar decisões ou oferecer respostas específicas aos usuários. A aplicação de dados essencialmente corrompidos torna a IA mais suscetível a alucinar e dar respostas equivocadas ou mesmo criminosas.

 

Ao comprometer o conjunto de dados usado para treinar a IA, o atacante teria capacidade de introduzir vieses discriminatórios ou orientar a Inteligência para dar respostas de seu interesse, não necessariamente baseadas em informações factuais. Através desse mesmo método de invasão, também seria possível direcionar a capacidade de diálogo com a interface da tecnologia, impactando, por exemplo, controles de autenticação e acesso que dependam dessa IA.

 

“Embora o termo de envenenamento de dados seja uma concepção mais recente, a prática em si surgiu na mesma época que a própria Inteligência Artificial, com o objetivo direto de atacar os recursos tecnológicos baseados nessa estrutura para prejudicar os usuários delas. Através disso, além do gasto dispensado para corrigir essa falha, em um processo de reaprendizagem bastante caro para a companhia, o dano reputacional tende a ser igualmente severo”, explica Cristina, em webinar sobre Envenenamento de Dados organizado pela PeckSleiman EduTech.

 

Neste momento, a importância que a tecnologia assumiu para os negócios de todas as verticais, imaginar o comprometimento de uma linguagem de IA gera tanto preocupações para os Líderes de Segurança quanto oportunidades para o cibercrime. Por isso, uma ameaça assim tem entrado no radar de agentes hostis particulares – sejam eles internos e externos – e de cibercriminosos patrocinados por Estados Nação em situação de conflito armado. As Ciberguerras, inclusive, gera subsídios para fazer mais desses ataques.

 

Assim, um dos grandes desafios envolve monitorar as atividades da IA para saber o momento exato de quando ela passar a demonstrar sintomas de dados envenenados. Entregar dados absurdos ou imprecisos, ou mesmo não conseguindo interpretar uma solicitação e devolver uma resposta são alguns desses sinais, alerta o Advogado Digital e sócio da Peck Advogados, Leandro Bissoli. A partir dessas percepções, é possível saber se a intenção do profissional que treina a IA é legítimo ou não.

 

“Em ataques diretos, o cibercriminoso quer ditar as regras da IA para controlá-la até a direção que gerar mais benefícios, sem degradar o desempenho da máquina. Já o ataque não direcionado visa causar problemas ao desempenho, reduzindo o desempenho e os resultados que a tecnologia pode oferecer. Independentemente do caso, o risco de comprometimento do negócio é visível, e exige um melhor posicionamento de CISOs e DPOs contra essa ameaça”, disse Bissoli.

 

IA na superfície de risco

Diante da possibilidade de comprometer as novas ferramentas de Inteligência Artificial aplicadas ao negócio, os especialistas de direito digital entendem que a tecnologia está se tornando rapidamente uma parte vital da superfície de ataque do negócio, de sorte que incidentes cibernéticos são movidos com intuito de comprometer a IA e, em contrapartida, os times de Segurança e Privacidade de dados se mobilizam para estender suas proteções até essas estruturas.

 

Algumas medidas são essenciais para direcionar melhores práticas de proteção da IA, entre elas incentivar novas culturas de Security e Ethic by design na formação de novas linguagens, evitando que o recurso saia do desenvolvimento com muitas vulnerabilidades no acesso ao seu aprendizado. Seguir frameworks e bases padronizadas de DevSecOps, já traçadas por órgãos de Cyber Security, é um primeiro passo para essa demanda.

 

“É recomendável também atuar em favor da prevenção defensiva também, mantendo regularmente a revisão de dados e métodos de treinamento para garantir que o processo todo segue íntegro. Há projetos no meio acadêmico que visam controlar a interpretação dos dados inseridos na IA e prever os potenciais usos que a tecnologia pode fazer deles, então não há dúvida de que a indústria deverá trilhar o mesmo caminho no futuro”, sugere Bissoli.

 

Nessas circunstâncias, um ambiente legal sólido e atualizado também exercerá um papel crítico, por meio de leis como o da Inteligência Artificial, em tramitação no Congresso Nacional. Esse arcabouço legal pode oferecer tanto guardrails para controlar as redes quanto traçar um caminho para eventual responsabilização de criminosos cibernéticos.

 

“É Importante ressaltar que essas tecnologias, como quaisquer outras, sempre trarão riscos novos e desconhecidos do mercado, que terá a função de mitigá-los. Estando inclusas na superfície de risco da corporação, se torna essencial considerá-las parte importante das estratégias de Cibersegurança nos próximos meses”, conclui Cristina Sleiman.

Conteúdos Relacionados

Security Report | Destaques

Grupo JCC busca excelência na Cibersegurança com redução da complexidade

Devido ao acúmulo de soluções de Segurança, a estrutura de proteção da gestora de shoppings centers se tornou complexa demais...
Security Report | Destaques

Consolidação de Cibersegurança: eficiência ou risco?

Estratégia de redução de complexidade pode fortalecer defesas, mas também exige cautela para evitar novas vulnerabilidades. Na visão de especialista,...
Security Report | Destaques

Security Awareness: CISO pode ser o centro dessa transformação?

Novas parcerias no mercado de Cibersegurança têm buscado alinhar com as lideranças as melhores estratégias para expandir o projetos de...
Security Report | Destaques

Fortinet confirma acesso indevido às informações internas

A vendor apresentou novos detalhes sobre ocorrência em nota endereçada ao mercado e grande público, reafirmando que nenhum cliente foi...