40% dos data leaks relacionados à IA serão causados por mal uso da tecnologia

De acordo com o Gartner, a falta de padrões globais consistentes de IA força as empresas a desenvolver estratégias específicas para cada região, limitando a escalabilidade e os benefícios da Inteligência Artificial

Compartilhar:

Até 2027, mais de 40% das violações de dados relacionadas à Inteligência Artificial (IA) serão causadas pelo uso indevido da Inteligência Artificial Generativa (GenAI) além das fronteiras, de acordo com o Gartner, Inc. A rápida adoção das tecnologias de GenAI pelos usuários finais ultrapassou o desenvolvimento de medidas de segurança e governança de dados, levantando preocupações sobre a localização de dados devido ao poder de computação centralizado necessário para fornecer suporte a essas tecnologias.

 

“As transferências de dados não intencionais além das fronteiras geralmente ocorrem devido à supervisão insuficiente, principalmente quando a GenAI é integrada a produtos existentes sem descrições ou anúncios claros”, diz Joerg Fritsch, Vice-Presidente e Analista do Gartner. “As empresas estão percebendo mudanças no conteúdo produzido pelos funcionários que usam as ferramentas de GenAI. Embora essas ferramentas possam ser usadas para aplicações de negócios aprovadas, elas apresentam riscos de segurança se prompts sensíveis forem enviados para ferramentas de IA e APIs hospedadas em locais desconhecidos.”

 

Lacunas na padronização global de IA geram ineficiência operacional

A falta de práticas recomendadas e padrões globais consistentes para IA e governança de dados agrava os desafios ao causar fragmentação do mercado e forçar as empresas a desenvolver estratégias específicas para cada região. Isso pode limitar sua capacidade de dimensionar as operações globalmente e se beneficiar dos produtos e serviços de Inteligência Artificial.

 

“A complexidade de gerenciar fluxos de dados e manter a qualidade devido a políticas de IA localizadas pode levar a ineficiências operacionais”, diz Fritsch. “As empresas devem investir em governança e Segurança avançadas de Inteligência Artificial para proteger dados sensíveis e garantir a conformidade. Essa necessidade impulsionará provavelmente o crescimento dos mercados de serviços de segurança, governança e conformidade de IA, bem como de soluções tecnológicas que aumentam a transparência e o controle sobre os processos de Inteligência Artificial.”

 

Empresas devem agir antes que a governança de IA se torne uma obrigação global

O Gartner prevê que, até 2027, a governança de IA se tornará um requisito de todas as leis e regulamentações soberanas de Inteligência Artificial em todo o mundo.

 

“As companhias que não conseguem integrar os modelos e controles de governança necessários podem se encontrar em desvantagem competitiva, especialmente aquelas que não têm recursos para ampliar rapidamente as estruturas de governança de dados existentes”, diz Fritsch.

 

Para mitigar os riscos de violações de dados de IA, principalmente do uso indevido da GenAI além das fronteiras, e para garantir a conformidade, o Gartner recomenda diversas ações estratégicas para as empresas:

 

Aprimorar a governança de dados: Garanta a conformidade com as regulamentações internacionais e monitore as transferências de dados transfronteiriças não intencionais ao ampliar as estruturas de governança de dados para incluir diretrizes para dados processados por IA. Isso envolve a incorporação de avaliações de impacto de linhagem de dados e transferência de dados em avaliações regulares de impacto de privacidade.

 

Estabelecer comitês de governança: Forme comitês para aprimorar a supervisão da IA e garantir uma comunicação transparente sobre as implementações de Inteligência Artificial e o tratamento de dados. Esses comitês precisam ser responsáveis pela supervisão técnica, gerenciamento de risco e conformidade e relatórios de comunicação e decisão.

 

Reforçar a segurança dos dados: Use tecnologias avançadas, criptografia e anonimização para proteger dados sensíveis. Por exemplo, verifique os Ambientes de Execução Confiáveis (Trusted Execution Environments) em regiões geográficas específicas e aplique tecnologias avançadas de anonimização, como a Privacidade Diferencial (Differential Privacy), quando os dados precisarem sair dessas regiões.

 

Investir em produtos TRiSM: Planeje e aloque orçamentos para produtos e recursos de gerenciamento de confiança, risco e segurança (TRiSM) adaptados às tecnologias de IA. Isso inclui governança de Inteligência Artificial, governança de segurança de dados, filtragem e redação de prompt e geração sintética de dados não estruturados. O Gartner prevê que, até 2026, as empresas que aplicarem controles de TRiSM de IA consumirão pelo menos 50% menos informações imprecisas ou ilegítimas, reduzindo a tomada de decisões equivocadas.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Brasil registra alta de 55% em ataques cibernéticos e supera média global

Enquanto pressão cibernética mundial avançou 17%, organizações brasileiras enfrentam média recorde de 3.685 tentativas de invasão por semana
Security Report | Overview

Pesquisa detecta primeiro malware para Android que usa IA generativa para evitar remoção

Batizado de PromptSpy, vírus utiliza o Gemini (Google) para interpretar a tela do celular em tempo real e receber instruções...
Security Report | Overview

Aumento dos agentes de IA reforça demanda por Zero Trust, aponta estudo

Novo relatório Cyber Pulse, da Microsoft, alerta para riscos de Segurança com agentes de IA operando em 80% das empresas...
Security Report | Overview

72 minutos: Pesquisa mostra aceleração no crime digital

Relatório Global de 2026 revela que 25% dos ataques mais rápidos roubaram dados em 72 minutos e 87% das invasões...