34% das empresas já usam ou implementam ferramentas de Segurança com AI

De acordo com dados coletados pelo Gartner, parte desse uso é movido pela necessidade de mitigar os riscos associados à Inteligência Artificial Generativa. Apesar desse crescimento, o setor de Cyber ainda é um dos menos envolvidos na gestão da tecnologia nos negócios

Compartilhar:

O Gartner anuncia que 34% das companhias já estão usando ou implementando ferramentas de segurança de aplicativos com Inteligência Artificial (IA) para mitigar os riscos associados à Inteligência Artificial Generativa (GenAI). A pesquisa Gartner Peer Community foi realizada de 1 a 7 de abril deste ano com 150 líderes de TI e segurança da informação de empresas nas quais a Inteligência Artificial Generativa está em uso ou implementação. Cerca de 26% dos entrevistados afirmaram, também, que estão atualmente usando ou implementando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%). 

“Os líderes de TI, segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar a estratégia empresarial para gerenciamento de confiança, riscos e segurança (AI TRiSM)”, diz Avivah Litan, vice-presidente e analista do Gartner. “Esse gerenciamento trabalha com fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de Inteligência Artificial e deve ser um esforço contínuo, não um exercício único para proteger as empresas.” 

TI como responsável final

Embora 93% dos líderes de TI e segurança entrevistados tenham afirmado que estão pelo menos um pouco envolvidos nos esforços de segurança e gestão de riscos da Inteligência Artificial Generativa da sua empresa, apenas 24% afirmaram que possuem essa responsabilidade. Entre os entrevistados que não possuem o encargo pela segurança e/ou gerenciamento de riscos, 44% relataram que a responsabilidade final era de TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas empresas eram os responsáveis. 

Riscos mais importantes

Os riscos associados à Inteligência Artificial Generativa são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis ​​e código inseguro estão entre os riscos mais lembrados ao usar a tecnologia: 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por Inteligência Artificial; e 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos. 

“As empresas que não gerenciarem os riscos da Inteligência Artificial Generativa testemunharão que os seus modelos não funcionam conforme o esperado e, na pior das hipóteses, podem causar danos humanos ou materiais”, alerta o analista do Gartner. “Isso resultará em falhas de segurança, perdas financeiras e de reputação e danos aos indivíduos decorrentes de resultados incorretos, manipulados, antiéticos ou tendenciosos. O mau desempenho da Inteligência Artificial ​​também pode fazer com que as empresas tomem decisões de negócios erradas”, diz Litan. 


Conteúdos Relacionados

Security Report | Overview

Custo médio de ciberataques na Saúde foi de US$ 5,3 milhões em 2023

Diante do contexto de violação, PwC lista seis ações essenciais para segmentos impactados no setor
Security Report | Overview

Ataques DDoS podem ameaçar a Segurança Cibernética das eleições de 2024?

Em tempos de instabilidade política global, como a guerra na Ucrânia, os conflitos em Israel e as eleições nos EUA,...
Security Report | Overview

IA Generativa é incluída em nova oferta de SASE da indústria de Cyber Security

A nova oferta e a integração inteligente de IA generativa demonstram o compromisso da companhia com a inovação em SASE
Security Report | Overview

3,5 milhões de brasileiros foram vítimas de phishing em 2023, estima estudo

A expectativa é que o número seja, ao menos, 30% maior até o final deste ano. Finanças, Saúde e Governo...