34% das empresas já usam ou implementam ferramentas de Segurança com AI

De acordo com dados coletados pelo Gartner, parte desse uso é movido pela necessidade de mitigar os riscos associados à Inteligência Artificial Generativa. Apesar desse crescimento, o setor de Cyber ainda é um dos menos envolvidos na gestão da tecnologia nos negócios

Compartilhar:

O Gartner anuncia que 34% das companhias já estão usando ou implementando ferramentas de segurança de aplicativos com Inteligência Artificial (IA) para mitigar os riscos associados à Inteligência Artificial Generativa (GenAI). A pesquisa Gartner Peer Community foi realizada de 1 a 7 de abril deste ano com 150 líderes de TI e segurança da informação de empresas nas quais a Inteligência Artificial Generativa está em uso ou implementação. Cerca de 26% dos entrevistados afirmaram, também, que estão atualmente usando ou implementando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%). 

“Os líderes de TI, segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar a estratégia empresarial para gerenciamento de confiança, riscos e segurança (AI TRiSM)”, diz Avivah Litan, vice-presidente e analista do Gartner. “Esse gerenciamento trabalha com fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de Inteligência Artificial e deve ser um esforço contínuo, não um exercício único para proteger as empresas.” 

TI como responsável final

Embora 93% dos líderes de TI e segurança entrevistados tenham afirmado que estão pelo menos um pouco envolvidos nos esforços de segurança e gestão de riscos da Inteligência Artificial Generativa da sua empresa, apenas 24% afirmaram que possuem essa responsabilidade. Entre os entrevistados que não possuem o encargo pela segurança e/ou gerenciamento de riscos, 44% relataram que a responsabilidade final era de TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas empresas eram os responsáveis. 

Riscos mais importantes

Os riscos associados à Inteligência Artificial Generativa são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis ​​e código inseguro estão entre os riscos mais lembrados ao usar a tecnologia: 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por Inteligência Artificial; e 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos. 

“As empresas que não gerenciarem os riscos da Inteligência Artificial Generativa testemunharão que os seus modelos não funcionam conforme o esperado e, na pior das hipóteses, podem causar danos humanos ou materiais”, alerta o analista do Gartner. “Isso resultará em falhas de segurança, perdas financeiras e de reputação e danos aos indivíduos decorrentes de resultados incorretos, manipulados, antiéticos ou tendenciosos. O mau desempenho da Inteligência Artificial ​​também pode fazer com que as empresas tomem decisões de negócios erradas”, diz Litan. 


Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Serpro nega ser alvo de hacker preso em Pernambuco

Estatal reafirma que sistemas seguem íntegros e não houve comprometimento de dados sob sua guarda
Security Report | Overview

Febraban divulga medidas de reforço à integridade do sistema financeiro

Federação divulga ação do Banco Central contra fraudes e crimes cibernéticos, destaca preservação do Pix e defende regras mais duras...
Security Report | Overview

F5 adquire organização de segurança de IA empresarial por 180 milhões de dólares

Movimento pode evidenciar a crescente preocupação com a implementação de estratégias para a IA empresarial e a necessidade de novas...
Security Report | Overview

ANPD assina acordo com autoridade dos Emirados Árabes para proteção de dados

Segundo o organização, a iniciativa é uma tentativa de fortalecer a cooperação entre países para a proteção de dados pessoais,...