34% das empresas já usam ou implementam ferramentas de Segurança com AI

De acordo com dados coletados pelo Gartner, parte desse uso é movido pela necessidade de mitigar os riscos associados à Inteligência Artificial Generativa. Apesar desse crescimento, o setor de Cyber ainda é um dos menos envolvidos na gestão da tecnologia nos negócios

Compartilhar:

O Gartner anuncia que 34% das companhias já estão usando ou implementando ferramentas de segurança de aplicativos com Inteligência Artificial (IA) para mitigar os riscos associados à Inteligência Artificial Generativa (GenAI). A pesquisa Gartner Peer Community foi realizada de 1 a 7 de abril deste ano com 150 líderes de TI e segurança da informação de empresas nas quais a Inteligência Artificial Generativa está em uso ou implementação. Cerca de 26% dos entrevistados afirmaram, também, que estão atualmente usando ou implementando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%). 

“Os líderes de TI, segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar a estratégia empresarial para gerenciamento de confiança, riscos e segurança (AI TRiSM)”, diz Avivah Litan, vice-presidente e analista do Gartner. “Esse gerenciamento trabalha com fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de Inteligência Artificial e deve ser um esforço contínuo, não um exercício único para proteger as empresas.” 

TI como responsável final

Embora 93% dos líderes de TI e segurança entrevistados tenham afirmado que estão pelo menos um pouco envolvidos nos esforços de segurança e gestão de riscos da Inteligência Artificial Generativa da sua empresa, apenas 24% afirmaram que possuem essa responsabilidade. Entre os entrevistados que não possuem o encargo pela segurança e/ou gerenciamento de riscos, 44% relataram que a responsabilidade final era de TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas empresas eram os responsáveis. 

Riscos mais importantes

Os riscos associados à Inteligência Artificial Generativa são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis ​​e código inseguro estão entre os riscos mais lembrados ao usar a tecnologia: 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por Inteligência Artificial; e 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos. 

“As empresas que não gerenciarem os riscos da Inteligência Artificial Generativa testemunharão que os seus modelos não funcionam conforme o esperado e, na pior das hipóteses, podem causar danos humanos ou materiais”, alerta o analista do Gartner. “Isso resultará em falhas de segurança, perdas financeiras e de reputação e danos aos indivíduos decorrentes de resultados incorretos, manipulados, antiéticos ou tendenciosos. O mau desempenho da Inteligência Artificial ​​também pode fazer com que as empresas tomem decisões de negócios erradas”, diz Litan. 


Conteúdos Relacionados

Security Report | Overview

Ransomware cai 26% no Brasil, mas país segue como maior vítima na América Latina

Mesmo com queda de 26% se comparado a 2023, o país apresenta mais de 487 mil detecções de ransomware no...
Security Report | Overview

Como harmonizar benefícios e vulnerabilidades da multinuvem no Brasil?

Enquanto, em um lado, as estratégias de multicloud podem ajudar empresas a otimizar seus negócios de forma visível, caso não...
Security Report | Overview

Outubro da Cibersegurança: Fatores humanos seguem como maiores riscos

Na atualidade, o erro humano é o que tem levado a mais ocorrências de violação cibernética nas empresas
Security Report | Overview

Exército Brasileiro coordena nova edição do Guardião Cibernético

Evento é o maior exercício cibernético do Hemisfério Sul e permitem que Forças Armadas, órgãos parceiros e representantes de infraestruturas...