34% das empresas já usam ou implementam ferramentas de Segurança com AI

De acordo com dados coletados pelo Gartner, parte desse uso é movido pela necessidade de mitigar os riscos associados à Inteligência Artificial Generativa. Apesar desse crescimento, o setor de Cyber ainda é um dos menos envolvidos na gestão da tecnologia nos negócios

Compartilhar:

O Gartner anuncia que 34% das companhias já estão usando ou implementando ferramentas de segurança de aplicativos com Inteligência Artificial (IA) para mitigar os riscos associados à Inteligência Artificial Generativa (GenAI). A pesquisa Gartner Peer Community foi realizada de 1 a 7 de abril deste ano com 150 líderes de TI e segurança da informação de empresas nas quais a Inteligência Artificial Generativa está em uso ou implementação. Cerca de 26% dos entrevistados afirmaram, também, que estão atualmente usando ou implementando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%). 

“Os líderes de TI, segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar a estratégia empresarial para gerenciamento de confiança, riscos e segurança (AI TRiSM)”, diz Avivah Litan, vice-presidente e analista do Gartner. “Esse gerenciamento trabalha com fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de Inteligência Artificial e deve ser um esforço contínuo, não um exercício único para proteger as empresas.” 

TI como responsável final

Embora 93% dos líderes de TI e segurança entrevistados tenham afirmado que estão pelo menos um pouco envolvidos nos esforços de segurança e gestão de riscos da Inteligência Artificial Generativa da sua empresa, apenas 24% afirmaram que possuem essa responsabilidade. Entre os entrevistados que não possuem o encargo pela segurança e/ou gerenciamento de riscos, 44% relataram que a responsabilidade final era de TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas empresas eram os responsáveis. 

Riscos mais importantes

Os riscos associados à Inteligência Artificial Generativa são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis ​​e código inseguro estão entre os riscos mais lembrados ao usar a tecnologia: 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por Inteligência Artificial; e 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos. 

“As empresas que não gerenciarem os riscos da Inteligência Artificial Generativa testemunharão que os seus modelos não funcionam conforme o esperado e, na pior das hipóteses, podem causar danos humanos ou materiais”, alerta o analista do Gartner. “Isso resultará em falhas de segurança, perdas financeiras e de reputação e danos aos indivíduos decorrentes de resultados incorretos, manipulados, antiéticos ou tendenciosos. O mau desempenho da Inteligência Artificial ​​também pode fazer com que as empresas tomem decisões de negócios erradas”, diz Litan. 


Conteúdos Relacionados

Security Report | Overview

Novo malware finge ser assistente de IA para roubar dados de brasileiros, afirma relatório

Pesquisa revela que golpistas estão usando anúncios no Google e um aplicativo falso de IA (DeepSeek) para instalar programa que...
Security Report | Overview

Brasil está entre os dez países com mais ameaças de malware, afirma pesquisa

Relatório indica nações que devem tomar precauções extras para tornar os sistemas corporativos mais resilientes contra ataques como ransomware
Security Report | Overview

Fraudes com Pix e QR Code crescem na América Latina, aponta pesquisa

Levantamento mostra as principais táticas utilizadas e os tipos de vulnerabilidades exploradas por criminosos ao realizarem fraudes financeiras em países...
Security Report | Overview

Malware disfarçado em DeepSeek e WPS Office é identificado em nova campanha

Relatório mostra uma nova campanha de ciberataques que usa malware disfarçado de outros sites para o roubo de dados confidenciais,...