Uma em cada quatro organizações financeiras bloqueia o ChatGPT

Análise da Netskope aponta que setor financeiro controla o uso do ChatGPT bloqueando acesso, diferente do 2º colocado, o setor de tech, que usa cada vez mais a ferramenta por meio de controles inteligentes

Compartilhar:

Um levantamento realizado pelo laboratório da Netskope aponta que o uso do ChatGPT é mais controlado no setor de serviços financeiros, no qual em média uma em cada quatro organizações já implementou controles.

Por outro lado, o uso dessa ferramenta de IA generativa também é menor neste setor, indicando que os controles em questão são basicamente preventivos, ou seja, o acesso dos usuários à plataforma foi bloqueado.

O segundo lugar fica com o setor de tecnologia, que traz um cenário bem diferente. Uma em cada cinco implementaram os controles, mas o uso do ChatGPT detectado em organizações deste setor é muito maior. “Embora seja curioso, a verdade é que as empresas de tecnologia estão aproveitando os benefícios da ferramenta com segurança devido aos tipos de controle que estão implementando”, diz Ray Canzanese, diretor do Netskope Threat Labs.

Neste levantamento, a equipe de pesquisas de ameaças da Netskope destacou quatro tipos de controles que as empresas implementaram para monitorar e controlar o uso do ChatGPT.

Políticas de alerta – controles informativos que fornecem apenas a visibilidade de como os usuários dentro da empresa estão interagindo com o ChatGPT. Muitas vezes, eles são acoplados a políticas de prevenção contra perda de dados (DLP) para fornecer visibilidade de dados potencialmente confidenciais postados no ChatGPT. As políticas de alerta geralmente são usadas durante uma fase de aprendizado para explorar a eficácia e o impacto de um controle de bloqueio e geralmente são convertidas em políticas depois de terem sido ajustadas e testadas.

Políticas de coaching do usuário – geralmente são associadas à DLP e podem ser usadas para notificar o usuário de que os dados postados no ChatGPT parecem ser de natureza confidencial. O usuário normalmente é lembrado das regras da empresa e questionado se deseja ou não continuar. Por exemplo, se a política da empresa não permite upload de código-fonte proprietário para o ChatGPT, mas o usuário estiver fazendo upload de algum código-fonte aberto, ele pode optar por continuar com o envio após a notificação. Para as políticas de treinamento de usuários do ChatGPT, os usuários clicam em prosseguir 57% das vezes.

Políticas de DLP – permitem o acesso ao ChatGPT, mas controlam a postagem de dados confidenciais em prompts. As políticas DLP são configuradas pela organização para serem acionadas em cada postagem no ChatGPT e inspecionar o conteúdo da postagem antes de permitir que o usuário prossiga. Os controles mais comuns se concentram em código-fonte proprietário, senhas e chaves, propriedade intelectual e dados regulamentados.

Políticas de bloqueio – O tipo de política mais draconiano é o que bloqueia completamente o uso do ChatGPT. Os usuários não têm permissão para qualquer interação com a ferramenta: não podem fazer login, postar prompts ou, em alguns casos, sequer conseguem acessar a própria página de login.

Popularidade dos controles ChatGPT

Os serviços financeiros lideram em termos de políticas de bloqueio, no qual quase 17% das organizações bloqueiam completamente o ChatGPT. As políticas DLP que controlam exatamente o que pode ser postado no ChatGPT também são mais populares entre serviços financeiros e saúde, setores altamente regulamentados.

Estado, governo local (municipal) e instituições educacionais (SLED) apresentaram a menor taxa geral de controles ChatGPT e a menor adoção de políticas de treinamento de usuários, políticas DLP e políticas de bloqueio. Já entre as empresas tech, os tipos de controles são geralmente menos rigorosos do que em outros setores.


As organizações de tecnologia lideram o uso de alertas para fornecer apenas visibilidade e usam DLP e políticas de coaching de usuários em taxas semelhantes a outras verticais. Em resumo, isso significa que as empresas de tecnologia visam permitir que seus usuários acessem o ChatGPT, enquanto monitoram de perto o uso e implementam controles direcionados quando apropriado.


Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

59% dos dados expostos pela IA são informações reguladas no setor financeiro

Relatório revela que, embora instituições tenham migrado para ferramentas de IA gerenciadas, a mistura entre contas pessoais e corporativas ampliou...
Security Report | Overview

Atividade de bots de IA cresce 300% e ameaça receitas em paywall

Relatório revela que assistentes de IA geram 96% menos tráfego de referência do que buscas tradicionais, elevando custos e pressionando...
Security Report | Overview

Segurança em malha híbrida pode gerar salto de 314% no ROI, aponta análise

Estudo da IDC, apoiado pela Check Point Software, revela que arquiteturas integradas reduzem a indisponibilidade operacional em 66% e os...
Security Report | Overview

Pesquisa aponta SI como principal fator de confiança para a escala da IA Industrial

Novo estudo da Cisco revela que 49% das indústrias brasileiras veem a Segurança como o maior obstáculo para expandir a...