Uma em cada quatro organizações financeiras bloqueia o ChatGPT

Análise da Netskope aponta que setor financeiro controla o uso do ChatGPT bloqueando acesso, diferente do 2º colocado, o setor de tech, que usa cada vez mais a ferramenta por meio de controles inteligentes

Compartilhar:

Um levantamento realizado pelo laboratório da Netskope aponta que o uso do ChatGPT é mais controlado no setor de serviços financeiros, no qual em média uma em cada quatro organizações já implementou controles.

Por outro lado, o uso dessa ferramenta de IA generativa também é menor neste setor, indicando que os controles em questão são basicamente preventivos, ou seja, o acesso dos usuários à plataforma foi bloqueado.

O segundo lugar fica com o setor de tecnologia, que traz um cenário bem diferente. Uma em cada cinco implementaram os controles, mas o uso do ChatGPT detectado em organizações deste setor é muito maior. “Embora seja curioso, a verdade é que as empresas de tecnologia estão aproveitando os benefícios da ferramenta com segurança devido aos tipos de controle que estão implementando”, diz Ray Canzanese, diretor do Netskope Threat Labs.

Neste levantamento, a equipe de pesquisas de ameaças da Netskope destacou quatro tipos de controles que as empresas implementaram para monitorar e controlar o uso do ChatGPT.

Políticas de alerta – controles informativos que fornecem apenas a visibilidade de como os usuários dentro da empresa estão interagindo com o ChatGPT. Muitas vezes, eles são acoplados a políticas de prevenção contra perda de dados (DLP) para fornecer visibilidade de dados potencialmente confidenciais postados no ChatGPT. As políticas de alerta geralmente são usadas durante uma fase de aprendizado para explorar a eficácia e o impacto de um controle de bloqueio e geralmente são convertidas em políticas depois de terem sido ajustadas e testadas.

Políticas de coaching do usuário – geralmente são associadas à DLP e podem ser usadas para notificar o usuário de que os dados postados no ChatGPT parecem ser de natureza confidencial. O usuário normalmente é lembrado das regras da empresa e questionado se deseja ou não continuar. Por exemplo, se a política da empresa não permite upload de código-fonte proprietário para o ChatGPT, mas o usuário estiver fazendo upload de algum código-fonte aberto, ele pode optar por continuar com o envio após a notificação. Para as políticas de treinamento de usuários do ChatGPT, os usuários clicam em prosseguir 57% das vezes.

Políticas de DLP – permitem o acesso ao ChatGPT, mas controlam a postagem de dados confidenciais em prompts. As políticas DLP são configuradas pela organização para serem acionadas em cada postagem no ChatGPT e inspecionar o conteúdo da postagem antes de permitir que o usuário prossiga. Os controles mais comuns se concentram em código-fonte proprietário, senhas e chaves, propriedade intelectual e dados regulamentados.

Políticas de bloqueio – O tipo de política mais draconiano é o que bloqueia completamente o uso do ChatGPT. Os usuários não têm permissão para qualquer interação com a ferramenta: não podem fazer login, postar prompts ou, em alguns casos, sequer conseguem acessar a própria página de login.

Popularidade dos controles ChatGPT

Os serviços financeiros lideram em termos de políticas de bloqueio, no qual quase 17% das organizações bloqueiam completamente o ChatGPT. As políticas DLP que controlam exatamente o que pode ser postado no ChatGPT também são mais populares entre serviços financeiros e saúde, setores altamente regulamentados.

Estado, governo local (municipal) e instituições educacionais (SLED) apresentaram a menor taxa geral de controles ChatGPT e a menor adoção de políticas de treinamento de usuários, políticas DLP e políticas de bloqueio. Já entre as empresas tech, os tipos de controles são geralmente menos rigorosos do que em outros setores.


As organizações de tecnologia lideram o uso de alertas para fornecer apenas visibilidade e usam DLP e políticas de coaching de usuários em taxas semelhantes a outras verticais. Em resumo, isso significa que as empresas de tecnologia visam permitir que seus usuários acessem o ChatGPT, enquanto monitoram de perto o uso e implementam controles direcionados quando apropriado.


Conteúdos Relacionados

Security Report | Overview

22% dos ciberataques levaram mais de um mês para serem descobertos em 2023

Metade desses incidentes foi detectado apenas após encontrado um vazamento de dados, alerta Kaspersky
Security Report | Overview

Sistemas Google, Windows e Microsoft apresentam vulnerabilidades críticas, diz estudo

A Redbelt Security também destacou uma campanha maliciosa que utiliza aplicativos Android para roubar mensagens SMS dos usuários. Essa ameaça...
Security Report | Overview

Golpes virtuais atingem 1,8 milhão de vítimas e geram R$ 6 bilhões em perdas no Brasil

Em meio ao crescimento do comércio eletrônico, que movimentou cerca de R$ 225 bilhões no último ano, os golpes representam...
Security Report | Overview

Ataques DDoS crescem 112% e elevam precisão contra alvos, revela estudo

Ação criminosa teve maior impacto na faixa de 1 Tbps. Entre os alvos mais frequentes das campanhas são as Big...