Vazamento de dados e pirataria colocam usuários corporativos de chatbots em risco

Colaboradores estão confiando cada vez mais em chatbots e a Kaspersky explica como usá-los de forma segura

Compartilhar:

Atualmente, é comum que modelos linguísticos fundamentados em redes neurais (chatbots), como o ChatGPT, sejam usados no ambiente profissional. Porém, esse fenômeno traz uma questão crucial: podemos confiar nas plataformas para enviar dados corporativos sensíveis? Os investigadores da Kaspersky identificaram quatro riscos principais associados à utilização do ChatGPT para fins empresariais.



Diversas pesquisas recentes corroboram esse cenário de popularidade dos chatbots, indicando um aumento significativo na confiança das pessoas por essas ferramentas: as pesquisas do Google por “gerador de texto de IA” cresceram 820% no início deste ano, ante o anterior. O Brasil destaca-se como o quinto país que mais utiliza o ChatGPT no mundo. Entenda abaixo os principais riscos de se utilizar a ferramenta no que se refere a privacidade de dados.



Vazamento de dados ou hacking do lado do fornecedor

Embora os chatbots fundamentados em Modelos de Linguagem de Grande Escala (LLMs) sejam geridos por grandes empresas de tecnologia, não estão isentos de serem alvo de ataques hackers ou de sofrerem com vazamentos de dados acidentais. Um exemplo disso foi um problema em que as pessoas que usam o ChatGPT conseguiram ver mensagens antigas de conversas de outros usuários da plataforma sem autorização.



Vazamento de dados por meio dos chatbots

Teoricamente, as conversas com chatbots podem ser utilizadas para treinar modelos futuros. Considerando que os Modelos de Linguagem de Grande Escala (LLMs) são suscetíveis à “memorização não intencional” – em que eles lembram sequências únicas, como o número de telefone, que não melhoram a qualidade do modelo, mas apresentam riscos de privacidade – qualquer informação inserida pode ser acessada por outros usuários, seja de forma acidental ou intencional.



Cliente malicioso

Esta é uma grande preocupação em locais onde os serviços oficiais como o ChatGPT estão bloqueados. Os usuários podem recorrer a alternativas não oficiais como programas, sites ou bots de mensagens e acabar baixando um malware disfarçado de cliente ou aplicativo fictícios.



Pirataria de contas

Os criminosos podem entrar nas contas dos funcionários, acessando os seus dados através de ataques de phishing ou de preenchimento de credenciais. Além disso, o Kaspersky Digital Footprint Intelligence encontra regularmente publicações da dark web que vendem acesso a contas de chatbot.



Os programadores responsáveis esclarecem a forma como os dados são utilizados para o treinamento de modelos nas suas políticas de privacidade. A Kaspersky analisou diversos chatbots populares, incluindo o ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard e Genius App da Alloy Studios e revelou que no setor B2B, existem padrões de segurança e privacidade mais rígidos, devido aos riscos maiores associados à exposição de informações empresariais.



Consequentemente, os termos e condições de uso, coleta, armazenamento e processamento de dados estão mais focados na proteção e segurança em comparação com o setor B2C. As soluções B2B deste estudo normalmente não guardam automaticamente os históricos de conversa e, em alguns casos, nenhum dado é enviado para os servidores da empresa, uma vez que o chatbot funciona localmente na rede do cliente.



“Depois de examinarmos os potenciais riscos associados à utilização de chatbots baseados em LLM para fins profissionais, descobrimos que o risco de vazamento de dados sensíveis é maior quando os funcionários utilizam contas pessoais no trabalho, sendo uma prioridade máxima para as empresas. Por um lado, os funcionários precisam entender que dados são confidenciais ou pessoais, ou são informações comerciais sensíveis, e por isso não devem ser fornecidos a um chatbot. Por outro lado, a empresa deve definir regras claras para a utilização desses serviços, se é que são permitidos”, defende Anna Larkina, especialista em segurança e privacidade da Kaspersky.



Para continuar a usar os chatbots de maneira segura, os especialistas da Kaspersky recomendam utilizar senhas fortes, únicas e complexas para cada uma das suas contas e evitar informações fáceis de se adivinhar, como datas de aniversário ou nomes. Necessário também ter cuidado com o compartilhamento de informações pessoais nas redes sociais. Forneça-as apenas quando for absolutamente necessário.



Os colaboradores das empresas devem manter-se informados sobre as últimas ameaças online e as melhores práticas para se manterem seguros. Para evitar que os funcionários consultem de forma independente chatbots não confiáveis para fins de trabalho, eles devem usar uma solução de Segurança com análise de serviços na nuvem.



Conteúdos Relacionados

Security Report | Overview

CTIR Gov orienta governo a monitorar sistemas de proteção após Apagão Cibernético

Com a identificação do incidente que colheu a plataforma Falcon, da CrowdStrike, e da Microsoft, O órgão de Prevenção a...
Security Report | Overview

Incidentes de TI estão no topo dos riscos para a continuidade dos negócios, aponta pesquisa

1ª Pesquisa Nacional sobre Maturidade em Gestão de Crises e Continuidade de Negócios, apresentada no segundo trimestre deste ano, identifica...
Security Report | Overview

54% das empresas consideram erros humanos um vetor crítico de ciberataques

Estudo da ManageEngine revelou que ameaças externas ainda são a maioria entre os golpes realizados, mas falhas de funcionários preocupam
Security Report | Overview

Apenas 23% das senhas ativas exigem mais de um ano para serem decifradas

Levantamento da Kaspersky analisa 193 milhões de senhas na darknet e indica que 87 milhões delas poderiam ser descobertas em...