Vazamento de dados e pirataria colocam usuários corporativos de chatbots em risco

Colaboradores estão confiando cada vez mais em chatbots e a Kaspersky explica como usá-los de forma segura

Compartilhar:

Atualmente, é comum que modelos linguísticos fundamentados em redes neurais (chatbots), como o ChatGPT, sejam usados no ambiente profissional. Porém, esse fenômeno traz uma questão crucial: podemos confiar nas plataformas para enviar dados corporativos sensíveis? Os investigadores da Kaspersky identificaram quatro riscos principais associados à utilização do ChatGPT para fins empresariais.



Diversas pesquisas recentes corroboram esse cenário de popularidade dos chatbots, indicando um aumento significativo na confiança das pessoas por essas ferramentas: as pesquisas do Google por “gerador de texto de IA” cresceram 820% no início deste ano, ante o anterior. O Brasil destaca-se como o quinto país que mais utiliza o ChatGPT no mundo. Entenda abaixo os principais riscos de se utilizar a ferramenta no que se refere a privacidade de dados.



Vazamento de dados ou hacking do lado do fornecedor

Embora os chatbots fundamentados em Modelos de Linguagem de Grande Escala (LLMs) sejam geridos por grandes empresas de tecnologia, não estão isentos de serem alvo de ataques hackers ou de sofrerem com vazamentos de dados acidentais. Um exemplo disso foi um problema em que as pessoas que usam o ChatGPT conseguiram ver mensagens antigas de conversas de outros usuários da plataforma sem autorização.



Vazamento de dados por meio dos chatbots

Teoricamente, as conversas com chatbots podem ser utilizadas para treinar modelos futuros. Considerando que os Modelos de Linguagem de Grande Escala (LLMs) são suscetíveis à “memorização não intencional” – em que eles lembram sequências únicas, como o número de telefone, que não melhoram a qualidade do modelo, mas apresentam riscos de privacidade – qualquer informação inserida pode ser acessada por outros usuários, seja de forma acidental ou intencional.



Cliente malicioso

Esta é uma grande preocupação em locais onde os serviços oficiais como o ChatGPT estão bloqueados. Os usuários podem recorrer a alternativas não oficiais como programas, sites ou bots de mensagens e acabar baixando um malware disfarçado de cliente ou aplicativo fictícios.



Pirataria de contas

Os criminosos podem entrar nas contas dos funcionários, acessando os seus dados através de ataques de phishing ou de preenchimento de credenciais. Além disso, o Kaspersky Digital Footprint Intelligence encontra regularmente publicações da dark web que vendem acesso a contas de chatbot.



Os programadores responsáveis esclarecem a forma como os dados são utilizados para o treinamento de modelos nas suas políticas de privacidade. A Kaspersky analisou diversos chatbots populares, incluindo o ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard e Genius App da Alloy Studios e revelou que no setor B2B, existem padrões de segurança e privacidade mais rígidos, devido aos riscos maiores associados à exposição de informações empresariais.



Consequentemente, os termos e condições de uso, coleta, armazenamento e processamento de dados estão mais focados na proteção e segurança em comparação com o setor B2C. As soluções B2B deste estudo normalmente não guardam automaticamente os históricos de conversa e, em alguns casos, nenhum dado é enviado para os servidores da empresa, uma vez que o chatbot funciona localmente na rede do cliente.



“Depois de examinarmos os potenciais riscos associados à utilização de chatbots baseados em LLM para fins profissionais, descobrimos que o risco de vazamento de dados sensíveis é maior quando os funcionários utilizam contas pessoais no trabalho, sendo uma prioridade máxima para as empresas. Por um lado, os funcionários precisam entender que dados são confidenciais ou pessoais, ou são informações comerciais sensíveis, e por isso não devem ser fornecidos a um chatbot. Por outro lado, a empresa deve definir regras claras para a utilização desses serviços, se é que são permitidos”, defende Anna Larkina, especialista em segurança e privacidade da Kaspersky.



Para continuar a usar os chatbots de maneira segura, os especialistas da Kaspersky recomendam utilizar senhas fortes, únicas e complexas para cada uma das suas contas e evitar informações fáceis de se adivinhar, como datas de aniversário ou nomes. Necessário também ter cuidado com o compartilhamento de informações pessoais nas redes sociais. Forneça-as apenas quando for absolutamente necessário.



Os colaboradores das empresas devem manter-se informados sobre as últimas ameaças online e as melhores práticas para se manterem seguros. Para evitar que os funcionários consultem de forma independente chatbots não confiáveis para fins de trabalho, eles devem usar uma solução de Segurança com análise de serviços na nuvem.



Conteúdos Relacionados

Security Report | Overview

Vulnerabilidade no Google Cloud pode comprometer milhões de servidores, alerta Laboratório

Embora essa técnica de ataque seja conhecida há vários anos, a pesquisa da Tenable mostra uma alarmante falta de conscientização...
Security Report | Overview

“Como toda tecnologia, deepfake pode ser perigoso”, diz ex-CIO da Casa Branca

Theresa Payton, primeira mulher a assumir o cargo e especialista na defesa contra hackers, apontou como a tecnologia tem sido...
Security Report | Overview

Mascaramento de dados pode ajudar na proteção de dados e conformidade com LGPD?

O mascaramento de dados, que consiste em evitar ataques cibernéticos nas empresas ao substituir informações sensíveis por dados fictícios com...
Security Report | Overview

Agosto registrou mais de R$ 200 milhões em tentativas de fraude no e-commerce

Apesar da redução de 8,4% frente a 2023, o valor do ticket médio dos pedidos fraudulentos teve um aumento de...