Vazamento de dados e pirataria colocam usuários corporativos de chatbots em risco

Colaboradores estão confiando cada vez mais em chatbots e a Kaspersky explica como usá-los de forma segura

Compartilhar:

Atualmente, é comum que modelos linguísticos fundamentados em redes neurais (chatbots), como o ChatGPT, sejam usados no ambiente profissional. Porém, esse fenômeno traz uma questão crucial: podemos confiar nas plataformas para enviar dados corporativos sensíveis? Os investigadores da Kaspersky identificaram quatro riscos principais associados à utilização do ChatGPT para fins empresariais.



Diversas pesquisas recentes corroboram esse cenário de popularidade dos chatbots, indicando um aumento significativo na confiança das pessoas por essas ferramentas: as pesquisas do Google por “gerador de texto de IA” cresceram 820% no início deste ano, ante o anterior. O Brasil destaca-se como o quinto país que mais utiliza o ChatGPT no mundo. Entenda abaixo os principais riscos de se utilizar a ferramenta no que se refere a privacidade de dados.



Vazamento de dados ou hacking do lado do fornecedor

Embora os chatbots fundamentados em Modelos de Linguagem de Grande Escala (LLMs) sejam geridos por grandes empresas de tecnologia, não estão isentos de serem alvo de ataques hackers ou de sofrerem com vazamentos de dados acidentais. Um exemplo disso foi um problema em que as pessoas que usam o ChatGPT conseguiram ver mensagens antigas de conversas de outros usuários da plataforma sem autorização.



Vazamento de dados por meio dos chatbots

Teoricamente, as conversas com chatbots podem ser utilizadas para treinar modelos futuros. Considerando que os Modelos de Linguagem de Grande Escala (LLMs) são suscetíveis à “memorização não intencional” – em que eles lembram sequências únicas, como o número de telefone, que não melhoram a qualidade do modelo, mas apresentam riscos de privacidade – qualquer informação inserida pode ser acessada por outros usuários, seja de forma acidental ou intencional.



Cliente malicioso

Esta é uma grande preocupação em locais onde os serviços oficiais como o ChatGPT estão bloqueados. Os usuários podem recorrer a alternativas não oficiais como programas, sites ou bots de mensagens e acabar baixando um malware disfarçado de cliente ou aplicativo fictícios.



Pirataria de contas

Os criminosos podem entrar nas contas dos funcionários, acessando os seus dados através de ataques de phishing ou de preenchimento de credenciais. Além disso, o Kaspersky Digital Footprint Intelligence encontra regularmente publicações da dark web que vendem acesso a contas de chatbot.



Os programadores responsáveis esclarecem a forma como os dados são utilizados para o treinamento de modelos nas suas políticas de privacidade. A Kaspersky analisou diversos chatbots populares, incluindo o ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard e Genius App da Alloy Studios e revelou que no setor B2B, existem padrões de segurança e privacidade mais rígidos, devido aos riscos maiores associados à exposição de informações empresariais.



Consequentemente, os termos e condições de uso, coleta, armazenamento e processamento de dados estão mais focados na proteção e segurança em comparação com o setor B2C. As soluções B2B deste estudo normalmente não guardam automaticamente os históricos de conversa e, em alguns casos, nenhum dado é enviado para os servidores da empresa, uma vez que o chatbot funciona localmente na rede do cliente.



“Depois de examinarmos os potenciais riscos associados à utilização de chatbots baseados em LLM para fins profissionais, descobrimos que o risco de vazamento de dados sensíveis é maior quando os funcionários utilizam contas pessoais no trabalho, sendo uma prioridade máxima para as empresas. Por um lado, os funcionários precisam entender que dados são confidenciais ou pessoais, ou são informações comerciais sensíveis, e por isso não devem ser fornecidos a um chatbot. Por outro lado, a empresa deve definir regras claras para a utilização desses serviços, se é que são permitidos”, defende Anna Larkina, especialista em segurança e privacidade da Kaspersky.



Para continuar a usar os chatbots de maneira segura, os especialistas da Kaspersky recomendam utilizar senhas fortes, únicas e complexas para cada uma das suas contas e evitar informações fáceis de se adivinhar, como datas de aniversário ou nomes. Necessário também ter cuidado com o compartilhamento de informações pessoais nas redes sociais. Forneça-as apenas quando for absolutamente necessário.



Os colaboradores das empresas devem manter-se informados sobre as últimas ameaças online e as melhores práticas para se manterem seguros. Para evitar que os funcionários consultem de forma independente chatbots não confiáveis para fins de trabalho, eles devem usar uma solução de Segurança com análise de serviços na nuvem.



Conteúdos Relacionados

Security Report | Overview

Google, Facebook e Amazon são as marcas mais usadas em roubos de credenciais, diz relatório

Kaspersky aponta aumento de ataques de phishing a grandes marcas e a causa pode estar na sofisticação e agressividade de...
Security Report | Overview

Febraban alerta para golpes mais aplicados nas compras de Natal

Cliente deve redobrar cuidados ao fazer compras no e-commerce e com seu cartão nas lojas de rua de grandes centros...
Security Report | Overview

Bloqueio de fraudes na Black Friday crescem 270% em 2024

Novo dado foi divulgado pela Visa recentemente. Já na Cyber Monday, a empresa afirma ter bloqueado 85% a mais de...
Security Report | Overview

Como o cenário de malwares evoluiu na América Latina em 2024?

A evolução dos malwares focados na América Latina em 2024 destaca a adaptabilidade e a engenhosidade de seus desenvolvedores, que...