Suposto vazamento em plataforma de IA expõe dados de 20 mil usuários, diz pesquisa

Suposto vazamento de dados de 20 mil usuários de chatbot acende alerta sobre a segurança em plataformas de IA; especialistas destacam riscos crescentes, uso indevido de informações e a urgência de tratar a ferramenta com o mesmo rigor da cibersegurança corporativa

Compartilhar:

A CLM divulgou o alerta feito pela Skyhigh sobre um suposto vazamento de dados de 20 mil usuários do chatbot de IA OmniGPT. A informação foi publicada em um fórum de violações, segundo os especialistas, um hacker disse ter se infiltrado na plataforma, expondo dados pessoais de usuários, incluindo e-mails, números de telefone e mais de 34 milhões de linhas de prompts e conversas. Além dos chats dos usuários, os dados expostos também incluem links para arquivos enviados, alguns dos quais contêm informações confidenciais, como credenciais, prompts, detalhes de cobrança e chaves de API.

 

Segundo a organização, o uso dessas ferramentas cresce continuamente e afirma que a maioria dos atendimentos de  diversos serviços já adotou o modelo de chat nas interações com clientes, que trocam todo tipo de informação.  O CEO da CLM, Francisco Camargo reforçou sobre a troca de informações pessoais com as tecnologias com IA. “O grande volume de dados pessoais, financeiros e a conversação trocados com esses sistemas de IA significa que uma violação pode ter consequências incalculáveis, afetando a segurança pessoal e a confiabilidade desses serviços”, adverte.

 

 

A Skyhigh apontou que  diversos de novos serviços de IA surgem semanalmente e as equipes de cibersegurança, já sobrecarregadas, não conseguem acompanhar o ritmo. Os especialistas aponta que ao mesmo tempo, as pessoas têm uma tendência de tratar chatbots de IA como um repositório casual para toda e qualquer informação, tornando essas plataformas verdadeiras “caixas pretas”, onde o usuário praticamente não tem percepção de como seus dados são manipulados, armazenados ou protegidos.

 

A pesquisa mostrou que a acessibilidade e a conveniência dos chatbots e serviços de criatividade com tecnologia de IA os tornaram parte integrante da vida das pessoas, mas o mais preocupante aqui é que estas violações aconteceram no back-end do serviço. Isso mostra que os usuários ou consumidores não poderiam ter feito nada para evitá-la.

 

Especialistas em cibersegurança da CLM avaliaram que a segurança da informação precisa acompanhar o ritmo de crescimento desses sistemas. A verdadeira questão agora não é o quão úteis eles são,  mas se estes sistemas podem realmente proteger os dados que confiamos a eles. Assim, alertam que a conscientização dos usuários sobre segurança é fundamental. Muitas pessoas ainda não conhecem os riscos associados à inserção de informações confidenciais em serviços de chatbot de IA ou plataformas em nuvem.

 

Além disso, a organização indicou aos usuários sobre o potencial uso indevido de dados e enfatizar o cuidado ao compartilhar dados pessoais ou confidenciais pode ajudar muito a reduzir a sua exposição, treinamento de usuários sobre riscos e cibersegurança é a base da soberania digital de qualquer país. E os pesquisadores orientam também que é preciso tratar a IA com o mesmo rigor que outros ativos do ambiente corporativo é um caminho a ser seguido, pois defendem que ter visibilidade é essencial nessa jornada.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Ransomware ganha novas táticas de extorsão, aponta relatório

Novo relatório analisa as táticas utilizadas pelos cibercriminosos e explica sobre os danos para as organizações e como se proteger
Security Report | Overview

Golpes bancários focam nos pais durante o mês de agosto, revela estudo

Estudo mostra que no setor financeiro, mais de 300 sites falsos são criados por dia no Brasil
Security Report | Overview

Febraban alerta para golpes baseados em vendas no Dia dos Pais

Quadrilhas aproveitam período para criar falsas lojas em redes sociais e aplicar golpes com brindes que usam maquininhas de cartão
Security Report | Overview

Golpes com deepfakes geram prejuízo de U$35 milhões, mostra estudo

Especialistas afirmam que o avanço da automação torna as deepfakes ainda mais preocupantes. Sistemas de telefonia movidos por IA, são...