A CLM divulgou o alerta feito pela Skyhigh sobre um suposto vazamento de dados de 20 mil usuários do chatbot de IA OmniGPT. A informação foi publicada em um fórum de violações, segundo os especialistas, um hacker disse ter se infiltrado na plataforma, expondo dados pessoais de usuários, incluindo e-mails, números de telefone e mais de 34 milhões de linhas de prompts e conversas. Além dos chats dos usuários, os dados expostos também incluem links para arquivos enviados, alguns dos quais contêm informações confidenciais, como credenciais, prompts, detalhes de cobrança e chaves de API.
Segundo a organização, o uso dessas ferramentas cresce continuamente e afirma que a maioria dos atendimentos de diversos serviços já adotou o modelo de chat nas interações com clientes, que trocam todo tipo de informação. O CEO da CLM, Francisco Camargo reforçou sobre a troca de informações pessoais com as tecnologias com IA. “O grande volume de dados pessoais, financeiros e a conversação trocados com esses sistemas de IA significa que uma violação pode ter consequências incalculáveis, afetando a segurança pessoal e a confiabilidade desses serviços”, adverte.
A Skyhigh apontou que diversos de novos serviços de IA surgem semanalmente e as equipes de cibersegurança, já sobrecarregadas, não conseguem acompanhar o ritmo. Os especialistas aponta que ao mesmo tempo, as pessoas têm uma tendência de tratar chatbots de IA como um repositório casual para toda e qualquer informação, tornando essas plataformas verdadeiras “caixas pretas”, onde o usuário praticamente não tem percepção de como seus dados são manipulados, armazenados ou protegidos.
A pesquisa mostrou que a acessibilidade e a conveniência dos chatbots e serviços de criatividade com tecnologia de IA os tornaram parte integrante da vida das pessoas, mas o mais preocupante aqui é que estas violações aconteceram no back-end do serviço. Isso mostra que os usuários ou consumidores não poderiam ter feito nada para evitá-la.
Especialistas em cibersegurança da CLM avaliaram que a segurança da informação precisa acompanhar o ritmo de crescimento desses sistemas. A verdadeira questão agora não é o quão úteis eles são, mas se estes sistemas podem realmente proteger os dados que confiamos a eles. Assim, alertam que a conscientização dos usuários sobre segurança é fundamental. Muitas pessoas ainda não conhecem os riscos associados à inserção de informações confidenciais em serviços de chatbot de IA ou plataformas em nuvem.
Além disso, a organização indicou aos usuários sobre o potencial uso indevido de dados e enfatizar o cuidado ao compartilhar dados pessoais ou confidenciais pode ajudar muito a reduzir a sua exposição, treinamento de usuários sobre riscos e cibersegurança é a base da soberania digital de qualquer país. E os pesquisadores orientam também que é preciso tratar a IA com o mesmo rigor que outros ativos do ambiente corporativo é um caminho a ser seguido, pois defendem que ter visibilidade é essencial nessa jornada.