Desenvolvimento rápido do DeepSeek pode expô-lo a riscos de SI, alerta laboratório

O modelo R1 da IA chinesa demonstra a velocidade com que uma ferramenta de IA pode se expandir, expondo dados críticos antes que as equipes de segurança possam reagir

Compartilhar:

A Check Point Software alerta sobre os riscos de privacidade e segurança que o modelo R1 do DeepSeek, a inteligência artificial chinesa, representa às empresas. Esse modelo é um marco na acessibilidade da IA ao combinar capacidades avançadas de raciocínio com acesso gratuito e ilimitado. Em apenas 48 horas, seu aplicativo móvel liderou as listas de downloads nas lojas App Store do iOS. No entanto, com essa popularidade explosiva, surgem preocupações críticas sobre a segurança e a privacidade dos dados corporativos.

 

Embora o modelo de código aberto do DeepSeek represente um avanço na implantação econômica de IA, o aplicativo voltado para o consumidor introduz desafios substanciais de privacidade e segurança para as empresas.

 

Segundo os pesquisadores da Check Point Software, o aspecto mais crítico são as práticas de coleta de dados da plataforma, que vão muito além do uso típico. De acordo com a política de privacidade do DeepSeek, todas as interações dos usuários — incluindo prompts, arquivos enviados, históricos de conversa, entradas de voz, imagens e até padrões de digitação — são transmitidas e armazenadas em servidores externos. Além disso, a empresa DeepSeek se reserva o direito de revisar todo o conteúdo enviado pelos usuários.

 

Essa coleta abrangente de dados cria riscos imediatos de privacidade e conformidade regulatória: Os dados coletados podem ser usados para o treinamento dos modelos, gerando um risco direto de que informações corporativas sensíveis sejam incorporadas em futuras versões da IA.

 

Além disso, o conteúdo dos usuários pode ser compartilhado com diversas partes terceiras, incluindo prestadores de serviços e afiliadas corporativas. A existência de restrições de conteúdo e censura sobre determinados temas no DeepSeek aponta para preocupações mais amplas de governança que podem afetar as operações empresariais.

 

Para organizações sujeitas às regulamentações GDPR (General Data Protection Regulation) da União Europeia, HIPAA de saúde e CCPA (California Consumer Privacy Act) nos Estados Unidos, LGPD (Lei Geral de Proteção de Dados) no Brasil ou outras regulamentações regionais de privacidade, essa estrutura de tratamento de dados representa riscos diretos de conformidade e possíveis penalidades.

 

O fenômeno DeepSeek demonstra como uma nova ferramenta de IA pode alcançar adoção massiva em um curto período, expondo potencialmente dados críticos em uma organização antes que as equipes de segurança possam reagir.

 

Os pesquisadores apontam que, à medida que os aplicativos de IA generativa gratuitas continuam a se expandir, as empresas precisam de ferramentas que lhes permitam aproveitar seu potencial sem comprometer a segurança de seus dados; tais soluções de segurança com IA ajudam as organizações a adotarem a inovação em IA com confiança, garantindo a segurança de suas informações mais críticas.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Análise alerta que estreias de filmes podem ser usadas como iscas em golpes online

Pesquisa mostra que interesse em grandes lançamentos podem ser usados para aplicação de golpes de streaming e campanhas de phishing...
Security Report | Overview

Magalu Cloud conquista certificação de gestão de Segurança da Informação

Serviço de nuvem foi reconhecida com a ISO/IEC 27001; Magalu Cloud divulga o teste que comprova a confidencialidade e integridade...
Security Report | Overview

Pesquisa: Black Friday amplia o risco cibernético corporativo na América Latina

Estudo aponta que a América Latina é a segunda região mais afetada por ataques cibernéticos sazonais, impulsionados por campanhas falsas...
Security Report | Overview

Estudo alerta para fraudes com IA que imitam vídeos, sites e apps de pagamento

A análise de ibersegurança identifica o avanço de golpes que usam IA para criar campanhas falsas, clonar plataformas financeiras e...