ChatGPT: bug expõe dados sensíveis de usuários

Falha pode ter causado a exposição de informações relacionadas ao pagamento de 1,2% dos assinantes do ChatGPT Plus. OpenAI está notificando os usuários afetados informando-os sobre um possível vazamento de dados

Compartilhar:

No início da última semana, a OpenAI colocou o ChatGPT offline para solucionar um bug na biblioteca de código aberto, pois a falha permitia a alguns usuários acess aos históricos de bate-papo ativos de outras pessoas. Porém, após uma investigação, foi constatado que esse mesmo bug pode ter provocado a exposição de informações relacionadas ao pagamento de 1,2% dos assinantes do ChatGPT Plus que estavam ativos durante uma janela específica de nove horas.

 

A OpenAI explica que, horas antes de colocar o Chatbot em offline na última segunda-feira (20), alguns usuários conseguiram ver o nome e sobrenome de outro usuário ativo, além de endereço de e-mail, informações de pagamento como os últimos quatro dígitos de um número de cartão de crédito, além da expiração da data de validade. Ainda segundo o comunicado, os números completos do cartão de crédito não foram expostos.

 

“Entramos em contato para notificar os usuários afetados de que suas informações de pagamento podem ter sido expostas. Estamos confiantes de que não há risco contínuo para os dados dos usuários”, diz a nota.

 

A empresa ainda ressaltou que segue comprometida para proteger a privacidade dos clientes, mantendo os dados seguros. “Infelizmente, esta semana ficamos aquém desse compromisso e das expectativas de nossos usuários. Pedimos desculpas novamente aos nossos clientes e a toda a comunidade ChatGPT. Trabalharemos diligentemente para reconstruir a confiança”, finaliza o comunicado.

 

ChatGPT em ascensão no mercado

 

Fato é que o ChatGPT rapidamente se tornou o centro das atenções dentro de toda a comunidade Cyber. A novidade que a tecnologia da OpenAI representa já pode ser sentida em múltiplos setores dentro e fora do meio digital.

 

Com a Cibersegurança não foi diferente: devido à ferramenta ainda não ter limites conhecidos, especialistas ligados à área trabalham para descobrir os potenciais desse novo recurso e os impactos que podem causar na operação, tanto no sentido positivo de cyber defesa, quanto no desafio que pode potencializar ataques cibernéticos.

 

Em entrevista concedida à Security Report, Cristiane Dias, Head de SI e Governança na Aegea, comenta que grupos cibercriminosos precisam de um nível elevado de conhecimento sobre o ambiente Cyber para operar com sucesso. Mas a depender de como essa IA for alimentada, ela se torna mais simples para Ciberatacantes menos preparados. Conceitos elaborados podem ficar acessíveis pelos dados do ChatGPT e isso a torna útil também para uma gama de crimes além dos cibernéticos, como incitações à violência ou terrorismo.

 

“O ChatGPT é uma grande ferramenta. Mas a falta de um Double Check sobre as respostas buscadas pelos usuários a torna vulnerável a maus usos. Abre a possibilidade de ela começar a produzir dicionários de dados equivocados”, alerta Cristiane.

 

Conteúdos Relacionados

Security Report | Destaques

Operação da Polícia Civil desarticula organização cibercriminosa

Operação Krypteia cumpre mais de 20 mandados de prisão em estados do Sul e Sudeste contra grupo envolvido em estelionato,...
Security Report | Destaques

Cibercriminosos exploram ferramentas corporativas para invadir empresas brasileiras

Campanha identificada pela Cisco Talos usa software legítimos de monitoramento remoto, usados por executivos corporativos, e abusa de períodos gratuitos...
Security Report | Destaques

Ataques de ransomware aumentam 15% na América Latina

Relatório da CrowdStrike aponta que região deixou de ser alvo secundário e agora é terreno estratégico para cibercriminosos e espionagem...
Security Report | Destaques

SL Rio de Janeiro: CISOs discutirão Segurança de Ecossistemas, Liderança e IA Agêntica

A cidade maravilhosa será a próxima parada da trajetória do Security Leaders 2025 para discutir, entre outros temas, os impactos...