Como o ChatGPT pode comprometer a privacidade e a segurança online? 

Compartilhar:

A tecnologia foi treinada sem intervenção humana usando um grande volume de dados e uma ampla variedade de tópicos. No entanto, apesar dos inegáveis benefícios, a utilização do ChatGPT pode trazer alguns riscos

*Por Ueric Melo

O uso de inteligência artificial vem trazendo benefícios e facilidades para a vida cotidiana das pessoas e para operações empresariais. Entre essas tecnologias está o ChatGPT, que tem sido utilizado para as mais variadas finalidades em diversos setores.  

O ChatGPT é uma ferramenta baseada no modelo de linguagem natural GPT-3 da OpenAI que pode gerar respostas coerentes em linguagem natural. Ele foi treinado sem intervenção humana usando um grande volume de dados e uma ampla variedade de tópicos. No entanto, apesar dos inegáveis benefícios, a utilização do ChatGPT pode trazer alguns riscos. 

Privacidade – O método e a quantidade de dados utilizados no treinamento podem gerar riscos à privacidade e confidencialidade, pois, dados confidenciais podem ter sido usados durante esse processo. 

O risco fica ainda mais evidente se considerarmos que o conteúdo das interações com a ferramenta pode ser usado para atualizar (treinar) o ChatGPT. Por exemplo, se um executivo inserir informações confidenciais sobre uma tecnologia em desenvolvimento em uma conversa do ChatGPT, essas informações podem ser utilizadas para compor uma resposta da ferramenta, dada à outra pessoa, para a qual esse conteúdo seja coerente. 

Além disso, uma pesquisa da Cyberhaven mostra que 4,9% dos funcionários usaram informações da empresa no chat e 2,3% usaram informações corporativas confidenciais. 

CyberSecurity – O ChatGPT pode fornecer instruções detalhadas sobre diversas áreas e atividades. Isso pode ajudar estudantes, profissionais iniciantes, ou mesmo experientes que pretendem automatizar ou agilizar atividades cotidianas ou repetitivas. 

Mas isso também permite que uma pessoa mal-intencionada peça para o ChatGPT escrever um script que explore uma vulnerabilidade conhecida, ou que solicite uma lista com possíveis métodos de exploração dessa vulnerabilidade, ou até mesmo que requisite uma lista das vulnerabilidades conhecidas de uma determinada aplicação ou tecnologia. 

Os cibercriminosos com objetivos financeiros mais imediatos podem ignorar as “habilidades técnicas” do ChatGPT e focar em sua “capacidade criativa” para elaboração de conteúdos persuasivos, que convençam pessoas a realizar uma ação (phishing). Essa ação pode ser clicar em um link para um site malicioso, abrir um anexo com malware, ou qualquer outra ação que resulte no sucesso do golpe. Atualmente, é difícil convencer alguém que um príncipe nigeriano[1][1] está buscando aleatoriamente uma pessoa para doar sua fortuna por e-mail. Por isso, o ChatGPT pode criar histórias convincentes e aparentemente autênticas, para que criminosos digitais possam induzir pessoas ao erro e conseguir novas vítimas. 

Fake News – A capacidade do ChatGPT de criar histórias convincentes, possibilita também a criação de “Fake News” bem elaboradas. Este é um risco bastante elevado, uma vez que os impactos de uma notícia falsa podem ser descomunais. As “Fake News” podem prejudicar a reputação de uma empresa ou marca, podem influenciar situações políticas e até causar dano físico ou a morte de pessoas. 

Resultados tendenciosos ou errados 

A simplicidade de uso e versatilidade das respostas fizeram o ChatGPT cair nas graças do grande público (100 milhões de usuários só em janeiro de 2023). O risco em relação a essa explosão na utilização do ChatGPT é que, em função da naturalidade e assertividade das respostas fornecidas, muitos lhes atribuem credibilidade irrestrita, mas como o modelo foi treinado com uma abundância de dados escritos por humanos, ele pode apresentar respostas imprecisas ou incorretas. 

Devido a um dos objetivos da ferramenta, de entregar respostas em uma linguagem natural (mais próxima possível de uma resposta dada por um ser humano), o ChatGPT pode, inclusive, “inventar” informações, referências e fatos históricos e apresentá-los como factuais. É o que se chama de “Alucinação de IA”. Além disso, pelos mesmos motivos citados anteriormente, o ChatGPT também pode apresentar respostas tendenciosas, ofensivas e até mesmo agressivas, como já aconteceu com outras ferramentas baseadas em IA que se “tornaram” racistas e xenofóbicas.

Em resumo, o uso do ChatGPT traz muitos benefícios, mas também apresenta riscos à confidencialidade das informações e à segurança cibernética. É importante estar ciente desses riscos ao utilizar essa ferramenta.

*Ueric Melo é gestor de Privacidade e especialista em Segurança Cibernética da Genetec para América Latina e Caribe 

Conteúdos Relacionados

Security Report | Overview

Vulnerabilidade permite espionagem a entidades de defesa no Oriente Médio, alerta relatório

Operação atribuída ao grupo Stealth Falcon explorou a CVE-2025-33053 para instalar malware furtivo via WebDAV; Microsoft corrigiu a vulnerabilidade no...
Security Report | Overview

Brasil lidera ranking de vazamento de dados com mais de 7 bilhões de registros, afirma pesquisa

Relatório aponta que 550 milhões de cookies brasileiros ainda estão ativos e podem ser usados por hackers para roubo de...
Security Report | Overview

GenAI será ferramenta crítica no enfrentamento de fraudes bancárias, alertam especialistas

Durante o Febraban Tech, marca da B3 apresentou novo recurso do Neoway Seeker, que usa GenAI para gerar resumos inteligentes...
Security Report | Overview

Organização anuncia novo VP LATAM, Fellipe Canale

Executivo retorna à companhia em que atuou como country manager entre 2020 e 2022