Como o ChatGPT pode comprometer a privacidade e a segurança online? 

Compartilhar:

A tecnologia foi treinada sem intervenção humana usando um grande volume de dados e uma ampla variedade de tópicos. No entanto, apesar dos inegáveis benefícios, a utilização do ChatGPT pode trazer alguns riscos

*Por Ueric Melo

O uso de inteligência artificial vem trazendo benefícios e facilidades para a vida cotidiana das pessoas e para operações empresariais. Entre essas tecnologias está o ChatGPT, que tem sido utilizado para as mais variadas finalidades em diversos setores.  

O ChatGPT é uma ferramenta baseada no modelo de linguagem natural GPT-3 da OpenAI que pode gerar respostas coerentes em linguagem natural. Ele foi treinado sem intervenção humana usando um grande volume de dados e uma ampla variedade de tópicos. No entanto, apesar dos inegáveis benefícios, a utilização do ChatGPT pode trazer alguns riscos. 

Privacidade – O método e a quantidade de dados utilizados no treinamento podem gerar riscos à privacidade e confidencialidade, pois, dados confidenciais podem ter sido usados durante esse processo. 

O risco fica ainda mais evidente se considerarmos que o conteúdo das interações com a ferramenta pode ser usado para atualizar (treinar) o ChatGPT. Por exemplo, se um executivo inserir informações confidenciais sobre uma tecnologia em desenvolvimento em uma conversa do ChatGPT, essas informações podem ser utilizadas para compor uma resposta da ferramenta, dada à outra pessoa, para a qual esse conteúdo seja coerente. 

Além disso, uma pesquisa da Cyberhaven mostra que 4,9% dos funcionários usaram informações da empresa no chat e 2,3% usaram informações corporativas confidenciais. 

CyberSecurity – O ChatGPT pode fornecer instruções detalhadas sobre diversas áreas e atividades. Isso pode ajudar estudantes, profissionais iniciantes, ou mesmo experientes que pretendem automatizar ou agilizar atividades cotidianas ou repetitivas. 

Mas isso também permite que uma pessoa mal-intencionada peça para o ChatGPT escrever um script que explore uma vulnerabilidade conhecida, ou que solicite uma lista com possíveis métodos de exploração dessa vulnerabilidade, ou até mesmo que requisite uma lista das vulnerabilidades conhecidas de uma determinada aplicação ou tecnologia. 

Os cibercriminosos com objetivos financeiros mais imediatos podem ignorar as “habilidades técnicas” do ChatGPT e focar em sua “capacidade criativa” para elaboração de conteúdos persuasivos, que convençam pessoas a realizar uma ação (phishing). Essa ação pode ser clicar em um link para um site malicioso, abrir um anexo com malware, ou qualquer outra ação que resulte no sucesso do golpe. Atualmente, é difícil convencer alguém que um príncipe nigeriano[1][1] está buscando aleatoriamente uma pessoa para doar sua fortuna por e-mail. Por isso, o ChatGPT pode criar histórias convincentes e aparentemente autênticas, para que criminosos digitais possam induzir pessoas ao erro e conseguir novas vítimas. 

Fake News – A capacidade do ChatGPT de criar histórias convincentes, possibilita também a criação de “Fake News” bem elaboradas. Este é um risco bastante elevado, uma vez que os impactos de uma notícia falsa podem ser descomunais. As “Fake News” podem prejudicar a reputação de uma empresa ou marca, podem influenciar situações políticas e até causar dano físico ou a morte de pessoas. 

Resultados tendenciosos ou errados 

A simplicidade de uso e versatilidade das respostas fizeram o ChatGPT cair nas graças do grande público (100 milhões de usuários só em janeiro de 2023). O risco em relação a essa explosão na utilização do ChatGPT é que, em função da naturalidade e assertividade das respostas fornecidas, muitos lhes atribuem credibilidade irrestrita, mas como o modelo foi treinado com uma abundância de dados escritos por humanos, ele pode apresentar respostas imprecisas ou incorretas. 

Devido a um dos objetivos da ferramenta, de entregar respostas em uma linguagem natural (mais próxima possível de uma resposta dada por um ser humano), o ChatGPT pode, inclusive, “inventar” informações, referências e fatos históricos e apresentá-los como factuais. É o que se chama de “Alucinação de IA”. Além disso, pelos mesmos motivos citados anteriormente, o ChatGPT também pode apresentar respostas tendenciosas, ofensivas e até mesmo agressivas, como já aconteceu com outras ferramentas baseadas em IA que se “tornaram” racistas e xenofóbicas.

Em resumo, o uso do ChatGPT traz muitos benefícios, mas também apresenta riscos à confidencialidade das informações e à segurança cibernética. É importante estar ciente desses riscos ao utilizar essa ferramenta.

*Ueric Melo é gestor de Privacidade e especialista em Segurança Cibernética da Genetec para América Latina e Caribe 

Conteúdos Relacionados

Security Report | Overview

NFL forma parceria para segurança de redes em jogos internacionais

Com a expansão da parceria com a Cisco, as crescentes operações internacionais da NFL vão aproveitar soluções em todo o...
Security Report | Overview

Cibersegurança nas eleições: O Brasil está pronto para uma onda de ataques DDoS?

Relatório da Akamai Technologies mostra como ataques DDoS crescem ao redor do mundo e colocam em risco instituições democráticas
Security Report | Overview

Quase duas mil instituições de ensino sofrem ataques cibernéticos por ano no Brasil

Relatório da Verizon aponta que o setor de Educação é muito visado por criminosos cibernéticos e especialista aponta o que...
Security Report | Overview

Laboratório detecta novas vulnerabilidades em sistemas WordPress, Cisco e Google

O relatório da consultoria Redbelt também revelou uma falha no ChatGPT para macOS, que pode ter permitido espionagem persistente. A...