Como usar ChatGPT, Gemini e outras IAs com segurança

As ferramentas de IA podem ser encontradas em todos os lugares, de sistemas operacionais e aplicativos de escritório a editores de imagens e chats. Veja como usar essas ferramentas sem comprometer a segurança digital

Compartilhar:

O notável crescimento no ano passado de aplicativos, serviços e plug-ins de IA parece estar à beira de uma aceleração ainda maior. De aplicativos de escritório a editores de imagem e ambientes de desenvolvimento integrados (IDEs), como o Visual Studio, a IA está sendo incorporada a ferramentas amplamente reconhecidas e usadas há muito tempo. Muitos desenvolvedores estão criando milhares de novos aplicativos que utilizam modelos de IA ainda mais avançados.

 

No entanto, ninguém ainda foi capaz de resolver os problemas de segurança fundamentais, minimizar os vazamentos de dados confidenciais e também o nível de invasão de contas/dispositivos de várias ferramentas de IA, muito menos criar proteções adequadas contra um ataque futurista de uma “IA do mal”. Até que seja proposta uma solução definitiva para proteger usuários de assistentes de IA, você precisa desenvolver habilidades e buscar auxílio por conta própria.

 

Então, como usar a IA sem se arrepender depois?

 

Filtre dados importantes

 

A política de privacidade da OpenAI, desenvolvedora do ChatGPT, afirma de forma clara que todas as caixas de diálogo com o chatbot são salvas e podem ser usadas para várias finalidades. Inicialmente, isso soluciona problemas técnicas e evita potenciais violações dos termos de serviço, em especial para evitar a produção de conteúdo inadequado. Quem diria, não é mesmo? Nesse caso, os chats podem até ser revisados por um humano. Em segundo lugar, os dados podem ser usados para treinar novas versões do GPT e fazer outras “melhorias” no produto.

 

A maioria dos outros modelos de linguagem populares como o Gemini da Google, o Claude da Anthropic ou o Bing e Copilot da Microsoft, têm políticas semelhantes: todos eles podem salvar caixas de diálogo inteiras.

 

Dito isto, vazamentos acidentais de chats já ocorreram devido a bugs de software, com os usuários vendo as conversas de outras pessoas em vez das suas. O uso desses dados para treinamento também pode levar a um vazamento de dados de um modelo pré-treinado: o assistente de IA pode fornecer suas informações a alguém se acreditar que elas são relevantes para a resposta. Os especialistas em segurança da informação até projetaram vários ataques (umdoistrês) com o objetivo de roubar caixas de diálogo, e é improvável que parem por aí.

 

Portanto, lembre-se: qualquer coisa que você escrever para um chatbot pode ser usada contra você. Recomendamos tomar precauções ao falar com a IA.

 

Não envie nenhum dado pessoal para um chatbot. Nenhuma senha, número de passaporte ou cartão bancário, endereços, números de telefone, nomes ou outros dados pessoais que pertençam a você, sua empresa ou seus clientes devem terminar em chats com uma IA. Você pode substituí-los por asteriscos ou “EDITADO” em sua solicitação.

 

Não carregue nenhum documento. Vários plug-ins e complementos permitem que você use chatbots para o processamento de documentos. Pode haver uma forte tentação de carregar um documento de trabalho para, digamos, obter um resumo executivo. No entanto, ao carregar descuidadamente um documento de várias páginas, você corre o risco de vazar dados confidenciais, propriedade intelectual ou um segredo comercial, como a data de lançamento de um novo produto ou a folha de pagamento de toda a equipe. Ou, pior do que isso, ao processar documentos recebidos de fontes externas, você pode ser alvo de um ataque que conta com a verificação do documento por um modelo de idioma.

 

Use as configurações de privacidade. Examine cuidadosamente a política de privacidade e as configurações disponíveis do seu fornecedor de modelos de linguagem grande (LLM). Normalmente, você pode usar essas configurações para reduzir o rastreamento. Por exemplo, os produtos OpenAI permitem desativar o salvamento do histórico do chat. Nesse caso, os dados serão removidos após 30 dias e nunca serão usados para treinamento. Aqueles que usam API, aplicativos de terceiros ou serviços para acessar soluções OpenAI têm essa configuração ativada por padrão.

 

Enviando códigos? Limpe todos os dados confidenciais. Para engenheiros de software que usam assistentes de IA para revisar e aprimorar seu código, é crucial omitir quaisquer chaves de API, endereços de servidor ou outros detalhes que possam revelar a estrutura do aplicativo ou a configuração do servidor.

 

Limite o uso de aplicativos e plug-ins de terceiros

 

Siga sempre as dicas acima, seja qual for o assistente de IA popular que você estiver usando. No entanto, mesmo isso pode não ser suficiente para garantir a privacidade. O uso de plug-ins ChatGPT, extensões Gemini ou aplicativos complementares independentes introduz novas categorias de ameaças potenciais.

 

Primeiro, o histórico do chat pode ser armazenado não apenas nos servidores do Google ou OpenAI, mas também em servidores de terceiros que disponibilizam o plug-in ou complemento, além de locais menos convencionais em seu computador ou smartphone.

 

Segundo, a maioria dos plug-ins extrai informações de fontes externas: pesquisas na Web, sua caixa de entrada do Gmail ou notas pessoais de serviços como Notion, Jupyter ou Evernote. Dessa forma, os dados provenientes desses serviços podem ser armazenados nos servidores nos quais o plug-in ou o modelo de linguagem em si está sendo executado. Uma integração como essa pode trazer riscos significativos: por exemplo, considere este ataque que cria novos repositórios GitHub em nome do usuário.

 

Terceiro, a publicação e a verificação de plug-ins para assistentes de IA são atualmente um processo muito menos ordenado do que, digamos, a triagem de aplicativos na App Store ou no Google Play. Portanto, suas chances de encontrar um plug-in mal-intencionado, mal escrito, com erros ou até mesmo malicioso são bastante altas, já que parece que ninguém realmente verifica os criadores ou seus contatos.

 

Como mitigar esses riscos? Nossa dica chave aqui é dar um tempo. O ecossistema de plug-ins é muito jovem, os processos de publicação e suporte não são suaves o suficiente e os próprios criadores nem sempre cuidam para projetar plug-ins adequadamente ou cumprir os requisitos de segurança da informação. Todo esse ecossistema precisa de mais tempo para amadurecer e se tornar mais seguro e confiável.

 

Além disso, o valor que muitos plug-ins e complementos adicionam à versão padrão do ChatGPT é mínimo: pequenos ajustes na interface do usuário e modelos de “prompt do sistema” que personalizam o assistente para uma tarefa específica (“Agir como um professor de física do ensino médio…”). Certamente não vale a pena confiar seus dados a esses wrappers, pois é possível realizar a tarefa muito bem sem eles.

 

Se, eventualmente, você precisar de determinados recursos de algum plug-in, tente tomar o máximo de precauções disponíveis antes de usá-los.

 

  • Escolha extensões e complementos existentes há pelo menos alguns meses e que estão sendo atualizados regularmente.
  • Considere apenas plug-ins que tenham muitos downloads e leia atentamente os comentários para detectar quaisquer problemas.
  • Se o plug-in vier com uma política de privacidade, leia-a atentamente antes de começar a usar a extensão.
  • Opte por ferramentas de código aberto.
  • Se você tiver habilidades de programação, ainda que rudimentares, ou conheça alguém que tenha, examine o código para garantir que ele envie dados apenas para servidores mencionados e, idealmente, apenas para servidores de modelos de IA.

 

Os plug-ins de execução exigem monitoramento especial

 

Até agora, discutimos os riscos relacionados a vazamentos de dados: mas esse não é o único problema potencial ao usar a IA. Muitos plug-ins são capazes de executar ações específicas conforme o comando do usuário, como solicitar passagens aéreas. Essas ferramentas fornecem aos agentes maliciosos um novo vetor de ataque: a vítima recebe um documento, página da Web, vídeo ou até mesmo uma imagem que contém instruções ocultas para o modelo de idioma, além do conteúdo principal. Se a vítima alimentar o documento ou o link para um chatbot, este último executará as instruções maliciosas, por exemplo, comprando ingressos com o dinheiro da vítima. Esse tipo de ataque é conhecido como injeção imediata e, embora os desenvolvedores de vários LLMs estejam tentando desenvolver uma proteção contra essa ameaça, ninguém ainda conseguiu e talvez nunca consiga.

 

Felizmente, as ações mais significativas, especialmente aquelas que envolvem transações de pagamento, como a compra de ingressos, exigem uma confirmação dupla. No entanto, as interações entre os modelos de linguagem e os plug-ins criam uma superfície de ataque tão grande que é difícil garantir resultados consistentes dessas medidas. Portanto, é necessário ser minucioso ao selecionar ferramentas de IA e também garantir que elas recebam apenas dados confiáveis para processamento.

Conteúdos Relacionados

Security Report | Overview

ANPD volta a defender protagonismo na regulamentação da IA

Em evento organizado pela PUC-Rio, a diretora Miriam Wimmer lembrou que a Lei Geral de Proteção de Dados atribui à...
Security Report | Overview

MPF do Brasil participa de curso internacional sobre combate à Cibercriminalidade

Treinamento teve como objetivo proporcionar novas competências práticas na investigação de crimes cometidos pela internet...
Security Report | Overview

Dark Web: ambiente profundo é o Pré-Sal do Cibercrime de dados?

Da mesma forma que a reserva petrolífera na costa brasileira se tornou essencial à economia de combustíveis fósseis do país,...
Security Report | Overview

42% dos consumidores tiveram contato com ciberataques em mobile

A pesquisa da Appdome ressalta que tanto os próprios usuários quanto pessoas próximas a eles entraram no radar do Cibercrime....