“Como toda tecnologia, deepfake pode ser perigoso”, diz ex-CIO da Casa Branca

Theresa Payton, primeira mulher a assumir o cargo e especialista na defesa contra hackers, apontou como a tecnologia tem sido usada para aprimorar o cibercrime global

Compartilhar:

As pessoas estão cada vez mais conectadas – e o volume de dados gerados durante os acessos disparou (assim como o risco de fraudes). É o que mostra o levantamento “Data Never Sleeps”, feito pela Domo Analytics. Apenas no ChatGPT, são mais de 6 mil comandos realizados por minuto.

 

Esse volume de dados é um prato cheio para fraudadores, segundo Theresa Payton, a primeira mulher a se tornar CIO da Casa Branca e uma das especialistas mais respeitadas na defesa contra hackers no mundo. “A internet nunca dorme e, aparentemente, nós também não,” disse Theresa.

 

Para ela, é preciso entender quem são os responsáveis pelo compartilhamento desses dados, quais os riscos e quem são esses agentes mal-intencionados. “Hoje, em muitos casos, arquivos apagados podem ser recuperados, mesmo sem qualquer backup na ‘nuvem’, graças às ferramentas de recuperação usadas no próprio armazenamento do computador, sendo possível investigar as ações de cibercriminosos,” disse.

 

Theresa esteve presente em um evento promovido pela empresa de tecnologia Unico. Em sua apresentação, a especialista também falou sobre como a IA, a clonagem de voz, deepfakes e até o ChatGPT estão transformando os cibercrimes.

 

Durante a palestra, a especialista demonstrou como a técnica de deepfake pode criar conteúdos falsos, mas extremamente realistas. “Não vejo problemas no uso de deepfake para treinamentos, educação e entretenimento, mas como toda tecnologia, o seu mau uso é muito perigoso,” disse ela. “Trabalhei em alguns casos onde essa técnica ajudou criminosos a desviarem milhões de dólares e, por isso, é preciso estar um passo à frente dos fraudadores.”

 

Realidade e Prevenção

Além de seu papel na segurança da informação dos Estados Unidos, Theresa aproveitou para ressaltar a importância de autenticar a identidade real das pessoas. Segundo ela, a inteligência artificial já está afetando a atuação de diversas tecnologias no mercado. É o caso da biometria facial.

 

No cenário atual, criminosos se apropriam da face das pessoas, por exemplo, com informações deixadas na internet e estão recorrendo a programas e até mesmo impressoras 3D para ter sucesso nas fraudes. Por isso, é preciso contar com soluções robustas para impedir a ação desses fraudadores.

 

Segundo ela, existe um grande potencial de análise de comportamento com algoritmos que vai contribuir para a segurança das empresas num futuro próximo. Theresa diz que será possível analisar, por exemplo, geolocalização, identificação do dispositivo, entre outras informações.

 

“Mas enquanto isso, acho importante reforçar que precisamos ter, de forma imediata, uma abordagem em camadas para autenticação de identidade,” disse. “Só assim teremos uma barreira eficiente contra criminosos e a verdadeira compreensão se aquela pessoa é quem ela diz ser.”

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Nuvem soberana consolida-se como motor de autonomia nas empresas

Diante de tensões geopolíticas e do avanço da IA, organizações investem em arquiteturas abertas e nuvem híbrida para ampliar o...
Security Report | Overview

Falsificação de domínios falhos afetam 36% dos parceiros comerciais da Copa de 26

Estudo da Proofpoint revela que 36% dos patrocinadores e fornecedores oficiais do evento não bloqueiam proativamente mensagens falsas que imitam...
Security Report | Overview

Gartner indica seis etapas estratégicas para gerenciar a proliferação de IA agêntica

Previsão indica que empresas da Fortune 500 terão mais de 150 mil agentes em uso até 2028, mas apenas 13%...
Security Report | Overview

Avanço da IA impulsiona investimentos em SI em 48% das empresas brasileiras

Estudo encomendado pela Dell Technologies revela que, apesar do foco em automação e proteção de dados, lideranças ainda superestimam a...