“Como toda tecnologia, deepfake pode ser perigoso”, diz ex-CIO da Casa Branca

Theresa Payton, primeira mulher a assumir o cargo e especialista na defesa contra hackers, apontou como a tecnologia tem sido usada para aprimorar o cibercrime global

Compartilhar:

As pessoas estão cada vez mais conectadas – e o volume de dados gerados durante os acessos disparou (assim como o risco de fraudes). É o que mostra o levantamento “Data Never Sleeps”, feito pela Domo Analytics. Apenas no ChatGPT, são mais de 6 mil comandos realizados por minuto.

 

Esse volume de dados é um prato cheio para fraudadores, segundo Theresa Payton, a primeira mulher a se tornar CIO da Casa Branca e uma das especialistas mais respeitadas na defesa contra hackers no mundo. “A internet nunca dorme e, aparentemente, nós também não,” disse Theresa.

 

Para ela, é preciso entender quem são os responsáveis pelo compartilhamento desses dados, quais os riscos e quem são esses agentes mal-intencionados. “Hoje, em muitos casos, arquivos apagados podem ser recuperados, mesmo sem qualquer backup na ‘nuvem’, graças às ferramentas de recuperação usadas no próprio armazenamento do computador, sendo possível investigar as ações de cibercriminosos,” disse.

 

Theresa esteve presente em um evento promovido pela empresa de tecnologia Unico. Em sua apresentação, a especialista também falou sobre como a IA, a clonagem de voz, deepfakes e até o ChatGPT estão transformando os cibercrimes.

 

Durante a palestra, a especialista demonstrou como a técnica de deepfake pode criar conteúdos falsos, mas extremamente realistas. “Não vejo problemas no uso de deepfake para treinamentos, educação e entretenimento, mas como toda tecnologia, o seu mau uso é muito perigoso,” disse ela. “Trabalhei em alguns casos onde essa técnica ajudou criminosos a desviarem milhões de dólares e, por isso, é preciso estar um passo à frente dos fraudadores.”

 

Realidade e Prevenção

Além de seu papel na segurança da informação dos Estados Unidos, Theresa aproveitou para ressaltar a importância de autenticar a identidade real das pessoas. Segundo ela, a inteligência artificial já está afetando a atuação de diversas tecnologias no mercado. É o caso da biometria facial.

 

No cenário atual, criminosos se apropriam da face das pessoas, por exemplo, com informações deixadas na internet e estão recorrendo a programas e até mesmo impressoras 3D para ter sucesso nas fraudes. Por isso, é preciso contar com soluções robustas para impedir a ação desses fraudadores.

 

Segundo ela, existe um grande potencial de análise de comportamento com algoritmos que vai contribuir para a segurança das empresas num futuro próximo. Theresa diz que será possível analisar, por exemplo, geolocalização, identificação do dispositivo, entre outras informações.

 

“Mas enquanto isso, acho importante reforçar que precisamos ter, de forma imediata, uma abordagem em camadas para autenticação de identidade,” disse. “Só assim teremos uma barreira eficiente contra criminosos e a verdadeira compreensão se aquela pessoa é quem ela diz ser.”

 

Conteúdos Relacionados

Security Report | Overview

Relatório: Ciberataques globais seguem em níveis elevados e Brasil está entre os mais expostos

Os pesquisadores relatam que ataques cibernéticos globais atingiram o volume de quase 2.000 por semana por organização em agosto; no...
Security Report | Overview

Incidentes cibernéticos podem derrubar preço das ações em até 1,5%, revela estudo

Levantamento revela correlação direta entre ataques digitais e perdas financeiras prolongadas nas maiores empresas dos EUA
Security Report | Overview

Cenário global de cibersegurança expõe vulnerabilidades na América Latina

Relatório mostra que IA impulsiona ataques mais sofisticados e América Latina registra nível crítico de ciberameaças em 2025
Security Report | Overview

Nova cepa de malware é estudada após ataque em APIs expostas

Estudo descobr euma nova cepa de malware que tem como alvo APIs Docker expostas, com capacidades de infecção expandidas. Ele...