“Como toda tecnologia, deepfake pode ser perigoso”, diz ex-CIO da Casa Branca

Theresa Payton, primeira mulher a assumir o cargo e especialista na defesa contra hackers, apontou como a tecnologia tem sido usada para aprimorar o cibercrime global

Compartilhar:

As pessoas estão cada vez mais conectadas – e o volume de dados gerados durante os acessos disparou (assim como o risco de fraudes). É o que mostra o levantamento “Data Never Sleeps”, feito pela Domo Analytics. Apenas no ChatGPT, são mais de 6 mil comandos realizados por minuto.

 

Esse volume de dados é um prato cheio para fraudadores, segundo Theresa Payton, a primeira mulher a se tornar CIO da Casa Branca e uma das especialistas mais respeitadas na defesa contra hackers no mundo. “A internet nunca dorme e, aparentemente, nós também não,” disse Theresa.

 

Para ela, é preciso entender quem são os responsáveis pelo compartilhamento desses dados, quais os riscos e quem são esses agentes mal-intencionados. “Hoje, em muitos casos, arquivos apagados podem ser recuperados, mesmo sem qualquer backup na ‘nuvem’, graças às ferramentas de recuperação usadas no próprio armazenamento do computador, sendo possível investigar as ações de cibercriminosos,” disse.

 

Theresa esteve presente em um evento promovido pela empresa de tecnologia Unico. Em sua apresentação, a especialista também falou sobre como a IA, a clonagem de voz, deepfakes e até o ChatGPT estão transformando os cibercrimes.

 

Durante a palestra, a especialista demonstrou como a técnica de deepfake pode criar conteúdos falsos, mas extremamente realistas. “Não vejo problemas no uso de deepfake para treinamentos, educação e entretenimento, mas como toda tecnologia, o seu mau uso é muito perigoso,” disse ela. “Trabalhei em alguns casos onde essa técnica ajudou criminosos a desviarem milhões de dólares e, por isso, é preciso estar um passo à frente dos fraudadores.”

 

Realidade e Prevenção

Além de seu papel na segurança da informação dos Estados Unidos, Theresa aproveitou para ressaltar a importância de autenticar a identidade real das pessoas. Segundo ela, a inteligência artificial já está afetando a atuação de diversas tecnologias no mercado. É o caso da biometria facial.

 

No cenário atual, criminosos se apropriam da face das pessoas, por exemplo, com informações deixadas na internet e estão recorrendo a programas e até mesmo impressoras 3D para ter sucesso nas fraudes. Por isso, é preciso contar com soluções robustas para impedir a ação desses fraudadores.

 

Segundo ela, existe um grande potencial de análise de comportamento com algoritmos que vai contribuir para a segurança das empresas num futuro próximo. Theresa diz que será possível analisar, por exemplo, geolocalização, identificação do dispositivo, entre outras informações.

 

“Mas enquanto isso, acho importante reforçar que precisamos ter, de forma imediata, uma abordagem em camadas para autenticação de identidade,” disse. “Só assim teremos uma barreira eficiente contra criminosos e a verdadeira compreensão se aquela pessoa é quem ela diz ser.”

 

Conteúdos Relacionados

Security Report | Overview

Golpes em plataformas de hospedagem miram roubo de dados bancários

A ESET identificou o Telekopye, um kit de ferramentas que opera como um bot do Telegram entre golpistas, visando plataformas...
Security Report | Overview

Ramsomware à prova de Quantum Computing deve chegar em 2025, alerta estudo

Fraudes financeiras em smartphones e ransomware avançado devem ser os maiores desafios para as empresas no próximo ano
Security Report | Overview

Pesquisa alerta para malwares fraudadores em devices Android e iOS brasileiros

ISH Tecnologia revela que softwares maliciosos são capazes de monitorar atividades online e coletar dados sensíveis...
Security Report | Overview

Black Friday: Mais de 100 páginas falsas são criadas por dia para aplicar golpes

Especialistas indicam que a taxa de geração de sites maliciosos pode triplicar até a chegada do dia de promoções, marcado...