“Como toda tecnologia, deepfake pode ser perigoso”, diz ex-CIO da Casa Branca

Theresa Payton, primeira mulher a assumir o cargo e especialista na defesa contra hackers, apontou como a tecnologia tem sido usada para aprimorar o cibercrime global

Compartilhar:

As pessoas estão cada vez mais conectadas – e o volume de dados gerados durante os acessos disparou (assim como o risco de fraudes). É o que mostra o levantamento “Data Never Sleeps”, feito pela Domo Analytics. Apenas no ChatGPT, são mais de 6 mil comandos realizados por minuto.

 

Esse volume de dados é um prato cheio para fraudadores, segundo Theresa Payton, a primeira mulher a se tornar CIO da Casa Branca e uma das especialistas mais respeitadas na defesa contra hackers no mundo. “A internet nunca dorme e, aparentemente, nós também não,” disse Theresa.

 

Para ela, é preciso entender quem são os responsáveis pelo compartilhamento desses dados, quais os riscos e quem são esses agentes mal-intencionados. “Hoje, em muitos casos, arquivos apagados podem ser recuperados, mesmo sem qualquer backup na ‘nuvem’, graças às ferramentas de recuperação usadas no próprio armazenamento do computador, sendo possível investigar as ações de cibercriminosos,” disse.

 

Theresa esteve presente em um evento promovido pela empresa de tecnologia Unico. Em sua apresentação, a especialista também falou sobre como a IA, a clonagem de voz, deepfakes e até o ChatGPT estão transformando os cibercrimes.

 

Durante a palestra, a especialista demonstrou como a técnica de deepfake pode criar conteúdos falsos, mas extremamente realistas. “Não vejo problemas no uso de deepfake para treinamentos, educação e entretenimento, mas como toda tecnologia, o seu mau uso é muito perigoso,” disse ela. “Trabalhei em alguns casos onde essa técnica ajudou criminosos a desviarem milhões de dólares e, por isso, é preciso estar um passo à frente dos fraudadores.”

 

Realidade e Prevenção

Além de seu papel na segurança da informação dos Estados Unidos, Theresa aproveitou para ressaltar a importância de autenticar a identidade real das pessoas. Segundo ela, a inteligência artificial já está afetando a atuação de diversas tecnologias no mercado. É o caso da biometria facial.

 

No cenário atual, criminosos se apropriam da face das pessoas, por exemplo, com informações deixadas na internet e estão recorrendo a programas e até mesmo impressoras 3D para ter sucesso nas fraudes. Por isso, é preciso contar com soluções robustas para impedir a ação desses fraudadores.

 

Segundo ela, existe um grande potencial de análise de comportamento com algoritmos que vai contribuir para a segurança das empresas num futuro próximo. Theresa diz que será possível analisar, por exemplo, geolocalização, identificação do dispositivo, entre outras informações.

 

“Mas enquanto isso, acho importante reforçar que precisamos ter, de forma imediata, uma abordagem em camadas para autenticação de identidade,” disse. “Só assim teremos uma barreira eficiente contra criminosos e a verdadeira compreensão se aquela pessoa é quem ela diz ser.”

 

Conteúdos Relacionados

Security Report | Overview

NFL forma parceria para segurança de redes em jogos internacionais

Com a expansão da parceria com a Cisco, as crescentes operações internacionais da NFL vão aproveitar soluções em todo o...
Security Report | Overview

Cibersegurança nas eleições: O Brasil está pronto para uma onda de ataques DDoS?

Relatório da Akamai Technologies mostra como ataques DDoS crescem ao redor do mundo e colocam em risco instituições democráticas
Security Report | Overview

Quase duas mil instituições de ensino sofrem ataques cibernéticos por ano no Brasil

Relatório da Verizon aponta que o setor de Educação é muito visado por criminosos cibernéticos e especialista aponta o que...
Security Report | Overview

Laboratório detecta novas vulnerabilidades em sistemas WordPress, Cisco e Google

O relatório da consultoria Redbelt também revelou uma falha no ChatGPT para macOS, que pode ter permitido espionagem persistente. A...