“Como toda tecnologia, deepfake pode ser perigoso”, diz ex-CIO da Casa Branca

Theresa Payton, primeira mulher a assumir o cargo e especialista na defesa contra hackers, apontou como a tecnologia tem sido usada para aprimorar o cibercrime global

Compartilhar:

As pessoas estão cada vez mais conectadas – e o volume de dados gerados durante os acessos disparou (assim como o risco de fraudes). É o que mostra o levantamento “Data Never Sleeps”, feito pela Domo Analytics. Apenas no ChatGPT, são mais de 6 mil comandos realizados por minuto.

 

Esse volume de dados é um prato cheio para fraudadores, segundo Theresa Payton, a primeira mulher a se tornar CIO da Casa Branca e uma das especialistas mais respeitadas na defesa contra hackers no mundo. “A internet nunca dorme e, aparentemente, nós também não,” disse Theresa.

 

Para ela, é preciso entender quem são os responsáveis pelo compartilhamento desses dados, quais os riscos e quem são esses agentes mal-intencionados. “Hoje, em muitos casos, arquivos apagados podem ser recuperados, mesmo sem qualquer backup na ‘nuvem’, graças às ferramentas de recuperação usadas no próprio armazenamento do computador, sendo possível investigar as ações de cibercriminosos,” disse.

 

Theresa esteve presente em um evento promovido pela empresa de tecnologia Unico. Em sua apresentação, a especialista também falou sobre como a IA, a clonagem de voz, deepfakes e até o ChatGPT estão transformando os cibercrimes.

 

Durante a palestra, a especialista demonstrou como a técnica de deepfake pode criar conteúdos falsos, mas extremamente realistas. “Não vejo problemas no uso de deepfake para treinamentos, educação e entretenimento, mas como toda tecnologia, o seu mau uso é muito perigoso,” disse ela. “Trabalhei em alguns casos onde essa técnica ajudou criminosos a desviarem milhões de dólares e, por isso, é preciso estar um passo à frente dos fraudadores.”

 

Realidade e Prevenção

Além de seu papel na segurança da informação dos Estados Unidos, Theresa aproveitou para ressaltar a importância de autenticar a identidade real das pessoas. Segundo ela, a inteligência artificial já está afetando a atuação de diversas tecnologias no mercado. É o caso da biometria facial.

 

No cenário atual, criminosos se apropriam da face das pessoas, por exemplo, com informações deixadas na internet e estão recorrendo a programas e até mesmo impressoras 3D para ter sucesso nas fraudes. Por isso, é preciso contar com soluções robustas para impedir a ação desses fraudadores.

 

Segundo ela, existe um grande potencial de análise de comportamento com algoritmos que vai contribuir para a segurança das empresas num futuro próximo. Theresa diz que será possível analisar, por exemplo, geolocalização, identificação do dispositivo, entre outras informações.

 

“Mas enquanto isso, acho importante reforçar que precisamos ter, de forma imediata, uma abordagem em camadas para autenticação de identidade,” disse. “Só assim teremos uma barreira eficiente contra criminosos e a verdadeira compreensão se aquela pessoa é quem ela diz ser.”

 

Conteúdos Relacionados

Security Report | Overview

Organização melhora em 72% seus indicadores contra ataques de phishing

Em apenas seis meses, projeto vem promovendo uma mudança cultural significativa, engajando colaboradores e fortalecendo a resiliência digital da empresa...
Security Report | Overview

Ataques cibernéticos globais disparam com avanço do ransomware e GenAI, afirma estudo

Relatório indica uma média de 1.938 ciberataques semanais por organização no mundo, com um aumento de 48% nos ataques de...
Security Report | Overview

Uso de IA por funcionários aumenta risco de vazamento de dados corporativos, revela estudo

Pesquisa revela alta no volume de arquivos maliciosos e alerta que o uso indiscriminado de plataformas de IA aberta pode...
Security Report | Overview

Comitê Gestor da Internet apresenta sugestões para futuras leis de Cibersegurança

Em nota oficial, o Comitê Gestor da Internet no Brasil pede cautela na criação de novas leis de segurança cibernética,...