Controle reduzido das novas IA Generativas expõem dispositivos ao cibercrime

Os pesquisadores da Check Point Software ressaltam as ameaças móveis relacionadas a malwares de aplicativos desenvolvidos por ferramentas de IA generativa para enganar os usuários finais (sejam consumidores ou usuários corporativos)

Compartilhar:

Em pesquisa de segurança recente sobre o Google Bard e uma análise comparativa em relação ao ChatGPT, os especialistas da Check Point Software Technologies Ltd. descobriram que o Bard não impõe quase nenhuma restrições à criação de e-mails de phishing e que, à mínima manipulação, pode ser utilizado para desenvolver keyloggers maliciosos.

As ferramentas de inteligência artificial (IA) generativas, como ChatGPT e Google Bard, ganharam rápida popularidade em todo o mundo. Essas ferramentas permitem que seus usuários aumentem a eficiência e a produtividade em suas tarefas e responsabilidades diárias.

“No entanto, tais capacidades podem ser mal utilizadas. Logo após terem sido introduzidas, as tais ferramentas foram usadas para criar malwares, muitos dos quais apareceram nas lojas oficiais de aplicativos. A IA generativa foi usada para criar e-mails e mensagens para campanhas de phishing alimentadas por IA e, até mesmo, um vídeo gerado por IA no YouTube que foi considerado malicioso”, alerta Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil.

Agora, o que os especialistas da Check Point Software chamam a atenção são as ameaças relacionadas especificamente ao cenário de ameaças móveis. Os aplicativos que imitam sites e recursos populares de IA (ChatGPT e Google Bard) buscam roubar informações confidenciais e há aqueles apps que usam serviços da Web, se comportando como proxies para sites e recursos populares de IA, aproveitando sua posição como um “Man in The Middle”, também para roubar informações em tempo real.

Por esses motivos, algumas organizações decidiram proibir o uso de ferramentas de IA em dispositivos ou redes corporativas. Os especialistas verificaram que outras empresas, aquelas que permitem o acesso de funcionários a ferramentas de IA generativas, acabaram sendo vítimas de vazamento de dados confidenciais.

Portanto, até que medidas adequadas estejam disponíveis para proteger dados confidenciais contra vazamentos e roubo de informações internas, as organizações devem ter cuidado extra em suas políticas de segurança. E os dispositivos móveis não são exceção.

“Na verdade, é mais provável que os usuários móveis baixem um aplicativo malicioso ou sejam vítimas de tentativas de phishing. Telas menores de dispositivos móveis, grandes quantidades de aplicativos e notificações podem distrair os usuários, tornando mais difícil para eles evitarem clicar em links maliciosos ou baixar arquivos maliciosos. Para muitos de nós, as redes sociais são os aplicativos mais usados em nosso dispositivo móvel, o que significa que os usuários móveis estão mais expostos a engenharia social e phishing”, explica Falchi.

Além disso, as linhas tênues entre o uso pessoal e profissional de dispositivos móveis os tornam um ponto de entrada principal em uma organização, portanto, a proteção contra ameaças de IA deve ser uma prioridade.

Seguem as principais orientações para proteção dos dispositivos móveis contra ameaças de IA:

– É importante perceber que os ataques em geral e contra dispositivos móveis continuam aumentando em quantidade e sofisticação, e agora são muito avançados e complicados para serem detectados por um ser humano.

Um exemplo clássico são os sites de phishing que evoluíram tanto que se parecem com o site original. Para lidar com esse nível de sofisticação, é preciso adotar tecnologia avançada para proteger o dispositivo e evitar que ameaças entrem na organização.

– Os dispositivos móveis são um ponto de entrada para a organização. Com a IA evoluindo tão rapidamente, a detecção e a correção não são suficientes. É necessária uma solução de segurança móvel deve incluir recursos preventivos para interromper a ameaça no nível do dispositivo antes de obter qualquer acesso aos seus ativos corporativos.

– Os recursos de aprendizado de IA generativa são extremamente impressionantes. Para acompanhar tudo isso, é necessário usar IA para combater a IA. A organização deve se certificar de que sua solução de segurança use IA e tecnologia de aprendizado de máquina para manter a vantagem competitiva e segurança robusta.


Conteúdos Relacionados

Security Report | Overview

Ministério Público Federal entra com ação judicial contra WhatsApp e ANPD

Maior ação judicial da história do Brasil em proteção de dados pessoais tem como base as alterações aplicadas em 2021...
Security Report | Overview

Cibercriminosos burlam verificação 2FA automaticamente, revela estudo

Mais de 4 mil páginas de phishing feitas por bots automatizados para violar contas foram descobertas pela Kaspersky Labs
Security Report | Overview

62% dos CISOs consideram seu trabalho estressante por pelo menos metade do tempo

Entre os maiores desafios apontados pelos líderes de segurança estão a comunicação com os superiores, formação de equipes diversas e...
Security Report | Overview

Domínios maliciosos associados à Amazon são encontrandos durante Prime Day

Os pesquisadores da Check Point Research (CPR) apontam o surgimento de mais de 1.230 novos domínios associados à Amazon em...