Controle reduzido das novas IA Generativas expõem dispositivos ao cibercrime

Os pesquisadores da Check Point Software ressaltam as ameaças móveis relacionadas a malwares de aplicativos desenvolvidos por ferramentas de IA generativa para enganar os usuários finais (sejam consumidores ou usuários corporativos)

Compartilhar:

Em pesquisa de segurança recente sobre o Google Bard e uma análise comparativa em relação ao ChatGPT, os especialistas da Check Point Software Technologies Ltd. descobriram que o Bard não impõe quase nenhuma restrições à criação de e-mails de phishing e que, à mínima manipulação, pode ser utilizado para desenvolver keyloggers maliciosos.

As ferramentas de inteligência artificial (IA) generativas, como ChatGPT e Google Bard, ganharam rápida popularidade em todo o mundo. Essas ferramentas permitem que seus usuários aumentem a eficiência e a produtividade em suas tarefas e responsabilidades diárias.

“No entanto, tais capacidades podem ser mal utilizadas. Logo após terem sido introduzidas, as tais ferramentas foram usadas para criar malwares, muitos dos quais apareceram nas lojas oficiais de aplicativos. A IA generativa foi usada para criar e-mails e mensagens para campanhas de phishing alimentadas por IA e, até mesmo, um vídeo gerado por IA no YouTube que foi considerado malicioso”, alerta Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil.

Agora, o que os especialistas da Check Point Software chamam a atenção são as ameaças relacionadas especificamente ao cenário de ameaças móveis. Os aplicativos que imitam sites e recursos populares de IA (ChatGPT e Google Bard) buscam roubar informações confidenciais e há aqueles apps que usam serviços da Web, se comportando como proxies para sites e recursos populares de IA, aproveitando sua posição como um “Man in The Middle”, também para roubar informações em tempo real.

Por esses motivos, algumas organizações decidiram proibir o uso de ferramentas de IA em dispositivos ou redes corporativas. Os especialistas verificaram que outras empresas, aquelas que permitem o acesso de funcionários a ferramentas de IA generativas, acabaram sendo vítimas de vazamento de dados confidenciais.

Portanto, até que medidas adequadas estejam disponíveis para proteger dados confidenciais contra vazamentos e roubo de informações internas, as organizações devem ter cuidado extra em suas políticas de segurança. E os dispositivos móveis não são exceção.

“Na verdade, é mais provável que os usuários móveis baixem um aplicativo malicioso ou sejam vítimas de tentativas de phishing. Telas menores de dispositivos móveis, grandes quantidades de aplicativos e notificações podem distrair os usuários, tornando mais difícil para eles evitarem clicar em links maliciosos ou baixar arquivos maliciosos. Para muitos de nós, as redes sociais são os aplicativos mais usados em nosso dispositivo móvel, o que significa que os usuários móveis estão mais expostos a engenharia social e phishing”, explica Falchi.

Além disso, as linhas tênues entre o uso pessoal e profissional de dispositivos móveis os tornam um ponto de entrada principal em uma organização, portanto, a proteção contra ameaças de IA deve ser uma prioridade.

Seguem as principais orientações para proteção dos dispositivos móveis contra ameaças de IA:

– É importante perceber que os ataques em geral e contra dispositivos móveis continuam aumentando em quantidade e sofisticação, e agora são muito avançados e complicados para serem detectados por um ser humano.

Um exemplo clássico são os sites de phishing que evoluíram tanto que se parecem com o site original. Para lidar com esse nível de sofisticação, é preciso adotar tecnologia avançada para proteger o dispositivo e evitar que ameaças entrem na organização.

– Os dispositivos móveis são um ponto de entrada para a organização. Com a IA evoluindo tão rapidamente, a detecção e a correção não são suficientes. É necessária uma solução de segurança móvel deve incluir recursos preventivos para interromper a ameaça no nível do dispositivo antes de obter qualquer acesso aos seus ativos corporativos.

– Os recursos de aprendizado de IA generativa são extremamente impressionantes. Para acompanhar tudo isso, é necessário usar IA para combater a IA. A organização deve se certificar de que sua solução de segurança use IA e tecnologia de aprendizado de máquina para manter a vantagem competitiva e segurança robusta.


Conteúdos Relacionados

Security Report | Overview

Google, Facebook e Amazon são as marcas mais usadas em roubos de credenciais, diz relatório

Kaspersky aponta aumento de ataques de phishing a grandes marcas e a causa pode estar na sofisticação e agressividade de...
Security Report | Overview

Febraban alerta para golpes mais aplicados nas compras de Natal

Cliente deve redobrar cuidados ao fazer compras no e-commerce e com seu cartão nas lojas de rua de grandes centros...
Security Report | Overview

Bloqueio de fraudes na Black Friday crescem 270% em 2024

Novo dado foi divulgado pela Visa recentemente. Já na Cyber Monday, a empresa afirma ter bloqueado 85% a mais de...
Security Report | Overview

Como o cenário de malwares evoluiu na América Latina em 2024?

A evolução dos malwares focados na América Latina em 2024 destaca a adaptabilidade e a engenhosidade de seus desenvolvedores, que...