Controle reduzido das novas IA Generativas expõem dispositivos ao cibercrime

Os pesquisadores da Check Point Software ressaltam as ameaças móveis relacionadas a malwares de aplicativos desenvolvidos por ferramentas de IA generativa para enganar os usuários finais (sejam consumidores ou usuários corporativos)

Compartilhar:

Em pesquisa de segurança recente sobre o Google Bard e uma análise comparativa em relação ao ChatGPT, os especialistas da Check Point Software Technologies Ltd. descobriram que o Bard não impõe quase nenhuma restrições à criação de e-mails de phishing e que, à mínima manipulação, pode ser utilizado para desenvolver keyloggers maliciosos.

As ferramentas de inteligência artificial (IA) generativas, como ChatGPT e Google Bard, ganharam rápida popularidade em todo o mundo. Essas ferramentas permitem que seus usuários aumentem a eficiência e a produtividade em suas tarefas e responsabilidades diárias.

“No entanto, tais capacidades podem ser mal utilizadas. Logo após terem sido introduzidas, as tais ferramentas foram usadas para criar malwares, muitos dos quais apareceram nas lojas oficiais de aplicativos. A IA generativa foi usada para criar e-mails e mensagens para campanhas de phishing alimentadas por IA e, até mesmo, um vídeo gerado por IA no YouTube que foi considerado malicioso”, alerta Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil.

Agora, o que os especialistas da Check Point Software chamam a atenção são as ameaças relacionadas especificamente ao cenário de ameaças móveis. Os aplicativos que imitam sites e recursos populares de IA (ChatGPT e Google Bard) buscam roubar informações confidenciais e há aqueles apps que usam serviços da Web, se comportando como proxies para sites e recursos populares de IA, aproveitando sua posição como um “Man in The Middle”, também para roubar informações em tempo real.

Por esses motivos, algumas organizações decidiram proibir o uso de ferramentas de IA em dispositivos ou redes corporativas. Os especialistas verificaram que outras empresas, aquelas que permitem o acesso de funcionários a ferramentas de IA generativas, acabaram sendo vítimas de vazamento de dados confidenciais.

Portanto, até que medidas adequadas estejam disponíveis para proteger dados confidenciais contra vazamentos e roubo de informações internas, as organizações devem ter cuidado extra em suas políticas de segurança. E os dispositivos móveis não são exceção.

“Na verdade, é mais provável que os usuários móveis baixem um aplicativo malicioso ou sejam vítimas de tentativas de phishing. Telas menores de dispositivos móveis, grandes quantidades de aplicativos e notificações podem distrair os usuários, tornando mais difícil para eles evitarem clicar em links maliciosos ou baixar arquivos maliciosos. Para muitos de nós, as redes sociais são os aplicativos mais usados em nosso dispositivo móvel, o que significa que os usuários móveis estão mais expostos a engenharia social e phishing”, explica Falchi.

Além disso, as linhas tênues entre o uso pessoal e profissional de dispositivos móveis os tornam um ponto de entrada principal em uma organização, portanto, a proteção contra ameaças de IA deve ser uma prioridade.

Seguem as principais orientações para proteção dos dispositivos móveis contra ameaças de IA:

– É importante perceber que os ataques em geral e contra dispositivos móveis continuam aumentando em quantidade e sofisticação, e agora são muito avançados e complicados para serem detectados por um ser humano.

Um exemplo clássico são os sites de phishing que evoluíram tanto que se parecem com o site original. Para lidar com esse nível de sofisticação, é preciso adotar tecnologia avançada para proteger o dispositivo e evitar que ameaças entrem na organização.

– Os dispositivos móveis são um ponto de entrada para a organização. Com a IA evoluindo tão rapidamente, a detecção e a correção não são suficientes. É necessária uma solução de segurança móvel deve incluir recursos preventivos para interromper a ameaça no nível do dispositivo antes de obter qualquer acesso aos seus ativos corporativos.

– Os recursos de aprendizado de IA generativa são extremamente impressionantes. Para acompanhar tudo isso, é necessário usar IA para combater a IA. A organização deve se certificar de que sua solução de segurança use IA e tecnologia de aprendizado de máquina para manter a vantagem competitiva e segurança robusta.


Conteúdos Relacionados

Security Report | Overview

Uso de IA em fraudes de identidade dispara 300% e coloca e-commerce em alerta

Relatório global da Veriff indica que uma em cada 25 verificações digitais em 2025 foi fraudulenta; América Latina registra alta...
Security Report | Overview

Instabilidade no e-commerce da Pague Menos expôs preços falsos de produtos

Consumidores da rede de drogarias publicaram nas redes ofertas muito abaixo do padrão de ofertas da companhia e pagamentos direcionados...
Security Report | Overview

Relatório aponta crescimento de golpes em anúncios e redes sociais no 4º trimestre

Anúncios falsos lideraram ataques ao consumidor em 2025; deepfakes começam a aparecer em redes sociais
Security Report | Overview

Expansão da IA amplia lacuna entre investimentos e eficácia da segurança na nuvem, aponta Fortinet

Relatório global revela que complexidade dos ambientes híbridos e multicloud cresce mais rápido que a capacidade das equipes de proteger...