Imaginar o futuro com robôs pode significar pensar em filmes de ficção científica ou fantasiar com robôs similares aos seres humanos que conversam conosco, limpam nossa casa e agem como nossos assistentes. Mas a realidade é que os robôs atuais existem em várias formas e para diversos propósitos.
Os bots, por exemplo, não têm uma forma física – são aplicações que realizam funções automáticas repetidas vezes de forma rápida, como um robô o faria. E apesar de facilitarem nossas vidas em diversas maneiras, também podem servir para propósitos maliciosos.
Um dos focos das ameaças atuais de cibersegurança é o web scraping, o processo de usar bots para extrair grandes quantidades de dados de um site rapidamente, salvando as informações para uso pessoal. A técnica é um tanto polêmica: enquanto negócios legítimos a utilizam, o web scraping também é usado ilegalmente para, por exemplo, roubar conteúdos protegidos por direitos autorais e gerar cotações de um produto ou serviço para uma concorrência desleal.
O web scraping possibilita que hackers e fraudadores se beneficiem do trabalho e conteúdo de outras empresas, prejudicando seus negócios. Esses bots são geralmente programados para imitar o comportamento regular de um usuário, o que torna mais difícil detectá-los e bloqueá-los. E essa técnica está aumentando e tornando-se mais acessível e barata. De acordo com um relatório da National Science Foundation, 60% do tráfego web são originados por bots.
Além disso, as empresas que estão na mira do web scraping, como seguradoras, podem sofrer diversos danos se forem vítimas desse tipo de ataque. A ação dos bots pode saturar os servidores do site, tornando-o indisponível para os clientes verdadeiros; a cópia e replicação do conteúdo podem prejudicar a estratégia de SEO e posição do site nos buscadores, além de infringir direitos autorais; e concorrentes podem oferecer preços mais baixos, que resultam em perda de clientes e menos vendas.
Tudo isso significa que as empresas precisam ter estratégias para proteger suas informações online. E a melhor forma de fazer isso é encontrar uma solução no mercado que forneça visibilidade de todo o tráfego do site, entenda o contexto para diferenciar a legitimidade de ações, e ofereça controle para atuar da melhor forma na proteção.
Dentre os recursos da solução, é importante que ela tenha capacidade de realizar a análise e proteção de variadas formas que possam ser combinadas, como validação do usuário, inspeção das interações entre usuário e navegador, checagem de integridade do dispositivo, detecção e mitigação de ataques e falhas críticas, e que mantenha as aplicações sempre disponíveis.
Além disso, não basta apenas implementar uma solução e esperar que ela proteja os negócios contra web scraping para sempre, mesmo porque as ameaças virtuais estão sempre evoluindo. Nesse momento, um parceiro para monitorar o ambiente, fazer atualizações sempre que necessário e oferecer serviços de suporte e consultoria é essencial.
*Rafael Puga, Arquiteto Técnico da Dimension Data, multinacional focada em serviços e soluções de tecnologia da informação