A Inteligência Artificial Generativa e seus visíveis impactos no cenário tecnológico mundial foi um dos grandes temas abordados nos debates e palestras da AWS re:Inforce 2024, ocorrida essa semana, na Filadélfia. O objetivo das lideranças executivas era não apenas expor a visão estratégica da companhia a respeito da tecnologia, mas também colocar um posicionamento sobre os riscos que a tecnologia pode oferecer à sociedade e como remediá-los a tempo.
No decorrer do congresso, os executivos da AWS relembraram alguns dos impactos negativos que a IA Generativa pode causar quando empregada de forma irresponsável e antiética. O alcance desse impacto vai desde geração de deepfakes para difamar pessoas até aplicação da inteligência para produzir novos malwares e direcionar ataques às vulnerabilidades mais expostas.
De acordo com o Vice-presidente de Plataforma da AWS, Kurt Kufeld, essas ameaças já estão presentes no cotidiano das pessoas, e tendem a se tornar mais graves à medida que a tecnologia evoluir naturalmente. Isso se deve à capacidade superior da inteligência de máquina em produzir códigos de forma rápida, uma função que precisará ser agregada quanto antes também pela Segurança Cibernética.
“Temos que encarar a realidade de quais usos a IA estar sendo aplicada, e infelizmente, muitos deles são negativos para a sociedade. Até por isso vemos tantos movimentos em relação aos tratamentos éticos das Large Language Models (LLMs), pois isso terá que ser feito em algum momento. Não em detrimento da inovação, mas a favor dela”, comentou Kufeld em encontro com jornalistas durante o re:Inforce.
Tal posicionamento se alinha ao que a Líder de AI Responsável da companhia, Diya Wynn, apresentou durante a coletiva de imprensa que também participou. Na visão da especialista, é um papel importante da companhia atura na conscientização dos clientes e parceiros sobre os riscos que a tecnologia possa representar em relação à Segurança dos ecossistemas digitais e para as pessoas no meio físico.
O objetivo por trás dos trabalhos de Wynn é auxiliar outras companhias alinhadas com a AWS a viabilizarem melhores usos da Inteligência Artificial, aumentando seus casos de uso de sucesso, enquanto equilibra um nível reduzido de riscos à Segurança da companhia, dos colaboradores e dos usuários. Tal processo é movido com foco nas pessoas, compartilhando responsabilidade entre todos e ampliando o escopo de testagem e pesquisas no âmbito da IA.
“Nesse sentido, a Cyber Security cumpre um papel extremamente crítico, de sorte que todos os líderes de SI devem buscar se envolver cada vez mais com o tema. Isso porque são eles os especialistas capazes de apontar as possibilidades de comprometimento e ataque da tecnologia. Agora que ela está ao alcance de todos, é crítico para nós conhecermos todos os potenciais maus usos da IA”, comentou Wynn.
Papel da regulamentação
Em meio a essa discussão, os líderes da AWS também reforçaram a necessidade de avançar sobre projetos regulatórios a respeito da Inteligência Artificial. Diya Wynn explica que as novas leis de controle da IA desenvolvidas pelo mundo devem orientar as futuras melhorias que devem ser implementadas nos próximos anos. Esse deve ser um passo fundamental para que novas linguagens, cada vez mais baseadas na ética, ganhem o mercado com rapidez.
“A possibilidade de, a partir das novas regulações, podermos construir uma base segura e responsável de evolução das LLMs é um fator essencial para o futuro da Inteligência Artificial. A grande dificuldade a ser enfrentada nesse caso talvez seja a necessidade de se encontrar um padrão mínimo na comunidade internacional, de forma a equilibrar a rigidez desses controles em todos os lugares”, explica Wynn.
A Amazon também foi uma das organizações que saudou a aprovação da Lei de Inteligência Artificial, o AI Act, na União Europeia. O porta-voz da companhia à época afirmou para a Reuters que a companhia está comprometida “em colaborar com a UE e o setor de Tecnologia da Informação para apoiar o desenvolvimento seguro e responsável de tecnologias como a IA”.