O conceito de linguagem Generativa atraiu expectativas, preocupações e esperanças para o futuro da Comunidade Cyber. Além dela, temas como Computação Quântica e Criptografia também foram mencionados no evento, em que especialistas analisaram as aplicações positivas e negativas de todas, além de sugerirem formas mais adequadas de uso
A RSA Conference iniciou suas atividades nessa semana. Ali, as apresentações de Keynotes buscaram expor as mais novas tendências em tecnologia e a Inteligência Artificial assumiu um papel de destaque em boa parte das discussões dos palestrantes. O conceito de linguagem Generativa atraiu expectativas, preocupações e esperanças para o futuro da Comunidade Cyber.
O CEO da RSA, Rohit Ghai, foi um dos que falaram centralmente da IA, mas focada nas suas funções dentro da gestão de Identidade. Segundo o executivo, a tecnologia tem potencial para definir uma nova era do gerenciamento de acessos no mundo, assim como foi com a internet e com o armazenamento móvel em nuvem. Por isso, ela logo será integrada também nessas plataformas.
“Neste momento, vivemos uma tendência definida por AI e Dados. As Inteligências Artificiais já conseguem dominar exames médicos ou criar malwares polimorfos e as Big Techs planejam grandes ecossistemas para elevar as capacidades das plataformas. São avanços que já estão aqui, com as linguagens Generativas mais acessíveis no mercado”, disse Ghai durante seu Keynote.
Todas essas novas tendências de uso foram tratadas com cuidado nos painéis da RSA. No debate “Segurança como parte da IA Responsável”, os executivos falaram de formas éticas de controle da Inteligência Artificial nas empresas e na sociedade. Para o Vice-presidente de Segurança de Software de Produto da NVIDIA, Daniel Rohrer, a grande disseminação dessa tecnologia no contexto social exigirá mais sensibilidade dos desenvolvedores às consequências e aos riscos oferecidos por IAs tendenciosamente criadas ou usadas.
“Houve uma grande proliferação da IA em um curto espaço de tempo, gerando um amplo processo de democratização desse recurso. Por isso, teremos que pensar não só nos modelos, mas nas ferramentas para gerenciar esses controles. Frequentemente há uma ênfase exagerada na linguagem e nas suas capacidades, em oposição ao conteúdo inserido ali dentro”, disse o executivo.
Seguindo este insight, a dra. Rumman Chowdhury, uma das fundadoras do grupo de especialistas em IA Bias Bucaneers, destacou dois pontos de preocupação em relação às linguagens mais recentes de IA. Segundo ela, devido aos altos riscos de alucinação maliciosa das máquinas , alimentadas por dados falsos, os usuários precisarão se mostrar mais críticos com as informações que lhes cheguem por esses canais.
“Além disso, as empresas ainda estão na posição de detectar as alucinações antes de buscar as informações incorretas. As organizações precisam pensar em formas de ação proativa de análise dos dados que alimentam suas IAs de forma a evitar os riscos de falhas nas respostas”, continuou.
Rumman ainda definiu como passos importantes para a criação de Inteligências Artificiais éticas a regulamentação dessas tecnologias e o desenvolvimento de uma cultura interna das companhias que priorizem a responsabilidade sobre suas máquinas. Já Rohrer considerou a seleção de especialistas em lidar com problemas da IA e incluir o máximo de feedback gerado pelos usuários a respeito dos desempenhos da ferramenta.
“Se a organização está instalando esses sistemas, é preciso descobrir formas de colher os feedbacks. É possível construir confiança com os usuários através dessa interação e, se não há interação com aqueles diretamente afetados pelos sistemas, certamente se perderá metade do diálogo”, aconselhou o vice-presidente.
Computação Quântica e Criptografia
Outra inovação abordada nos painéis da RSA Conference foi a Computação Quântica, em um cenário de potencial risco às criptografias. O assunto foi tratado no “Painel dos Criptógrafos”, em que os debatedores falaram sobre os avanços ainda incipientes do universo Quantum. Mas com a NSA e NIST já discutindo meios de substituir os algoritmos atuais por outros mais resistentes às atividades de computadores quânticos, não deve demorar muito para surgir novos parâmetros de mercado.
“Será necessário, em algum momento, estabelecer quais sistemas podem estar sob risco de ação de um potencial computador quântico. Hoje, entende-se que os sistemas de chaves públicas são aqueles mais vulneráveis. Os chaveamentos simétricos também podem ser afetados, mas estes poderiam ter seus algoritmos ampliados para preservar a Segurança”, explicou Anne Dames, Engenheira Líder de Desenvolvimento na IBM.
Todavia, a NIST promove desde 2016 um projeto de prospecção de criptografias resistentes à Computação Quântica. E só no ano passado eles selecionaram 4 códigos aptos a padronizar as próximas gerações. Como todos eles preservam características diferentes, cada um com uma complexidade, no fim caberá às próprias companhias entenderem qual opção será a mais recomendável.
“Felizmente, quase todas as mensagens empresariais não exigem um plano de Segurança muito robusto. Se a Computação Quântica está apenas à 20 ou 30 anos à frente, todos devem pensar com cuidado se pretendem mesmo migrar para algoritmos pós-quantum agora. Nesse caso, eu sempre aconselho que optem pela opção com o nível mais alto de Segurança”, encerrou o professor de Ciência da Computação no Instituto Weizmann, Adir Shamir.