A Inteligência Artificial segue como a tendência de destaque em tecnologia e devido a isso, players do setor como a Dell Technologies definiram centre suas prioridades sobre o tema endereçar os riscos e desafios envolvendo proteção de dados, privacidade, governança e Segurança Cibernética. Isso é feito a partir do aculturamento de parceiros e soluções em boas práticas de Cyber em IA.
O Presidente da Dell Technologies no Brasil, Diego Puerta, ressalta que a Inteligência Artificial alcançará cada vez mais espaço entre as tecnologias de uso diário das pessoas. Dessa forma, toda a indústria tecnológica precisará se reorganizar para comportar o aumento de produtividade e garantir novos padrões de data protection e compliance com as leis locais de tratamento de informações pessoais e sensíveis.
“Inteligência Artificial oferece riscos quando é utilizada de forma errada, mas abdicar completamente de seu uso é uma ameaça igualmente preocupante. Por isso, nossa estratégia é construir uma cultura de uso da IA que foque nas pessoas e nos dados, em vez de apenas a tecnologia, pois são esses os dois componentes que podem definir as aplicações corretas da IA”, disse Puerta, durante abertura do evento Dell Technologies Forum AI Edition, ocorrido em São Paulo.
Para Puerta, essa cultura de IA demanda incentivos ao desenvolvimento ético da Inteligência Artificial, bem como capacitação de pessoas e estabelecimento de bases de dados úteis e sólidas, capazes de evitar o comprometimento da resposta final e maximizar a efetividade da tecnologia. Esses planejamentos serão necessários, no longo prazo, para viabilizar a utilidade da ferramenta em contextos de negócio.
Futuro com IA Segura
Nesse mesmo evento, a companhia organizou um painel de discussão exclusivo para a imprensa, em que especialistas debateram os impactos da IA nos próximos meses. Ana Oliveira, Diretora do Centro de Inovações e IA da Dell, explica que o foco de toda a indústria de tecnologia é investir nos controles de moderação das linguagens de IA para controlar a constância de dados sensíveis que podem ser utilizados no treinamento ou não.
“Pensar AI Safety and Responsible é uma questão constante para todo o mercado. Nesse sentido, precisamos entender que a tecnologia é passiva de erros, pois seu objetivo é entregar uma resposta ao usuário, ainda que esteja equivocada. Essa questão exige que contemos ainda com filtros humanos para apontar erros, ainda que pontuais, que ela pode oferecer”, acrescenta Ana.
A mesa redonda também teve a participação do Coordenador Geral de Tecnologias Digitais do Ministério da Ciência e Tecnologia, Guilherme Corrêa, que concordou com a necessidade de contar com controles humanos para garantir melhor uso da IA. Para o Governo Federal, a Segurança da tecnologia emergente é um fator crucial para as estratégias de inovação do país, ao ponto de incluir no Plano Brasileiro de Inteligência Artificial a capacitação de profissionais na proteção de dados usados na IA.
“Um dos projetos que nos apoia nisso é o Hacker Ético, que ultrapassou nossa expectativa de interessados em ingressar. Parte desse trabalho é estabelecer boas práticas de higiene e proteção de dados direcionados à IA. Disseminando conhecimentos de Cibersegurança, o governo entende que é possível reduzir o nível de risco que essa tecnologia tem atualmente”, encerra Corrêa.