Num mundo onde a perfeição estética é buscada no limiar da perfeição, imperfeições podem ser aliadas na luta contra as deepfakes. Quem diz isso é a advogada Patrícia Peck, responsável pelo keynote sobre Tendências regulatórias da Governança & Ética da IA, realizado na tarde desta quarta-feira (22) em São Paulo no Security Leaders Nacional.
Patrícia entrou no palco com um cachorro-robô, para exemplificar a necessidade de um código de ética para lidar com essas máquinas. “O outro lado dessa moeda é que os robôs também podem reportar violações éticas”, disse ela, provocando a plateia do evento.
A advogada comentou sobre uma ironia da autenticação biométrica: “A máquina descobre que uma pessoa é real e não um deepfake justamente pelas imperfeições e detalhes que fazem de cada pessoa única”. Uma pessoa com uma face perfeita tem muito mais chance de ser uma criação tecnológica, um fake, explicou.
Segundo a especialista nas relações entre Direito e Tecnologia, passou da hora das empresas terem uma estratégia para lidar com dados e com IA. “Se a tecnologia utiliza volumes massivos de dados, como está a proteção dessas informações?”, questiona ela.
Integrante do Conselho Nacional de Cibersegurança, entidade recém-criada pelo Governo Federal, ela é incisiva na “obrigatoriedade das empresas em terem um CISO, um responsável pela segurança da informação”.
Conforme Patrícia, hoje, quem responde pelo uso da IA ainda é o usuário. “O uso da IA levanta uma série de questões técnicas e éticas sobre o uso da tecnologia – cibersegurança, transparência, ética e viés, concorrência desleal são apenas alguns dos aspectos suscitados pelo uso da IA”, finalizou ela.