Novas medidas auxiliares movimentam empresas em favor da proteção da IA

Com as crescentes transformações que a IA vem oferecendo ao mundo corporativo, são necessárias medidas para garantir o bom uso dessa tecnologia. Identificar as normas regulatórias e analisar impactos são algumas das formas de mitigar esse processo, segundo estudo

Compartilhar:

O desenvolvimento simultâneo dos padrões globais de inteligência artificial e estruturas de IA responsáveis moldarão o futuro dessa tecnologia, diz o estudo “Privacy in the new world of AI” publicado pela KPMG. O material evidencia as implicações da generalização da adoção da IA quanto à privacidade, assim como busca entender o que isso representa para as empresas.

O estudo ainda descreve as principais etapas que as organizações podem seguir para usar a inteligência artificial com segurança. São medidas que visam mitigar os riscos para as instituições aproveitarem a tecnologia enquanto conseguem proteger a privacidade dos indivíduos.

“Existem alguns cuidados que devem ser observados na hora da implementação de projetos de IA nas instituições, a fim de reduzir as chances de vazamento de informações sensíveis e proteger os dados dos consumidores, garantindo assim a preservação da privacidade dos envolvidos”, afirma Leandro Augusto, sócio-líder de Cyber Security & Privacy da KPMG no Brasil e na América do Sul.

Medidas para auxiliar na proteção

É importante identificar quais são as normas regulatórias que dizem respeito à vertical da empresa. Com esse conhecimento, será mais viável definir quais políticas de privacidade em IA serão implementadas na organização. A base de referência para o uso de IA deve ser feita de modo a satisfazer diferentes regimes, pensando, inclusive, na simplificação do desenvolvimento das atividades relacionadas a ela.

Para o momento de idealização, é importante analisar o impacto que ele terá sobre a privacidade e as questões de compliance. Isso pode ser feito usando a Avaliação Sistemática do Impacto sobre a Privacidade (PIA) ou com a Avaliação do Impacto da Proteção de Dados (DPIA). Isso vale também para empresas que acreditam utilizar apenas dados não pessoais ou anônimos.

Caso seja uma avaliação mais completa, recomenda-se inserir nessa parte do projeto uma modelagem das ameaças à segurança e a privacidade e, se necessário, uma consulta das partes interessadas. Todas essas questões devem ser observadas e mantidas por todo o tempo de uso da IA no projeto.

Em seguida, é o momento de assegurar que o projeto está contemplando as principais normas, práticas e códigos de conduta que tornam os requisitos operantes. Isso vale tanto ao desenvolvedor quanto ao cliente que está solicitando um projeto de IA na instituição. Aos clientes, importante solicitar do prestador desse serviço a documentação de suporte da PIA ou DPIA. Já existem países em que a legislação exige essas avaliações e no Brasil está se encaminhando para a regulação do uso desses dados.

Além disso, deve-se realizar uma análise independente do próprio sistema de IA, com uma empresa externa validando se o trabalho de criação e implementação foi baseado com toda a segurança e protocolos vigentes. É recomendado aos desenvolvedores para que seus clientes estejam assegurados junto aos órgãos reguladores e às boas práticas existentes.

Por fim, é necessário que as empresas estejam aptas a responder quais são os moldes que guiam a tecnologia na tomada de decisão. A explicação deve trazer clareza quanto aos métodos usados para que a IA tenha feito uma decisão, recomendação ou previsão. Uma boa forma de fazer isso é por meio de fluxos de trabalho que documentem, identifiquem e expliquem as maneiras que os dados foram utilizados com relação ao usuário final e as possibilidades de contestação dessa decisão.

“Quando as empresas permanecem atualizadas sobre as práticas de segurança na adoção da IA para a privacidade e antecipam-se aos possíveis riscos conseguem aproveitar melhor o potencial da tecnologia e ao mesmo tempo protegem a privacidade dos usuários”, diz Ricardo Santana, Sócio-líder de Data & Analytics da KPMG no Brasil.



Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Nuvem soberana consolida-se como motor de autonomia nas empresas

Diante de tensões geopolíticas e do avanço da IA, organizações investem em arquiteturas abertas e nuvem híbrida para ampliar o...
Security Report | Overview

Falsificação de domínios falhos afetam 36% dos parceiros comerciais da Copa de 26

Estudo da Proofpoint revela que 36% dos patrocinadores e fornecedores oficiais do evento não bloqueiam proativamente mensagens falsas que imitam...
Security Report | Overview

Gartner indica seis etapas estratégicas para gerenciar a proliferação de IA agêntica

Previsão indica que empresas da Fortune 500 terão mais de 150 mil agentes em uso até 2028, mas apenas 13%...
Security Report | Overview

Avanço da IA impulsiona investimentos em SI em 48% das empresas brasileiras

Estudo encomendado pela Dell Technologies revela que, apesar do foco em automação e proteção de dados, lideranças ainda superestimam a...