Big Techs declaram apoio aos projetos de uso seguro da IA

Companhias se comprometeram a apoiar medidas de controles nas novas Inteligências Artificiais, entre elas, a padronização de selos de marca d’água para conteúdos gerados por deep fake e tecnologia automatizada

Compartilhar:

Em uma vitória para a regulamentação da Inteligência Artificial nos Estados Unidos, a Casa Branca informou que as big techs Alphabet, Meta Platforms, Microsoft, Amazon e OpenAI se comprometeram voluntariamente a apoiar medidas de controle no desenvolvimento da tecnologia em seus parques tecnológicos.

Entre as propostas oferecidas pelas companhias em relação à decisão estão a testagem ostensiva das IAs por especialistas independentes e o compartilhamento de informações entre elas visando reduzir os riscos. Maiores aportes em Cibersegurança e proteção de dados também são esperados pelas corporações.

O anúncio foi feito durante a reunião do Presidente Joe Biden com executivos das organizações participantes. Segundo a Agência Reuters, o chefe do executivo norte-americano informou que estava também trabalhando em uma ordem executiva sobre o tema, além de uma legislação suprapartidária para regulamentar as tecnologias de IA.

“Veremos mais mudanças tecnológicas nos próximos 10 anos do que vimos nos últimos 50 anos. Essa foi uma revelação surpreendente para mim, francamente”, disse Biden.

O objetivo das organizações é padronizar algum formato de marca d’água para indicar todos os conteúdos de texto, imagens, áudios e vídeos não criados exclusivamente por seres humanos. “Esses compromissos são um passo promissor, mas temos muito mais trabalho a fazer juntos”, continuou o Presidente.

Esse é um dos grandes passos dados pela administração Biden para iniciar os processos de regulamentação do recurso. Desde o lançamento das mais novas gerações do ChatGPT, na virada do ano de 2023, poderes públicos de todo o mundo iniciaram movimentações para colocar limites no uso das IAs Generativas.

A primeira a confirmar uma legislação foi a União Europeia, que iniciou discussões em maio por novas regras de tratamento da Inteligência Artificial. A partir desses marcos, sistemas como o do ChatGPT teriam que evidenciar seus conteúdos gerados pela tecnologia, além de ajudar na identificação de deep fakes e garantir salvaguardas contra conteúdos ilegais.

*Com informações da Agência Reuters


Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Destaques

Antes da IA, vem o dado: quais os caminhos para Segurança habilitar inovação?

Em painel promovido pela TVSecurity com a Delphix, líderes de Cibersegurança defendem que governança, qualidade e proteção dos dados são...
Security Report | Destaques

IA na Segurança precisa avançar com usuários preparados, defendem CISOs

Especialistas reunidos no Security Leaders Belo Horizonte 2026 alertam que conscientização de desenvolvedores e operadores é decisiva para evitar riscos...
Security Report | Destaques

Ciber-resiliência e o desafio de proteger a Indústria na era da hiperconectividade

Abrindo como Keynote no Security Leaders BH, Vitor Sena, CISO da Gerdau, destaca que a convergência entre TI e OT...
Security Report | Destaques

Security Leaders Belo Horizonte traz discussões sobre Resiliência, IA e escala de ataques

Na terceira parada do maior e mais qualificado evento de Segurança da Informação e Cibernética do Brasil em 2026, o...