Da Agência Estado
As sete companhias líderes em inteligência artificial (IA) nos Estados Unidos concordaram voluntariamente em adotar salvaguardas para o desenvolvimento da nova tecnologia. O acordo foi anunciado nesta sexta-feira, 21, pelo governo dos Estados Unidos, que coordenou as negociações para formalizar o compromisso das empresas em adotar novos padrões de segurança, proteção e confiança para as suas ferramentas de IA.
São signatárias do acordo a Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e a OpenAI. De acordo com a Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os seus produtos sejam seguros antes de lançá-los ao público. "Se gerenciada adequadamente, a IA pode contribuir enormemente para a prosperidade, igualdade e segurança de todos", disse o governo dos EUA em comunicado.
Os saltos tecnológicos no campo da inteligência artificial têm gerado temores sobre a disseminação de desinformação à medida que os computadores "autoconscientes" evoluem. Por isso, as salvaguardas voluntárias são vistas apenas como um primeiro passo, enquanto a Casa Branca e outros governos ao redor do mundo correm para estabelecer marcos regulatórios e legais para o desenvolvimento da IA.
Por isso, o pacto anunciado ontem reflete a urgência da administração Joe Biden e dos legisladores americanos em responder à rápida evolução da tecnologia, enquanto os órgãos reguladores ainda se debatem sobre formas de maior controle das redes sociais.
SEGURANÇA SERÁ PRIORIDADE
Pelo acordo anunciado ontem, as empresas se comprometeram a permitir que especialistas em segurança independentes testem seus sistemas antes de serem lançados, além de criar ferramentas para identificar os conteúdos que produzem por meio da IA, como marcas d'água, a fim de reduzir a desinformação.
"Esses testes protegem contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a segurança cibernética, bem como seus efeitos sociais mais amplos", disse a Casa Branca.
As empresas também se comprometeram a desenvolver e investir em segurança cibernética para proteger os dados dos usuários, a compartilhar dados sobre a segurança de seus sistemas com o governo e acadêmicos, e a facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.
Elas também terão de relatar publicamente eventuais falhas e riscos em suas tecnologias, apontando riscos de segurança e sociais - como justiça e preconceito.
Várias das signatárias já haviam concordado publicamente com algumas ações semelhantes às do compromisso da Casa Branca. Antes de a OpenAI lançar amplamente seu sistema GPT-4, ela trouxe uma equipe de profissionais externos para exercícios, um processo conhecido como "redteaming". Da mesma forma, o Google já disse em um post que está desenvolvendo uma marca d'água, que empresas e formuladores de políticas afirmam ser uma forma de abordar as preocupações de que a IA poderia sobrecarregar a disseminação de desinformação.
RISCOS SÃO DESTACADOS
Os compromissos voluntários são uma maneira imediata de lidar com os riscos, antes de um esforço de longo prazo para fazer com que o Congresso americano aprove leis que regulem a tecnologia. Alguns defensores da regulamentação da IA disseram que a ação de Biden é um começo, mas é preciso fazer mais para responsabilizar as empresas e seus produtos.
"A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas", disse um comunicado de James Steyer, fundador e CEO da organização sem fins lucrativos Common Sense Media. O líder da maioria no Senado, Chuck Schumer (Democrata), já disse que apresentará uma legislação para regular a IA.
"Este é um primeiro passo para garantir que limites sejam estabelecidos para a IA e que também cria um modelo para outros governos seguirem", disse o presidente para assuntos globais da Meta, Nick Glegg.