INTELIGÊNCIA ARTIFICIAL

Governo dos EUA e big techs fecham acordo para ampliar segurança da IA

São signatárias do acordo a Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e a OpenAI

Cadastrado por

Roberta Soares

Publicado em 22/07/2023 às 12:03 | Atualizado em 22/07/2023 às 12:03
EUA partem na frente no controle sobre a AI e devem estimular iniciativas semelhantes pelo mundo - DIVUULGAÇÃO

Da Agência Estado

As sete companhias líderes em inteligência artificial (IA) nos Estados Unidos concordaram voluntariamente em adotar salvaguardas para o desenvolvimento da nova tecnologia. O acordo foi anunciado nesta sexta-feira, 21, pelo governo dos Estados Unidos, que coordenou as negociações para formalizar o compromisso das empresas em adotar novos padrões de segurança, proteção e confiança para as suas ferramentas de IA.

São signatárias do acordo a Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e a OpenAI. De acordo com a Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os seus produtos sejam seguros antes de lançá-los ao público. "Se gerenciada adequadamente, a IA pode contribuir enormemente para a prosperidade, igualdade e segurança de todos", disse o governo dos EUA em comunicado.

Os saltos tecnológicos no campo da inteligência artificial têm gerado temores sobre a disseminação de desinformação à medida que os computadores "autoconscientes" evoluem. Por isso, as salvaguardas voluntárias são vistas apenas como um primeiro passo, enquanto a Casa Branca e outros governos ao redor do mundo correm para estabelecer marcos regulatórios e legais para o desenvolvimento da IA.

Por isso, o pacto anunciado ontem reflete a urgência da administração Joe Biden e dos legisladores americanos em responder à rápida evolução da tecnologia, enquanto os órgãos reguladores ainda se debatem sobre formas de maior controle das redes sociais.

SEGURANÇA SERÁ PRIORIDADE

Pelo acordo anunciado ontem, as empresas se comprometeram a permitir que especialistas em segurança independentes testem seus sistemas antes de serem lançados, além de criar ferramentas para identificar os conteúdos que produzem por meio da IA, como marcas d'água, a fim de reduzir a desinformação.


A Inteligência Artificial e o mercado de trabalho - Thiago Lucas

"Esses testes protegem contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a segurança cibernética, bem como seus efeitos sociais mais amplos", disse a Casa Branca.

As empresas também se comprometeram a desenvolver e investir em segurança cibernética para proteger os dados dos usuários, a compartilhar dados sobre a segurança de seus sistemas com o governo e acadêmicos, e a facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.

Leia Também

Elas também terão de relatar publicamente eventuais falhas e riscos em suas tecnologias, apontando riscos de segurança e sociais - como justiça e preconceito.

Várias das signatárias já haviam concordado publicamente com algumas ações semelhantes às do compromisso da Casa Branca. Antes de a OpenAI lançar amplamente seu sistema GPT-4, ela trouxe uma equipe de profissionais externos para exercícios, um processo conhecido como "redteaming". Da mesma forma, o Google já disse em um post que está desenvolvendo uma marca d'água, que empresas e formuladores de políticas afirmam ser uma forma de abordar as preocupações de que a IA poderia sobrecarregar a disseminação de desinformação.

RISCOS SÃO DESTACADOS


Os saltos tecnológicos no campo da inteligência artificial têm gerado temores sobre a disseminação de desinformação à medida que os computadores "autoconscientes" evoluem - Divulgação

Os compromissos voluntários são uma maneira imediata de lidar com os riscos, antes de um esforço de longo prazo para fazer com que o Congresso americano aprove leis que regulem a tecnologia. Alguns defensores da regulamentação da IA disseram que a ação de Biden é um começo, mas é preciso fazer mais para responsabilizar as empresas e seus produtos.

"A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas", disse um comunicado de James Steyer, fundador e CEO da organização sem fins lucrativos Common Sense Media. O líder da maioria no Senado, Chuck Schumer (Democrata), já disse que apresentará uma legislação para regular a IA.

"Este é um primeiro passo para garantir que limites sejam estabelecidos para a IA e que também cria um modelo para outros governos seguirem", disse o presidente para assuntos globais da Meta, Nick Glegg. 

Tags

Autor

Webstories

últimas

VER MAIS