Tecnologia e Inovação, com Guilherme Ravache

Tecnologia e Inovação

Por Guilherme Ravache
gravache@gmail.com

Novidades sobre tecnologia, inovação e estratégias digitais no jornalismo, entretenimento e na TV

Tecnologia

Google mostra sua nova inteligência artificial e encanta, mas também assusta

Gigante de tecnologia apresenta assistente virtual que conversa como se fosse um humano. A tecnologia é surpreendentemente efetiva, mas recentes notícias mostram que os riscos ainda não são totalmente compreendidos

Guilherme Ravache
Guilherme Ravache
Publicado em 25/05/2021 às 12:00
Notícia
ILUSTRATIVA/PIXABAY
A nova tecnologia usada é uma grande modelo de linguagem LaMDA (Language Model for Dialogue Applications) e pode ajudar os assistentes virtuais de inteligência artificial (como a Siri no iPhone e a Alexa da Amazon, além do próprio assistente do Google), a falar mais como seres humanos. - FOTO: ILUSTRATIVA/PIXABAY
Leitura:

Semana passada o Google mostrou durante um evento sua nova inteligência artificial. Confesso, fiquei surpreso como a voz que eu escutava e o que ela dizia realmente parecia ser a de um humano falando. O Google descreve a novidade como uma "tecnologia de conversação inovadora" que poderia alimentar conversas mais naturais e abertas com sua inteligência artificial.

Segundo o Google, a nova tecnologia usada é uma grande modelo de linguagem LaMDA (Language Model for Dialogue Applications) e pode ajudar os assistentes virtuais de inteligência artificial (como a Siri no iPhone e a Alexa da Amazon, além do próprio assistente do Google), a falar mais como seres humanos.

Na apresentação, o Google mostrou vídeos de duas conversas com o assistente, onde a LaMDA respondeu a perguntas enquanto "fingia" ser o planeta anão Plutão e um avião de papel. O modelo foi capaz de citar eventos e fatos sobre os dois assuntos, como a visita da sonda Novos Horizontes a Plutão em 2015.

 

 

O LaMDA difere da maioria dos outros chatbots porque pode se comunicar sobre uma quantidade infinita de tópicos, em vez de ser programado em tópicos específicos. O Google está explorando o "interesse" do modelo em suas respostas (avaliando se elas são perspicazes, inesperadas e / ou espirituosas) e maneiras de garantir que as respostas do LaMDA também sejam factuais, com as quais os modelos de linguagem tendem a ter dificuldades.

“É incrível como a conversa é sensata e interessante”, disse o CEO do Google, Sundar Pichai, durante a apresentação. Ele afirmou gastar muito tempo batendo papo com o LaMDA ao lado de seu filho. “Mas ainda é uma pesquisa inicial, então não dá tudo certo”.

Mas passada a surpresa e encanto iniciais, uma algumas questões me fizeram pensar nos riscos dessa tecnologia.

Os críticos apontam há muitos anos que os grandes modelos de linguagem tendem a conter conceitos racistas, sexistas e ofensivos incorporados. Na semana passada escrevi sobre como os algoritmos podem ser preconceituosos mesmo sem conhecimento de quem os desenvolve, e como o Google está atuando para resolver o problema das câmeras fotográficas que depreciam os tons de pele negros e cabelos mais naturais e fora do padrão europeu.

O fato é que ninguém entende direito como esses algoritmos funcionam. O Twitter, por exemplo, revelou semana passada ter descoberto que seu algoritmo era racista, privilegiando pessoas brancas.

Além disso, esses modelos de inteligência artificial têm o potencial de gerar desinformação e propaganda em massa. Imagine esse tipo de tecnologia aplicada a mensagens de WhatsApp e vídeos em redes sociais, com computadores reproduzindo humanos, incessantemente, 24 horas por dia, todos os dias, mas só criando conteúdo falso.

E o Google aparentemente ainda não resolveu essas questões nem internamente. Recentemente, a empresa se viu envolvida em uma grande polêmica ao demitir a pesquisadora Timnit Gebru, co-líder da equipe de ética de inteligência artificial do Google. O artigo que a levou a ser demitida era justamente apontando riscos de grandes modelos de linguagem, a mesma tecnologia do novo assistente do Google.

Gebru não é um caso isolado. Os gerentes seniores da DeepMind, unidade de inteligência artificial do Google, vêm negociando há anos com a empresa-mãe para ter mais autonomia, buscando uma estrutura jurídica independente para as pesquisas sensíveis que fazem. A DeepMind disse aos funcionários no mês passado que o Google cancelou essas negociações. Um exemplo de como o Google e outros gigantes da tecnologia estão tentando fortalecer seu controle sobre o estudo e o avanço da inteligência artificial.

Uma grande preocupação de funcionários do Google é como a empresa tem se aproximado de governos e forças armadas para comercializar tecnologias militares e de segurança que usam inteligência artificial.

Não é segredo o que pode acontecer quando novas tecnologias crescem sem supervisão e ganham o mundo real. As fake news nas redes sociais são somente um de muitos exemplos, sem falar no crescente risco à democracia que se tornaram. Mas tentar frear o avanço de novas tecnologias é impossível. Então, é essencial que tenhamos regras claras e transparência. Enquanto isso não acontecer, não se deixe enganar pelo carisma do LaMBA.

Comentários

Últimas notícias