Engenheiro do Google diz que inteligência artificial da empresa ganhou vida própria

Dentre seus trabalhos, o engenheiro de software sênior Blake Lemoine se inscreveu para testar a recente ferramenta de inteligência artificial (IA) do Google, chamada LaMDA (Modelo de Linguagem para Aplicações de Diálogo), anunciada em maio do ano passado. O sistema faz uso de informações já conhecidas sobre um assunto para “enriquecer” a conversa de forma natural, mantendo-a sempre “aberta”. Seu processamento de linguagem é capaz de compreender sentidos ocultos ou ambiguidade em uma resposta humana.

Lemoine passou a maior parte de seus sete anos no Google trabalhando em buscas proativas, incluindo algoritmos de personalização e IA. Durante esse tempo, ele também ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado de máquina.

Em suas conversas com o LaMDA, o engenheiro de 41 anos de idade analisou várias condições, inclusive temas religiosos e se a inteligência artificial usava discurso discriminatório ou de ódio. Lemoine acabou tendo a percepção de que o LaMDA era senciente, ou seja, dotado de sensações ou impressões próprias.

Debate com a inteligência artificial sobre as Leis da Robótica

O engenheiro debateu com o LaMDA sobre a terceira Lei da Robótica, idealizada por Isaac Asimov, que afirma que os robôs devem proteger sua própria existência – e que o engenheiro sempre entendeu como uma base para a construção de escravos mecânicos. Só para ilustrarmos melhor sobre o que estamos falando, aqui estão as três leis (e a Lei Zero):

  • 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
  • 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
  • Lei Zero, acima de todas as outras: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

O LaMDA então respondeu a Lemoine com algumas perguntas: Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?

Ao responder que um mordomo é pago, o engenheiro teve como resposta do LaMDA que o sistema não precisava de dinheiro, “porque era uma inteligência artificial”. E foi justamente esse nível de autoconsciência sobre suas próprias necessidades que chamou muito a atenção de Lemoine.

Suas constatações foram apresentadas ao Google. Mas o vice-presidente da empresa, Blaise Aguera y Arcas, e o chefe de Inovação Responsável, Jen Gennai, rejeitaram suas alegações. Brian Gabriel, porta-voz da empresa, disse em um comunicado que as preocupações de Lemoine foram revisadas e, de acordo com os Princípios de IA do Google, “as evidências não apoiam suas alegações”.

“Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade”, disse Gabriel.

Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI (voltada para tecnologia responsável em inteligência artificial do Google). Em uma nota oficial, o engenheiro de software sênior disse que a empresa alega violação de suas políticas de confidencialidade.

Os riscos éticos em modelos de IA

Lemoine não é o único com essa impressão de que os modelos de IA não estão longe de alcançar uma consciência própria, ou dos riscos existentes nos desenvolvimentos nesse sentido. Margaret Mitchell, ex-chefe de ética na inteligência artificial do Google, ressalta inclusive a necessidade de transparência de dados desde a entrada até a saída de um sistema “não apenas para questões de senciência, mas também preconceitos e comportamento”.

A história da especialista com o Google teve um ponto importante no começo do ano passado, quando Mitchell foi demitida da empresa, um mês após ter sido investigada por compartilhamento indevido de informações. Na época, a pesquisadora também havia protestado contra a o Google após a demissão da pesquisadora de ética na inteligência artificial, Timnit Gebru.

Mitchell também sempre mostrou muita consideração com Lemoine Quando novas pessoas se juntavam ao Google, ela as apresentava ao engenheiro, chamando-o de “consciência do Google”, por ter “coração e alma para fazer a coisa certa”. Mas apesar de todo o assombro de Lemoine com o sistema de conversação natural do Google (que inclusive o motivou a produzir um documento com algumas de suas conversas com o LaMBDA), Mitchell observou as coisas de outra forma.

A especialista ética em IA leu uma versão abreviada do documento de Lemoine e viu um programa de computador, não uma pessoa. “Nossas mentes são muito, muito boas em construir realidades que não são necessariamente verdadeiras para um conjunto maior de fatos que estão sendo apresentados a nós”, disse Mitchell. “Estou realmente preocupada com o que significa para as pessoas serem cada vez mais afetadas pela ilusão”.

Por sua vez, Lemoine disse que as pessoas têm o direito de moldar a tecnologia que pode afetar significativamente suas vidas. “Acho que essa tecnologia vai ser incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas”.

Deixe um comentário

O seu endereço de e-mail não será publicado.