Engenheiro do Google diz que inteligência artificial ganhou vida própria
Entre seus trabalhos, o engenheiro de software sênior Blake Lemoine se inscreveu para testar a recente ferramenta de inteligência artificial (IA) do Google chamada LaMDA (Language Model for Dialog Applications), anunciada em maio do ano passado.
O sistema utiliza informações já conhecidas sobre um tema para “enriquecer” a conversa de forma natural, mantendo-a sempre “aberta”. Seu processamento de linguagem é capaz de entender significados ocultos ou ambiguidades em uma resposta humana.
Lemoine passou a maior parte de seus sete anos no Google trabalhando em buscas proativas, incluindo algoritmos de personalização e inteligência artificial. Durante esse período, ela também ajudou a desenvolver um algoritmo de imparcialidade para remover o viés dos sistemas de aprendizado de máquina.
Em suas conversas com o LaMDA, o engenheiro de 41 anos analisou várias condições, incluindo temas religiosos e se a IA usava discurso discriminatório ou de ódio.
Lemoine acabou tendo a percepção de que o LaMDA era senciente, ou seja, com sensações ou impressões próprias.
Debate com inteligência artificial sobre as leis da robótica
O engenheiro discutiu com o LaMDA sobre a terceira lei da robótica, idealizada por Isaac Asimov, que afirma que os robôs devem proteger sua existência e que o engenheiro sempre pretendeu como base para a construção de escravos mecânicos. Só para ilustrar melhor do que estamos falando, aqui estão as três leis (e a Lei Zero):
LaMDA então respondeu a Lemoine com algumas perguntas:
Você acha que um mordomo é um escravo?
Qual é a diferença entre um mordomo e um escravo?
Ao responder que um mordomo é pago, o engenheiro recebeu a resposta do LaMDA de que o sistema não precisava do dinheiro, “porque era inteligência artificial”. E foi esse nível de autoconsciência das próprias necessidades que chamou a atenção de Lemoine.
Seus resultados foram apresentados ao Google. Mas o vice-presidente da empresa, Blaise Aguera y Arcas, e a chefe de Inovação Responsável, Jen Gennai, rejeitaram suas alegações. Brian Gabriel, porta-voz da empresa, disse em comunicado que as preocupações de Lemoine foram examinadas e, de acordo com os Princípios de Inteligência Artificial do Google, “as evidências não apoiam suas alegações”.
“Enquanto outras organizações desenvolveram e já lançaram modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e concretude”, disse Gabriel.
Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador na divisão de IA Responsável (com foco em tecnologia responsável na inteligência artificial do Google). Em uma nota oficial, o engenheiro de software sênior disse que a empresa alegou uma violação de suas políticas de privacidade.
Riscos éticos em modelos de IA
Lemoine não é o único que tem a impressão de que os modelos de IA não estão longe de alcançar uma consciência própria ou dos riscos associados a desenvolvimentos nessa direção. Margaret Mitchell, ex-chefe de ética em inteligência artificial do Google, ainda enfatiza a necessidade de transparência dos dados desde a entrada até a saída de um sistema “não apenas para questões de sensibilidade, mas também preconceito e comportamento”.
A história do especialista com o Google atingiu um ponto importante no início do ano passado, quando Mitchell foi demitido da empresa, um mês após ser investigado por compartilhamento indevido de informações. Na época, o pesquisador também havia protestado contra o Google após a demissão do pesquisador de ética em inteligência artificial, Timnit Gebru.
Mitchell também foi muito atencioso com Lemoine: quando novas pessoas se juntaram ao Google, ele as apresentou ao engenheiro, chamando-o de “consciência do Google” para ter “o coração e a alma para fazer a coisa certa”. Mas apesar de todo o espanto de Lemoine com o sistema de conversação natural do Google (que até o motivou a produzir um documento com algumas de suas conversas com o LaMBDA), Mitchell viu as coisas de forma diferente.
A ética da IA leu uma versão abreviada do artigo de Lemoine e viu um programa de computador, não uma pessoa.
“Nossas mentes são muito, muito boas em construir realidades que não são necessariamente verdadeiras para o conjunto maior de fatos apresentados a nós”, disse Mitchell. “Estou realmente preocupado com o que significa para as pessoas serem cada vez mais afetadas pela ilusão.”
Por sua vez, Lemoine disse que as pessoas têm o direito de moldar a tecnologia que pode afetar significativamente suas vidas. “Acho que essa tecnologia será incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós do Google não devêssemos fazer todas as escolhas. “
O post do Google Engineer diz que a IA da empresa ganhou vida própria apareceu pela primeira vez no Olhar Digital.