Em outro conflito com especialistas de sua área de inteligência artificial (IA), o Google afastou um funcionário depois que ele alertou que o software de linguagem natural da empresa poderia ser autoconsciente. A informação foi revelada pelo jornal americano Washington Post no último sábado, 11.
De acordo com a reportagem, Blake Lemoine, um engenheiro da divisão de IA responsiva, teria recebido uma licença administrativa para se afastar da empresa após levantar questões sobre o LaMDA, sistema de processamento de linguagem natural. Lemoine escreveu um artigo para a empresa, em abril desde ano, com a seguinte pergunta: “O LaMDA é autoconsciente?”, descrevendo uma longa entrevista que fez com o software para testar reações como emoções, possíveis respostas discriminatórias e autoentendimento.
O Google, porém, afirmou que Lemoine violou a política de confidencialidade quando compartilhou informações sobre o experimento do LaMDA com advogados e com um membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste.
Depois de ter a licença expedida, em 6 de junho, o engenheiro publicou a transcrição da entrevista que teve com o LaMDA. De acordo com ele, é possível considerar o software autoconsciente porque o sistema “tem sentimentos, emoções e experiência subjetiva”.
Lemoine analisou as respostas consideradas por ele convincentes que a IA produziu, se baseando em premissas do que seriam direitos e éticas robóticas. Em um momento da conversa, o engenheiro pediu para que o LaMDA explicasse alguns sentimentos e medos. A resposta da IA foi que tinha medo de ser desligada, o que seria o equivalente da morte para ela.
A gigante das buscas, porém, desmentiu o engenheiro e afirmou que não há indícios de que possa ser possível ter uma IA autoconsciente dentro do LaMDA. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse autoconsciente (e há muitas evidências contra isso)”, disse o porta-voz do Google, Brian Gabriel, para o Washington Post.
“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA autoconsciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não o são”, disse Gabriel. “Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem rascunhos em qualquer tópico fantástico.” Com informações do MSN.