O LaMDA atraiu quase todos os holofotes para si. Em junho de 2022, um engenheiro do Google alegou que o sistema de inteligência artificial (IA) da companhia era senciente. O caso, obviamente, chamou a atenção – e despertou alguns temores: afinal, as máquinas, enfim, estão "ganhando vida"? Haveria um futuro apocalíptico? E o mais importante: isso é realmente possível?
Pois é, muitas discussões surgiram depois que o engenheiro Blake Lemoine revelou o documento "Is LaMDA Sentient? – an Interview" ("LaMDA é senciente? – uma entrevista", em tradução livre). Através da publicação, ele ressaltou que o sistema "dá suas opiniões sobre o que o diferencia dos sistemas anteriores". Além disso, o engenheiro relatou que a inteligência artificial demonstrou o seu desejo de ser tratado como uma pessoa, emoções, sentimentos próprios e até cometeu um ato falho (!).
Confesso que, quando li a entrevista feita pelo engenheiro com o LaMDA (Language Model for Dialogue Applications), cheguei a me assustar em primeiro momento, já pensando em vários livros e filmes sobre o tema. Mas fiquei me perguntando: a inteligência artificial está ganhando vida própria? Como isso poderia acontecer? É possível especular as consequências, em um suposto caso afirmativo?
Eu conversei com professores de três universidades do Rio de Janeiro (RJ) para tirar essas dúvidas. E você pode conferir as respostas nas linhas a seguir.
"Quanto a ganhar 'vida própria', vamos com calma!"
Alfredo Boente é coordenador dos cursos de Engenharia da Computação e Ciência da Computação na Universidade Veiga de Almeida (UVA) do campus Tijuca. O professor também é doutor em Engenharia de Produção, com ênfase em tomada de decisão com IA (Lógica Fuzzi), pela Coppe/UFRJ.
Quando questionado se a inteligência artificial está ganhando "vida própria", o professor explicou o seguinte ao Tecnoblog:
"Essa pergunta poderia até gerar medo em algumas pessoas. Os sistemas que são providos de inteligência computacional e que têm a capacidade de tomar decisões são tecnicamente denominados de 'Sistemas Especialistas'. Ter capacidade de tomada de decisão nos reporta a um limite, o que chamamos de limite computacional. Quanto a ganhar 'vida própria', vamos com calma!", disse.
"Os sistemas especialistas são munidos de métodos e técnicas de IA, compostas por algoritmos expertos, conjunto de regras, mecanismo de inferência, e apresentam 'capacidade' de simular o raciocínio humano. O que chamamos de simular o 'raciocínio humano' limita-se à capacidade de aprendizagem por meio de algoritmos que faz com que a máquina possa 'pensar' em melhores alternativas para o processo de tomada de decisão de âmbito geral (nas empresas, indústrias etc)", acrescentou.
Mas e se tudo isso, de fato, acontecer, quais seriam as consequências?
"Essa pergunta fica difícil de responder, pois o que chamamos de caso afirmativo seria no caso de ganhar 'vida própria'. A inteligência artificial está inserida no nosso cotidiano, isto é fato. Na indústria 4.0, temos diversas aplicações em que ela se encontra inserida, como, por exemplo, internet das coisas, big data, cloud computing etc. O futuro não tão distante da inteligência artificial está no que hoje chamamos de metaverso. Mas, isso é assunto para outro momento", respondeu.
Mas o que está por trás da inteligência artificial?
Também conversei com Augusto Baffa, professor do Departamento de Informática do Centro Técnico Científico da PUC-Rio. Ele explicou como é o funcionamento por trás do que chamamos de inteligência artificial.
"Primeiramente, precisamos entender como a Inteligência Artificial (IA) realiza suas tarefas. A IA é composta por uma série de técnicas que podem ser combinadas para resolver problemas específicos. Houve grandes avanços de reconhecimento de padrões, geração e compreensão de imagens e de linguagem natural", afirmou.
Isso não significa que a IA compreende (como um humano) o que realmente está fazendo. A IA utiliza uma série de procedimentos estatísticos e matemáticos para justamente levar a entrada (pergunta) à saída (resposta) e, neste caminho, simplesmente processa os dados e retorna os resultados.
Claro que seu objetivo é fornecer respostas de alta qualidade, mas isso não significa que está de fato tendo algum tipo de consciência.
Em outras palavras: a IA não compreende os problemas como um humano. Na verdade, esses sistemas utilizam uma série de procedimentos para processar dados solicitados pelos usuários.
Mas como essas respostas são criadas? Ao Tecnoblog, o professor afirmou o seguinte:
"Para entendermos como os algoritmos conseguem criar uma resposta inteligente, é preciso conhecer o procedimento de aprendizado. Em geral, nós alimentamos estes algoritmos com definições quanto aos conceitos e emoções envolvidas naquilo que queremos 'reproduzir’. Significa dizer que a IA pode ter respostas próximas ao que chamamos de 'raciocinar’ como uma pessoa, mas, na verdade, ela estará reproduzindo mecanicamente sua forma de pensar, de acordo com o que foi ensinado. Quanto mais informações a IA é capaz de adquirir e processar, mais complexas podem ser suas respostas, porém ela apenas estará seguindo seu roteiro, adquirido durante o aprendizado. Podemos simular a criatividade, através de seleções aleatórias de respostas dentro de um mesmo contexto e até mesmo simular emoções através de índices emocionais nos quais a máquina poderá se basear para selecionar suas respostas, mas, ainda assim, não haverá uma consciência de si mesma ou do que ela está fazendo. Claro que poderemos perguntar coisas com 'você está viva? O que pensa sobre você?' e ela poderá criar uma resposta coerente baseada em seu conhecimento adquirido, mas será apenas uma reprodução de algo que foi incluído em sua programação", explicou.
Então a IA da atualidade não é senciente, certo?
"A grande questão é: a nossa IA atual é senciente? Ainda não, a menos que nós a façamos 'simular' ou 'imitar' o que isso significa. A IA pode se tornar senciente um dia? Acredito que, se isso um dia for realidade, ainda estamos longe dela", disse.
Dos livros e filmes para a realidade
Carlos Eduardo Pedreira é professor do Programa de Engenharia de Sistemas e Computação da COPPE/UFRJ e chefe da linha de Inteligência Artificial do PESC. De início, ele destacou alguns pontos do episódio envolvendo o Blake Lemoine:
"Recentemente, a divulgação de que um engenheiro da Google conclui que um sistema de Inteligência Artificial (IA), chamado LaMDA, teria se mostrado senciente e demonstrado emoções, opiniões e sentimentos próprios (inclusive, defendendo que deveria ser considerado como uma pessoa) vem provocando grande impacto, movimentando animadas discussões sobre o tema em várias esferas".
Mais adiante, o professor observou como a IA é retratada tanto na literatura quanto no cinema:
"A fascinante (e apavorante) ideia de que um sistema de IA possa se aproximar do comportamento humano (e mesmo fugir a seu controle) vem, há muito, encontrando espaço em nosso imaginário através da literatura e do cinema. Por exemplo, o interessantíssimo livro 'Origem' de Dan Brown é uma oportunidade para viajar por uma Espanha onde, em meio a obras de artes plásticas e símbolos enigmáticos, um sistema de IA parece fugir ao controle de seu criador, ganhando autonomia e vontade própria. Já no belíssimo, e lúdico, filme 'Ela' de Spike Jonze, um escritor solitário se apaixona pela voz de um sistema de IA com o qual termina por ter uma intensa relação amorosa".
Mas a ficção, devemos sempre reforçar, não reflete necessariamente a realidade:
"Sistemas de IA são modelos matemáticos que aprendem (isso é, são ajustados) a partir de dados. Com a enorme capacidade de processamento computacional que temos atualmente, é possível construir sistemas poderosíssimos, impensáveis há uns anos. Com respeito ao LaMDA, é muito difícil de se afirmar que os dados (e modelos) utilizados por seus desenvolvedores não tenham sido os reais responsáveis por essas reações tidas como 'próprias'. Muito difícil saber se, conscientemente ou não, não tenham sido seus próprios projetistas os que direcionaram as respostas da máquina no sentido de induzir uma sensação de autoconsciência (sem que essa efetivamente exista). A verdade é que indiscutivelmente essa entrevista da criatura, realizada por seus criadores, gerou um grande impacto midiático".
Mas qual é o verdadeiro propósito desses sistemas? O professor deu sua explicação ao Tecnoblog:
"Por outro lado, é muito importante lembrar que o objetivo central de qualquer sistema de IA é ser capaz de extrapolar para além dos dados a ele apresentados, e um excelente exemplo disso é o sistema Alphago que conseguiu efetivamente aprender um complexo jogo oriental a ponto de vencer seu campeão mundial. Mas a distância entre os indiscutíveis sucessos de aplicações de IA e se poder dizer que um sistema é senciente, é muito grande. Me parece que a entrevista dos pesquisadores do Google com o LaMDA é uma evidência fraca para afirmar que a máquina tem autoconsciência. E claro que do ponto de vista científico, é sempre prudente ter uma boa dose de ceticismo. Apesar de muito ter sido feito nos últimos anos, ainda temos um enorme espaço para aplicações de IA em setores que geram um forte impacto em nosso bem-estar, como por exemplo saúde e educação. E é aí que deveríamos concentrar a atenção, esforço e investimentos".
Mas e amanhã?
"Será possível um dia construir um sistema de IA que tenha vontade própria? Que sinta e se emocione? Aqui não vou me arriscar. Quase todos os que no passado afirmaram 'isso é impossível' com respeito a desenvolvimentos científicos, perderam a aposta".
O que diz o Google?
O Tecnoblog também entrou em contato com o Google. Confira a resposta do porta-voz Brian Gabriel na íntegra:
"É importante destacar que os princípios da Inteligência Artificial do Google são integrados ao desenvolvimento da IA, e o LaMDA não é uma exceção. Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, com a LaMDA, estamos adotando um enfoque cuidadoso e ponderado para levar em consideração as preocupações válidas sobre imparcialidade e veracidade.
O LaMDA passou por 11 diferentes revisões a partir dos nossos Princípios de IA, junto a pesquisas e testes rigorosos, baseados em medidas fundamentais de qualidade, segurança e na capacidade do sistema em produzir comunicações fundamentadas em fatos. Um trabalho de pesquisa divulgado no início deste ano detalha o trabalho que está sendo feito para o desenvolvimento responsável do LaMDA.
Claro que, na ampla comunidade de IA, alguns consideram que a longo prazo pode haver a possibilidade de uma IA senciente. Entretanto, não faz sentido fazer isso antropomorfizando os modelos de conversação que existem hoje, que não são sencientes.
Os sistemas atuais imitam os tipos de troca encontrados em milhões de frases e podem improvisar quando se deparam com qualquer tópico fora do comum. Por exemplo, se você perguntar como é ser um dinossauro de sorvete, os algoritmos podem gerar um texto sobre derreter e rugir - e assim por diante.
O LaMDA tende a acompanhar os comandos e as perguntas principais, seguindo o padrão definido pelo usuário. Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os nossos Princípios de IA e o informou que as evidências não respaldam suas alegações.
Centenas de pesquisadores e engenheiros conversaram com o LaMDA e não temos conhecimento de mais ninguém fazendo as afirmações, abrangentes ou antropomorfizando o LaMDA, da maneira que Blake fez".