Tamanho do texto

Professora de Stanford trabalha na criação de eletrônicos para tornar robôs rapazes de entender o ambiente em que estão

BBC

Especialistas acreditam que a inteligência das máquinas se equiparará à de humanos até 2050, graças a uma nova era na sua capacidade de aprendizado. Computadores já estão começando a assimilar informações a partir de dados coletados, da mesma forma que crianças aprendem com o mundo ao seu redor.

Programa criado para fazer com que computadores consigam desenvolver inteligência
BBC
Programa criado para fazer com que computadores consigam desenvolver inteligência

Isso significa que estamos criando máquinas que podem ensinar a si mesmas a participar de jogos de computador – e ser muito boas neles – e também a se comunicar simulando a fala humana, como acontece com os smartphones e seus sistemas de assistentes virtuais.

Fei-Fei Li, professora da Universidade de Stanford e diretora do laboratório de visão computacional da instituição, passou os últimos 15 anos ensinando computadores a enxergar.

Seu objetivo é criar olhos eletrônicos para robôs e máquinas e torná-los capazes de entender o ambiente em que estão. Metade da capacidade cerebral de um humano é usada no processamento visual, algo que fazemos sem um grande esforço aparente.

"Ninguém diz para uma criança como enxergar. Ela aprende isso por meio de experiências e exemplos do mundo real", explicou Li em sua palestra na conferência TED neste ano. 

"Se você pensar, os olhos de uma criança são como um par de câmeras biológicas que tiram fotografias a cada 200 milissegundos, o tempo médio dos movimentos oculares. Então, aos 3 anos de idade, uma criança teria centenas de milhões de fotos. Isso é um grande treinamento."

Ela decidiu ensinar computadores da mesma forma. "Em vez de só me concentrar em criar em algoritmos cada vez melhores, minha ideia é dar aos algoritmos o treinamento que crianças recebem por meio de experiências, quantitativamente e qualitativamente."

Treinamento
Em 2007, Li e um colega de profissão deram início a uma tarefa desafiadora: filtrar e identificar um bilhão de imagens obtidas na internet para que sirvam de exemplos do que é o mundo real para um computador.

Eles pensavam que, se uma máquina visse imagens suficientes de uma determinada coisa, como um gato, por exemplo, seria capaz de reconhecer isso na vida real, e pediram ajuda em plataformas de colaboração online nas quais conseguiram o apoio de 50 mil pessoas de 167 países. Ao fim, tinham a ImageNet, uma base de dados com 15 milhões de imagens relativas a 22 mil tipos de objetos, organizada de acordo com seus nomes em inglês.

Isso se tornou um recurso valioso usado por cientistas ao redor do mundo que buscam conferir aos computadores uma forma de visão.

Todos os anos, a Universidade de Stanford realiza uma competição, convidando empresas como Google, Microsoft e a chinesa Baidu, para testar a performance de seus sistemas com base na ImageNet.

Nos últimos anos, os sistemas se tornaram especialmente bons em reconhecer imagens, com uma margem de erro média de apenas 5%. Para ensinar computadores a reconhecê-las, Li e sua equipe usaram redes neurais, nome dado a programas de computador feitos a partir de células artificiais que funcionam de forma muito semelhante à de um cérebro humano.

Uma rede neural dedicada a interpretar imagens pode ter desde algumas centenas a até milhões desses neurônios artificiais, dispostos em camadas. Cada uma delas reconhece diferentes elementos de uma imagem. – uma se é feita de pixels, outra para cores, uma terceira para determinar seu formato, e assim por diante.

Ao chegar à camada superior – e as redes neurais hoje têm até 30 camadas –, a rede é capaz de ter uma boa noção do que se trata a imagem.

Em Stanford, uma máquina assim agora escreve legendas precisas para vários tipos de imagens, apesar de ainda cometer erros, como, por exemplo, dizer que uma foto de um bebê segurando uma escova de dente foi identificada como "um menino segurando um taco de beisebol".

A professora Fei-Fei Li, da Universidade de Stanford: objetivo de tornar computadores humanizados
BBC
A professora Fei-Fei Li, da Universidade de Stanford: objetivo de tornar computadores humanizados

Apesar de uma década de trabalho duro, disse Li, a máquina ainda tem a inteligência de uma criança de 3 anos. E, ao contrário do infante, ela não é capaz de compreender contextos. "Até agora, ensinamos um computador a ver objetivamente ou a nos contar uma história simples quando vê uma imagem."

Mas, quando pede para que a máquina avalie uma imagem de seu filho em uma festa de família, o computador simplesmente diz se tratar de um "menino de pé ao lado de um bolo". A máquina não entende que é um doce especial servido apenas na época da Páscoa.

Este é o próximo passo de sua pesquisa no laboratório: fazer com que os computadores compreendam uma cena por completo, além de comportamentos humanos e as relações entre diferentes objetos.

O objetivo é criar robôs que "enxergam" para que auxiliem em cirurgias, buscas e resgates e, no fim das contas, promovam melhorias em nossas vidas, segundo Li.

Progresso
O complexo trabalho realizado em Stanford tem como base o lento progresso obtido na área nos últimos 60 anos. Em 1950, o cientista da computação britânico Alan Turing já especulava sobre o surgimento de uma máquina pensante, e o termo "inteligência artificial" foi cunhado em 1956 pelo cientista John McCarthy.

Após alguns avanços significativos nos anos 1950 e 1960, quando foram criados laboratórios de inteligência artificial em Stanford e no Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês), ficou claro que a tarefa de fazer uma máquina assim seria mais difícil do que se pensava.

Veio então o chamado "inverno da inteligência artificial", um período sem grandes descobertas na área e com uma forte redução no financiamento de suas pesquisas.

Mas, na década de 1990, a comunidade dedicada à inteligência artificial deixou de lado uma abordagem baseada na lógica, que envolvia criar regras para orientar um computador como agir, para uma abordagem estatística, usando bases de dados e pedindo para a máquina analisá-los e resolver problemas por conta própria.

Cena de
Divulgação
Cena de "Blade Runner - O Caçador de Andróides": na vida real, desenvolver robôs é mais difícil

Nos anos 2000, um processamento de dados mais veloz e a grande oferta de dados criaram um ponto de inflexão para a inteligência artificial, fazendo com que a tecnologia esteja presenta em muitos dos serviços que usamos atualmente

Ela permite que a Amazon recomende livros, o Netflix indique filmes e o Google ofereça resultados de buscas mais relevantes. Algoritmos passaram a estarem presentes nas negociações feitas em Wall Street, indo às vezes longe demais, como em 2010, quando um deles foi apontado como culpado pela perda de bilhões de dólares na Bolsa Nova York.

Também serviu de base para os assistentes virtuais de smartphones, como Siri, da Apple; Now, do Google; e Cortana, da Microsoft.

Neste momento, máquinas assim estão aprendendo em vez de pensar. É alvo de controvérsia se é possível programar uma delas para pensar, já que a complexa natureza do pensamento humano tem intrigado cientistas e filósofos há séculos.

E, ainda assim, restarão elementos da mente humana, como sonhar acordado, por exemplo, que máquinas nunca serão capazes de replicar.

Fato é que a habilidade destes computadores vem melhorando, e a maioria das pessoas concorda que a inteligência artificial está entrando em sua era de ouro e só se tornará mais eficiente daqui em diante.

    Faça seus comentários sobre esta matéria mais abaixo.