Cientistas na Grã-Bretanha dizem ter desenvolvido um computador que "joga videogames melhor que humanos"

BBC

Usando um software inspirado no cérebro humano, o computador teria "aprendido" 49 jogos do console Atari.

LEIA TAMBÉM:
Podemos perder todos os nossos arquivos digitais?

Computador joga games de Atari, como Pac Man
BBC
Computador joga games de Atari, como Pac Man

E, em mais de metade dos jogos, a máquina teve desempenho melhor que jogadores profissionais, segundo um artigo publicado na revista científica Nature.

Pesquisadores do laboratório DeepMind, que pertence ao Google, dizem que esta é a primeira vez que uma máquina aprendeu a desenvolver uma série de tarefas consideradas complexas.

"Até hoje, sistemas capazes de aprender só podiam ser usados para resolver problemas simples", explica Demis Hassabis, vice-presidente de Engenharia do DeepMind.

"Pela primeira vez, usamos um sistema para cumprir tarefas que são desafiadoras para humanos".

Deep Blue

Empresas de tecnologia estão investindo pesado em inteligência artificial. Em 2014, por exemplo, o Google teria pago US$ 400 milhões para adquirir o controle do DeepMind.

Não é, porém, a primeira vez que um computador consegue desenvolver tarefas complexas.

Em 1997, o Deep Blue, um computador capaz de jogar xadrez, derrotou ninguém menos que o então campeão mundial, o russo Gary Kasparov.

Porém, aquele sistema tinha sido pré-programado com um manual de instruções. A diferença para o sistema da DeepMind é que ele foi programado apenas com informações básicas antes de começar a jogar.

"A única informação que demos para o sistema foi um panorama dos píxeis da tela e a ideia de que conseguir uma alta de pontos era um objetivos. Todo o resto ele teve que aprender sozinho", explica Hassabis.

A equipe fez com que o computador jogasse 49 fitas antigas diferentes, incluindo clássicos como Space Invaders e Pong, passando por jogos de esporte (tênis e boxe) e o jogo de corridas Enduro.

Em 29 deles, foi tão bom ou melhor que jogadores profissionais. Em Video Pinball, Boxing e Breakout, o desempenho foi muito melhor que o de humanos.

Mas o sistema "apanhou" dos humanos em jogos como Pac Man e Montezuma's Revenge.

"Pode parecer trivial, pois estamos falando de jogos dos anos 80, com soluções fáceis", diz Hassabis.

"O que não é trivial, porém, é um sistema que pode aprender o que fazer a partir da tela. Ele pode jogar 49 jogos sem qualquer programação. Você, literalmente, dá ao sistema um novo jogo e uma nova tela, e ele descobra o que fazer depois de apenas algumas horas de prática."

A pesquisa é o mais recente desenvolvimento no campo da chamada deep learning ("aprendizagem profunda", em inglês), que trabalha em prol de máquinas "inteligentes".

Lidar com o inesperado

Cientistas estão trabalhando em programas de computador que, como o cérebo humano, podem ser expostos a grandes quantidades de dados, como imagens e sons, e deles extrair informações e padrões de forma intuitiva.

Os exemplos incluem computadores que podem escanear milhões de imagens e entender o que estão vendo – podem dizer se um gato é um gato, por exemplo. Essa habilidade é fundamental para carros autopilotáveis, que requerem uma boa percepção de seus arredores.

Há também máquinas que entendem a fala humana, o que pode ser usado em sistemas de reconhecimento de voz mais sofisticados, incluindo traduções em tempo real.

"Um dos obstáculos para a robótica hoje é que essas máquinas têm de lidar com o inesperado. Você não pode programá-las para tudo que pode acontecer", explica Hassabis.

"Por isso, essas máquinas precisam de inteligência adaptável e precisam aprender por si mesmas."

Mas há quem tema que criar computadores mais inteligentes que humanos pode ser perigoso. Em dezembro, o físico Stephen Hawking disse considerar que o desenvolvimento de inteligência artificial poderia "acabar com a raça humana"

    Faça seus comentários sobre esta matéria mais abaixo.