Ads Top

O segredo assustador por trás do poder Incrível da Inteligência Artificial


Pookily poderosos sistemas de inteligência artificial (AI) podem funcionar tão bem porque a sua estrutura explora as leis fundamentais do universo, sugere nova pesquisa.

As novas descobertas podem ajudar a responder a uma longa mistério sobre uma classe de inteligência artificial que empregam uma estratégia chamada de aprendizado profundo . Estes programas de aprendizagem profunda ou rede neural profunda, como são chamados, são algoritmos que têm muitas camadas nas quais os cálculos de nível inferior alimentam mais altas. Redes neurais profundas, muitas vezes executar surpreendentemente bem na resolução de problemas tão complexos como bater o melhor jogador do mundo do jogo de tabuleiro estratégia de fotos Ir ou classificar gato, mas sei que um totalmente compreendido por que.

Acontece que, uma razão pode ser que eles estão batendo em propriedades muito especiais do mundo físico, disse Max Tegmark, um físico do Instituto de Tecnologia de Massachusetts (MIT) e um co-autor do novo estudo.

As leis da física única apresentar esta "classe muito especial de problemas" - os problemas que AI brilha na resolução de problemas, Tegmark disse Ciência Viva. "Esta pequena fração dos problemas que a física nos faz preocupam e a pequena fração dos problemas que as redes neurais podem resolver são mais ou menos o mesmo", disse ele.

Aprendizagem profunda

No ano passado, AI realizou uma tarefa muitas pessoas pensavam impossível: DeepMind, sistema de IA aprendizagem profunda do Google, derrotou o melhor jogador Go do mundo depois derrotando o campeão europeu Go . A façanha surpreendeu o mundo, porque o número de potenciais movimentos Vão excede o número de átomos no universo, e passados robôs Go-jogando realizada apenas, bem como um jogador humano medíocre.

Mas ainda mais surpreendente do que derrota absoluta do DeepMind de seus adversários era como ele realizou a tarefa.

"A grande mistério por trás de redes neurais é por isso que eles funcionam tão bem", disse o co-autor do estudo Henry Lin, físico da Universidade de Harvard. "Quase todos os problemas que jogar com eles, eles crack."

Por exemplo, DeepMind não foi ensinado explicitamente estratégia Go e não foi treinado para reconhecer sequências clássicas de movimentos. Em vez disso, ele simplesmente "assistiu" milhões de jogos, e em seguida, jogou muitos, muitos mais contra si mesmo e os outros jogadores.

Como recém-nascidos, estes algoritmos de aprendizagem profunda começar "sem noção", mas normalmente superar outros algoritmos de inteligência artificial que são dadas algumas das regras do jogo antes, disse Tegmark.

Outro mistério de longa data é por isso que essas redes profundas são muito melhor do que os chamados aqueles rasos, que contêm tão pouco quanto uma camada, disse Tegmark. Redes profundas têm uma hierarquia e olhar um pouco como conexões entre os neurônios no cérebro , com dados de nível mais baixo de muitos neurônios alimentação para outro grupo "superior" de neurônios, repetida ao longo de muitas camadas. De um modo semelhante, as camadas profundas destas redes neurais fazer alguns cálculos, e em seguida alimentar esses resultados a uma camada superior do programa, e assim por diante, disse.

Mágica chaves ou fechaduras mágicas?

Para entender por que esse processo funciona, Tegmark e Lin decidiu virar a questão em sua cabeça.

"Suponha que alguém lhe deu uma chave. Cada bloquear você tentar, parece abrir. Pode-se supor que a chave tem algumas propriedades mágicas. Mas outra possibilidade é que todas as fechaduras são mágicas. No caso de redes neurais, eu suspeito que é um pouco de ambos ", disse Lin.

Uma possibilidade poderia ser que os problemas do "mundo real" têm propriedades especiais, porque o mundo real é muito especial, disse Tegmark.

Tome um dos maiores mistérios de rede neural: Estas redes muitas vezes tomam o que parecem ser problemas computacionalmente cabeludas, como o jogo de Go, e de alguma forma encontrar soluções que usam muito menos cálculos que o esperado.

Acontece que a matemática empregado por redes neurais é simplificada graças a algumas propriedades especiais do universo. A primeira é que as equações que governam muitas leis da física, da mecânica quântica da gravidade a relatividade especial, são essencialmente problemas de matemática simples, disse Tegmark. As equações envolvem variáveis elevado a uma potência baixa (por exemplo, 4 ou menos). [ Os 11 Mais Belos Equações ]

Além do mais, os objetos do universo são governados por localidade , o que significa que são limitados pela velocidade da luz . Em termos práticos, isso significa que os objetos vizinhos no universo são mais propensos a influenciar uns aos outros do que as coisas que estão longe um do outro, disse Tegmark.

Muitas coisas no universo também obedecer ao que é chamado de uma distribuição normal ou de Gauss. Este é o clássico "curva do sino" que governa tudo, de características como altura humana para a velocidade das moléculas de gás zoom na atmosfera .

Finalmente, a simetria está entrelaçada no tecido da física. Pense do padrão veiny em uma folha, ou os dois braços, olhos e ouvidos do ser humano médio. Na escala galáctica, se viaja um ano-luz para a esquerda ou direita, ou espera de um ano, as leis da física são as mesmas, disse Tegmark.

Problemas mais difíceis de crack

Todas estas características especiais do universo significa que os problemas enfrentados redes neurais são realmente problemas de matemática especiais que podem ser simplificados radicalmente.

"Se você olhar para a classe de conjuntos de dados que realmente se deparar na natureza, eles são muito mais simples do que o tipo de cenário de pior caso que você pode imaginar", disse Tegmark.

Há também problemas que seriam muito mais difícil para as redes neurais de crack, incluindo esquemas de criptografia que protegem informações na web; esses regimes só olhar como ruído aleatório.

"Se você alimentar isso em uma rede neural, que vai deixar tão mal como eu sou, não vai encontrar quaisquer padrões", disse Tegmark.

Enquanto as leis subatômicas da natureza são simples, as equações que descrevem um vôo zangão são incrivelmente complicado, enquanto as moléculas de gás que regem permanecer simples, Lin acrescentou. Ainda não está claro se o aprendizado profundo irá executar tão bem descrevendo esses voos zangão complicadas como ele irá descrever as moléculas de gás, disse ele.

"O ponto é que algumas leis 'emergentes' da física, como as que regem um gás ideal, continuam a ser bastante simples, enquanto alguns se tornam bastante complicado. Portanto, há uma grande quantidade de trabalho adicional que precisa ser feito se alguém vai responder em detalhadamente por que o aprendizado profundo funciona tão bem ". disse Lin. "Acho que o artigo levanta mais perguntas do que respostas!"

Postar um comentário
Tecnologia do Blogger.