Неуклонный прогресс

Mar 16, 2018 21:11

Очень хорошая статья в «Атлантике» о Дугласе Хофштадтере (по-английски): «Человек, который учит машины думать». Вспомнил о ней в недавнем разговоре, думаю, надо поделиться, хоть она и четырехлетней давности ( Read more... )

ai, science

Leave a comment

Comments 41

combinator30 March 17 2018, 09:35:10 UTC
Hofstadter wanted to ask: Why conquer a task if there’s no insight to be had from the victory? “Okay,” he says, “Deep Blue plays very good chess-so what? Does that tell you something about how we play chess? No.
=====================
Любопытно, что он думает на эту тему сегодня с учётом появления AlphaZero...

Reply

fregimus March 17 2018, 10:50:25 UTC
А в чем Вам видится принципиальное отличие?

Reply

combinator30 March 17 2018, 12:53:28 UTC
AlphaZero учится играть в разные игры сама, её оценка позиции гораздо ближе к той, которую дают профессиональные шахматисты, образы, которые при этом ею используются, в принципе, могут быть проанализированы и поняты человекам. Как-то так...

Reply

lenivtsyn March 17 2018, 13:49:27 UTC
(Встречал где-то, цитирую по памяти:) Когда шахматист играет в шахматы с машиной, это не машина поднимается до уровня человека, это человек опускается до уровня счётной машины.

Reply


misha_b March 17 2018, 15:30:23 UTC
Более правильной параллелью мне кажется поднимающася вода. Она может затопить равнины коммерческих приложений, но добраться то гор гораздо труднее.

Reply

anhinga_anhinga March 17 2018, 22:53:45 UTC
Да, это похоже на правду.

Главный вопрос, однако, насколько высоко находятся вершины, соответствующие способностям работать, скажем, младшим программистом... Действительно ли, это настолько сложнее, чем водить автомобиль?

Другими словами, можно ли, пользуясь теперешними методами добраться до состояния, когда искусственные системы начнут полноценно участвовать в попытке "понять понимание" (задача "понять понимание", возможно, нам самим не по зубам, но, быть может, мы можем сделать системы, во взаимодействии с которыми её можно будет решить)... Оптимистичный взгляд на предмет, видимо, отражен здесь: https://arxiv.org/abs/1711.08378 (A DeepMind paper, "Building Machines that Learn and Think for Themselves: Commentary on Lake et al., Behavioral and Brain Sciences, 2017")...

Reply

misha_b March 18 2018, 02:57:26 UTC
The current methods are based on functional approximation techniques and are not very different from what we had 20 years ago. Most of the advances are in optimization (using stochastic gradient descent) and in the technology (GPU). I am not sure about the value of very deep networks. In fact, we see that for many non-vision related problems classical methods (kernels) are very competitive, if optimized properly (using new techniques, including SGD) on large data.

I am skeptical that there is enough water in these methods to cover the mountains. Self-driving is a relatively easy problem, given large data. Programming requires communication skills and a lot more.

Reply

fregimus March 18 2018, 04:44:54 UTC
Здесь определенный прогресс все же есть, все свалить на более мощное железо было бы не совсем верным. В прикладном плане есть несколько изобретений (ну не открытиями же их называть, в конце концов!): DBN, dropout, RBM; из последнего CTC; оживление старых идей, в первую очередь LSTM, решает проблему исчезающих градиентов - это действительно за счет увеличения вычислительной мощности, позволившего достать их из стола. Скомбинируйте LSTM и CTC, чтобы решать задачи seq2seq, и получается машпер лучше прежнего.

Но это все технологии, фундаментального знания это не прибавляет, конечно, тут Х. прав.

Reply


Искусственный интеллект livejournal March 17 2018, 18:58:32 UTC

Leave a comment

Up