Игра в имитацию

Sep 11, 2015 23:44

Тест Тьюринга глубже и конструктивнее, чем люди обычно себе представляют ( Read more... )

математика, подумалось

Leave a comment

Comments 6

sudzume September 12 2015, 10:54:06 UTC
В идеале судья должен доказать, почему он считает игрока машиной,
то есть руководствуется расчётом. Если он чувствует, где машина,
но обосновать не может, - уже нечто другое. Тогда используется
статистическая проверка, процент правильных угадываний.

Reply

gul_kiev September 13 2015, 05:37:07 UTC
Если предположить, что существует формальное доказательство, которое на основании какой-то последовательности ответов позволяет утверждать, что это отвечала машина, то это доказательство под силу и машине. Компьютер с формальными доказательствами обращается хорошо, они для него не являются препятствием. А раз так, то игрок-компьютер может отвечать так, чтобы не давать повода для этого доказательства. Иными словами, существование формального доказательства равносильно тому, чтобы судья-компьютер мог отличить машину от человека, но так не получится, ведь действия судьи-компьютера предсказуемы для игрока-компьютера, и он может избежать разоблачения ( ... )

Reply

sudzume September 13 2015, 10:02:06 UTC
Примерно так:
Человек находит дырку в логике компьютера,
и пользуясь ей, отличает компьютер от человека.
Компьютер заделывает дырку
(он всегда может это сделать, логика же).
Человек находит следующую дырку.
Фишка в том, что мышление человека развивается,
а компьютер, как предполагается, не способен
к самостоятельному развитию,
что в него заложили, то и носит.

Reply

gul_kiev September 13 2015, 12:00:01 UTC
Пожалуй, можно, только не "дырку в логике", а отсутствие понимания ( ... )

Reply


is39 September 28 2015, 13:38:23 UTC
Машина (робот, компьютер, AI) может иметь причины быть (или не быть) обнаруженой, не совпадающие с испытателем. Ну и наборот, испытуемый человек может захотеть замаскироваться под компьютер . Ср. у Лема "Дознание" в рассказах о пилоте Пирксе или True Names Винджа. Но я подозреваю у AI это будет лучше получаться - как маскироваться, так и судить - потому что даже у настоящего AI будут (в первых итерациях) создатели - люди.

Reply


is4umielofon January 8 2018, 04:32:47 UTC
А может этот тест просто совсем не то, чем кажется?
Если не снабдить компьютер информацией о том, когда человек делает ошибки, то он не будет делать ошибки там, где их совершает человек.
Например, будучи осведомленным, например, в том, что человек способен учитывать прошлый опыт, он будет отвечать правильно (Иллюзия Шарпантье) там, где большинство людей совершит ошибку.

Reply


Leave a comment

Up