В идеале судья должен доказать, почему он считает игрока машиной, то есть руководствуется расчётом. Если он чувствует, где машина, но обосновать не может, - уже нечто другое. Тогда используется статистическая проверка, процент правильных угадываний.
Если предположить, что существует формальное доказательство, которое на основании какой-то последовательности ответов позволяет утверждать, что это отвечала машина, то это доказательство под силу и машине. Компьютер с формальными доказательствами обращается хорошо, они для него не являются препятствием. А раз так, то игрок-компьютер может отвечать так, чтобы не давать повода для этого доказательства. Иными словами, существование формального доказательства равносильно тому, чтобы судья-компьютер мог отличить машину от человека, но так не получится, ведь действия судьи-компьютера предсказуемы для игрока-компьютера, и он может избежать разоблачения
( ... )
Примерно так: Человек находит дырку в логике компьютера, и пользуясь ей, отличает компьютер от человека. Компьютер заделывает дырку (он всегда может это сделать, логика же). Человек находит следующую дырку. Фишка в том, что мышление человека развивается, а компьютер, как предполагается, не способен к самостоятельному развитию, что в него заложили, то и носит.
Машина (робот, компьютер, AI) может иметь причины быть (или не быть) обнаруженой, не совпадающие с испытателем. Ну и наборот, испытуемый человек может захотеть замаскироваться под компьютер . Ср. у Лема "Дознание" в рассказах о пилоте Пирксе или True Names Винджа. Но я подозреваю у AI это будет лучше получаться - как маскироваться, так и судить - потому что даже у настоящего AI будут (в первых итерациях) создатели - люди.
А может этот тест просто совсем не то, чем кажется? Если не снабдить компьютер информацией о том, когда человек делает ошибки, то он не будет делать ошибки там, где их совершает человек. Например, будучи осведомленным, например, в том, что человек способен учитывать прошлый опыт, он будет отвечать правильно (Иллюзия Шарпантье) там, где большинство людей совершит ошибку.
Comments 6
то есть руководствуется расчётом. Если он чувствует, где машина,
но обосновать не может, - уже нечто другое. Тогда используется
статистическая проверка, процент правильных угадываний.
Reply
Reply
Человек находит дырку в логике компьютера,
и пользуясь ей, отличает компьютер от человека.
Компьютер заделывает дырку
(он всегда может это сделать, логика же).
Человек находит следующую дырку.
Фишка в том, что мышление человека развивается,
а компьютер, как предполагается, не способен
к самостоятельному развитию,
что в него заложили, то и носит.
Reply
Reply
Reply
Если не снабдить компьютер информацией о том, когда человек делает ошибки, то он не будет делать ошибки там, где их совершает человек.
Например, будучи осведомленным, например, в том, что человек способен учитывать прошлый опыт, он будет отвечать правильно (Иллюзия Шарпантье) там, где большинство людей совершит ошибку.
Reply
Leave a comment