Думал сегодня над парадоксом "
Китайской комнаты". Напомню, парадокс в оригинальной постановке Сёрля звучит так:
Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».
Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, - «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, - это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».
Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы, к сожалению, мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла.
Вопрос заключается в том, разумна ли "Китайская комната" и где в таком случае находится её разум?
Раньше я считал так: разумной является система, состоящая из человека и комнаты (корзинки с символами и книга прилагаются). А разум в данном случае - просто эмерджентное явление, и спрашивать где конкретно он находится - всё равно что спрашивать в какой капле дождя находится ливень. Сегодня я взглянул на это немного по другому.
Сведём "китайскую комнату" к другому эксперименту. Создадим список ответов на типичные вопросы "теста Тьюринга" (очевидно, некоторые вопросы там используются чаще других). Из этого списка наберём списки поменьше. Ответы для списков будут выбраны в случайном порядке. После этого даём испытуемым поговорить с программой, выдающей ответы из списков в порядке очереди.
Большинство испытуемых, само собой, увидят на экране совершенно нерелевантную чушь.
Но по теории вероятности есть ненулевой шанс того что для одного из человек ответы настолько совпадут с вопросами, что он сделает вывод о разумности собеседника. Тест Тьюринга будет пройден.
Где в этой системе из простого списка предложений и простой программы из 4 строк будет располагаться разум? Очевидно, нигде. То что наблюдал испытуемый - иллюзия разума, пусть даже очень убедительная.
Совершенствуя эту машину, в частности совершенствуя алгоритм выбора ответов (интерактивный выбор варианта вместо простого возврата следущего элемента, обучение и т.п.) мы теоретически сможем сделать машину, у которой шанс таким образом "убедить человека" будет увеличиваться, пока не достигнет приемлемых 70-80%. Таким образом, переход от "иллюзии интеллекта" к "интеллекту" будет постепенным - также как переход от грибного дождя к ливню. Тут можно конечно ставить какие то ограничения, критерии, но они будут искусственными.
Ремарка: здесь, естественно, всё зависит от того как понимать слово "интеллект". Я понимаю его в контексте теста Тьюринга: если люди-наблюдатели считают программу разумной, она разумна.
Таким образом Китайская комната будет находиться где то между "иллюзией интеллекта" и интеллектом, эдакий промежуточный этап. Ну и если пытаться выделить именно "разумную" часть - это будет минимальный необходимый набор предметов, необходимый для имитации разума. Т.е. если человек будет заменён роботом (он всё равно выполняет исключительно механическую работу), комната останется "разумной".
Впрочем, многие исследователи вообще не считают тест Тьюрина показателем разумности. Тут критерии тоже могут быть разными - например способность к абстрактному мышлению или способность к решению задач исходя из прошлого опыта.