Искусственный интеллект

Apr 03, 2024 22:33


Это сложная и и необъятная тема, но наверное настала пора развеять некоторые общепринятые заблуждения. Сначала сюда, ибо повторять И. Ашманова не буду:  https://www.youtube.com/watch?v=vwtm9ZqHRQA&t=24s;    https://www.youtube.com/watch?v=9CqSU6AfLOI   и  https://www.youtube.com/watch?v=PMGw7atlLkE&t=0s Первые два видео надо смотреть обязательно, они содержательны в рамках выбранной темы. А третье по усмотрению, там в основном социология, которая ещё требует своего развития и осмысления.

Если взять расхожее определение ИИ из интернета -"Искусственный интеллект (англ. artificial intelligence) -это способность компьютера обучаться, принимать решения и выполнять действия, свойственные человеческому интеллекту", то под это определение попадут практически все пакеты для решения задач по математике и физике. Компьютер обучился, произвёл некие действия и выдал решение.  А попутно занёс в какую-то справочную таблицу полученный результат, так сказать, самообучился. Такие пакеты начали писать ещё в конце 1960-х годов. Но тогда об ИИ никто как-то не говорил.



А теперь сделаем простейшее наблюдение. Новорожденный потихоньку  растёт и примерно в год начинает говорить первые слова. Но никто даже не пытается научить его арифметике, совершенно бесполезно. В три года он уже произносит первые фразы, совершенно осмысленные. А к семи годам он знает больше 1000 слови вполне бегло разговаривает. И только в этот момент он начинает осваивать арифметику. Сначала было Слово. Цифра будет только потом. С компьютерами всё по-другому.  Сначала  была Цифра, первое Слово компьютер скажет примерно  через 35 лет. Именно этот разрыв и пытается сейчас закрыть чат Gpt, пробуя соединить Смысл (Слово) с Цифрой.

Наблюдение посложнее. Некто играет с компьютером в преферанс, не в интернете с реальными партнёрами, а именно с компьютером. Управляющая программа игры, которая раздаёт карты и следит за соблюдением правил, внимательно изучает манеру игры этого индивида. Как он торгуется за прикуп, на какие риски идёт, при какой игре на какой карте вистует и т. д. Накопленная информация сообщается программам остальных игроков. Что и позволяет им модифицировать свои действия по отношению к индивиду. Можем ли мы называть эту преферансную программу ИИ?

Автомобильный процессор, координирующий действия различных систем, копит статистику действий водителя в различных условиях. Как разгоняется, как тормозит, на какой скорости и каким радиусом проходит повороты, как часто пользуется кикдауном и т.д. И в зависимости от накопленной статистики меняет свои воздействия на системы автомобиля, делая авто или лениво-плавным, или напористо-агрессивным. Этот процессор уже и есть ИИ, или это всё же просто техническое устройство? Тоже самое можно сказать и про сервер, к которому подключён наш компьютер. Он тоже копит статистику наших сеансов и начинает подбрасывать нам похожую рекламу или иконки схожих сайтов.

Теперь рассмотрим, как эти примеры технологически связаны между собой. А связаны они единой методологией, а именно, набором статистики событий некого реального процесса и угадыванием вероятности следующего события из общего пространства событий. А если без прямого угадывания, то просто увеличением вероятности предугадываемого события. Назвать эту методологию научным достижением крайне сложно, хотя именно так и устроена платформа  Gpt.

А теперь исторический казус для поклонников Gpt.   Эта методология была придумана примерно  200 лет назад.  Сочинили её два англичанина, один из которых был чуть ли ни лордом. Они пытались расшифровать древнеегипетскую надпись на каком-то там камне, используя частоту появления одинаковых иероглифов на разных местах в тексте, и выбранные иероглифы они соотносили  с частотой слов в греческом переводе. Но в истории египтологии остались не они, а француз Жан Франсуа Шампильон. Он пошёл не от Цифры (частоты событий), а от Смысла, который зашифрован набором иероглифов. Вот этот Смысл ему и нужно было  найти.

Как он его нашёл сейчас не столь важно. Но именно он расшифровал египетскую письменность. Теперь мы опрокинем логику Шампильона с ног на голову. Он превратил неизвестный письменный способ представления данных в Смысл. В Смысл, понятный на его Языке. Что такое Язык пояснять  не буду. И с моей точки зрения задача, которая сейчас стоит перед разработчиками ИИ, должна формулироваться так:  превратить Смысл (высказывание, как в матлогике), выраженный неким Языком, в Цифру (коды, иероглифы и т. д.), однозначно трактуемые компьютером. Совершенно очевидно, что Gpt такой возможностью не обладает и обладать пока не может просто в силу того, что вместо семантической взаимосвязи Смыслов Gpt оперирует частотой касания (сопряжения) Смыслов.

В реальной жизни Смысл практически всегда дискретен, если только он изначально не заложен в вероятностное пространство событий. Ну, например, в поатомную имитационную модель ядерного взрыва. Здесь искомый Смысл, какая мощность взрыва получится, имеет выраженный вероятностный характер, а для взаимосвязи вероятности и мощности можно  даже построить свою функцию распределения. Определять некое, не семантическое, взаимодействие  обычных детерминированных Смыслов через вероятность того, какое слово из некого пространства событий стоит следующим после уже зафиксированного, конечно можно. И процесс этот удобно моделируется цепями Маркова. Надо только решить две задачи, построить персональные для каждого Слова пространства событий (вероятности орфографических касаний с другими Смыслами), и это уже вовсю делают асессоры из Индии и Нигерии, и запихнуть в компьютер правила грамматики. Именно это Gpt и делает. Но взаимосвязь детерминированных Смыслов не может ограничиваться ситуацией, когда в предложении Смыслы просто стоят один за другим. Совершенно очевидно, что именно эти Смыслы, не учтённые вероятностью касания между собой,   Gpt и отсекает. Из этого вовсе не следует, что Gpt это некий интеллектуальный тупик. Платформа уже сейчас удобна для написания презентаций, пресс-релизов, сообщений новостных лент, прочих малых форм  и т.д. Как это облегчит труд журналистов для меня не очень понятно.  Но новых знаний, а тем более открытий, Gpt точно не создаст никогда. Пока что новые знания создаёт только человеческий интеллект.

То, что американская пропаганда и журналисты с дурным образованием называют нейронными сетями,  способными к самообучению, таковыми вовсе не являются. Всё их "самообучение" сводится к статистическим наблюдениям, которые новых знаний не создают. Реальные нейронные сети, в том смысле, как их понимают специалисты по когнитивной нейробиологии,  просто по определению n-мерны. А Gpt в математическом смысле представляет из себя обычный двумерный граф, вообще никаким образом не организованный. На чёрную плоскость набросали белых кружочков, каждой паре кружочков приписали вероятность связи между собой (сумма вероятностей внутри кружочка равна 1) и разрешили скакать по этим связям по правилам грамматики: подлежащее, сказуемое, обстоятельства места и времени и т.д. Это нормальная, работоспособная модель. Но её развитие рано или поздно упрётся в тот факт, что между кружочками существуют не только стохастические, но и семантические связи.

Следующий шаг в развитии реального, а не ремесленного, ИИ по видимому будет состоять в том, что семантические связи между Смыслами придётся организовывать иерархически, создавая многомерные  тезаурусы вложенных, иерархически организованных  Смыслов (понятий, категорий, иероглифов), т.е. всего того, что можно однозначно закодировать для компьютера. Первыми, кто осознает необходимость такого постпарадигмального скачка, будут разработчики поисковиков, машинного перевода и аналитических программ для биг-дата. И у России есть шанс совершенно самостоятельно сделать этот скачок, опираясь на собственные научные достижения, а не заниматься тупым переводом Gpt 4 с английского на русский, как это делают программисты Сбербанка под мудрым руководством юриста Г. Грефа. У меня есть полная уверенность в том, что эти "труды" в среднесрочной перспективе будут выброшены на помойку. А в лучшем случае займут своё место среди компьютерных игр. Фундаментальная ошибка здесь очевидна. Английский язык беднее русского по набору слов, но его слова частенько многозначны. И их реальный Смысл становится понятным не сам по себе, а только из конкретного контекста. Знаменитое английское get имеет то ли 40, то ли 60 разных смыслов, а есть слова и в сотни смыслов. В русском языке таких слов нет вообще. Тех, кому интересно поковыряться в этом вопросе, прошу сюда: https://habr.com/ru/companies/englishdom/articles/560444/  У нас предел многозначности 26, и он единственный. И отсюда простой вывод, частота касания выбранной пары Смыслов в русском и английском разная. Думаю, что дальше объяснять не надо.

Во второй половине ХХ века Россия дала миру двух великих гениев, на идеях которых и будет построено дальнейшее развитие ИИ. Это Вячеслав Всеволодович Иванов и Андрей Анатольевич Зализняк. Формально оба они лингвисты и полиглоты. А по сути создатели школы математической лингвистики. В Иванов начал вести свой семинар по математической лингвистике ещё в 1959 г. А с 1961 г. по 1989 г. (до своего отъезда в США) лингвист В. Иванов был членом Научного Совета по кибернетике АН СССР.  Умер он в США, понятное дело, что в Калифорнии. И его научное наследие скорее всего сейчас принадлежит Гуглу. Андрей Зализняк, слава Богу, никуда не уезжал. И работал в Институте славяноведения РАН. У него были ученики, на которых ссылается Вики. И должно было остаться научное наследство. Абсолютно уверен, что директор Института славяноведения К. Никифоров прекрасно понимает, что за наследство ему досталось. А.А. Зализняк, по смыслу его работ,  был скорее структуралист и семиотик с сильным креном в математику и сравнительное языкознание. Кстати, структурология (или структурализм), это очень странная наука. Бурно развиваясь в 60-70 годы в основном во Франции, она сейчас практически заглохла. Её потеснила Общая теория систем Михайло Месаровича и системный анализ. По сути старый французский структурализм и был доморощенным проявлением системного анализа на почве французской лингвистики. И в силу этого легко предположить, что тезаурусный ИИ никак без помощи Общей теории систем не обойдётся.

По моим оценкам построить единый для всех возможных задач ИИ в обозримом будущем вряд ли возможно. Но уже сейчас есть несколько изолированных направлений (медицина, биг-дата, поисковики, военный интернет), где интеллектуальный прорыв, если начать развивать тезаурусную методологию, вполне возможен в обозримом будущем.

Маленькое отступление. При составлении тезауруса предметной области несомненно будут использоваться толковые словари. А особенность все этих словарей состоит в том, что А определяется в них через  Б и В;  Б через А и В; а  В через А и Б.  В математике такое недопустимо, это считается ошибкой и называется "порочным кругом". А лингвисты и семиотики над этим даже не задумываются, такой проблемы для них вообще не  существует. Это противоречие как-то себя обязательно проявит, и надо будет решать, как его разрешить, или как от него избавиться.

Изолированные направления ИИ сейчас развиваются абсолютно стихийно, корневые сегменты пишутся на самых разных, но  традиционных языках программирования, при этом сама предметная область как бы подразумевается, но не закрепляется набором определений в теле программы. Причём эта ошибка транслируется вниз, на предыдущие уровни иерархии. В результате совместимость программ крайне низкая, а при попытке их объединить в более общий и универсальный модуль приходится переписывать половину кодов. Здесь уже сейчас надо наводить порядок. Тут просто нужна организационная воля.

Для каждой предметной области  в рамках набора её Смыслов (категорий) и способов их взаимодействия толковая команда программистов за полгода в состоянии написать свой собственный, очень удобный и понятный всем специалистам в этой области знаний, язык программирования. Подобные языки сейчас возникают с колоссальной скоростью. Проблем с самими языками нет. Их принято называть языками высокого уровня. Есть огромная проблема с языком, который может управлять модулями, написанными на разных языках программирования. Этот Метаязык должен быть максимально приближен к нашему обычному литературному языку. И должен "понимать" те Смыслы (категории), которые относятся к конкретной предметной области и транслировать эти Смыслы в модуль предметной области в качестве экзогенных параметров. В 1980-е годы в СССР по этой линии было две математические школы. В Таллине Энн Харольдович Тыугу развивал свой подход под названием "концептуальное программирование", в котором наш термин "Смыслы" назывался "концептами". Его книга "Концептуальное программирование" широко известна. Но устойчивой научной школы на её основе, как мне известно, пока не сложилось. Вторая школа была в Москве, в ВЦ АН СССР. Там были молодые парни, которые пытались очертить основные контуры Метаязыка. Но кто-то уехал, кто-то просто пропал, и в итоге результатов ноль. Есть у меня ощущение, именно ощущение, что тогда было просто рано об этом думать. В ходу  были Алгол, Фортран, Дубна, и программистам этого вполне хватало. Но сейчас, когда языки программирования плодятся со скоростью пород собак, необходимость такого языка стала во весь рост. Предметные области,  описанные на разных языках программирования,  надо научить взаимодействовать между собой. Ибо без этого реально работающие  нейронные сети не создать никогда.   Какие-то работы в этом направлении идут и сейчас. Есть язык XL, есть предметная база знаний  Nalaps, но она написана на Java. Но пока это только наброски.

Немного о перспективах развития ИИ. На днях у меня случилась "эврика". Надо было заказать жд-билеты по интернету. За этим процессом я наблюдал со стороны. И когда открылась страница с перечнем поездов я обратил внимание, что каждому поезду соответствует строка неких символов, которые чуть издалека воспринимались как китайские иероглифы. Ложка с вилкой, кровать, снежинка, перечёркнутая петля (т.е. билет, который нельзя сдать) и т.д. Точно не знаю, как эти картинки называются - иконки,  камодзи,  смайлики или как-то ещё. Но суть не в этом. Смысл картинок понятен!!!  Мы имеем Смысл, переданный графикой, а графика однозначно переводится в Цифру. Смысл и Цифра связаны картинкой. Но ведь именно из таких картинок и родились 5 тыс. лет назад китайские иероглифы. И что получается? Получается простая вещь, китайские иероглифы легко могут использоваться как главный компонент Метаязыка, который передаёт базовые Смыслы компьютеру. Остаётся лишь дополнить Метаязык верхушками тезауросов предметных областей, и можно начинать работать. В итоге перспектива создания ИИ выглядит примерно так. Строить его архитектуру нужно на встречных курсах, сверху вниз, т.е. от Метаязыка к языкам предметных областей, и снизу вверх, от уже готовых корневых сегментов к предметной области и её языку, причём с обязательным переформатированием ответов  предметного языка под требования Метаязыка.

И если когда нибудь медицинский блок ИИ на запрос, как лечить больного с некими симптомами ответит не шаблонное - "не хватает данных", а содержательное - "сделайте Анализы Х, Y и Z, и в зависимости от их результатов диагноз будет А, Б или В",  значит искусственный интеллект действительно стал работать.

Вячеслав Иванов, Энн Тыугу, Андрей Зализняк, Константин Никифоров, искусственный интеллект, ИИ, Г. Греф, Шампильон, gpt, И. Ашманов

Previous post Next post
Up