Физмат-моделирование и компактификация/универсализация знания

Apr 07, 2022 03:37

Мета-моделирование aka онтологическая инженерия и место математики и физики
Мой тезис в том, что математика -- это мета-мета--мета-модель для science, естественных наук. Понятия самих наук -- это мета-мета-модели (из "учебников"), прикладных предметных областей -- мета-модели, объекты конкретных ситуаций (экземпляры) -- модели. Материал про мета-моделирование (оно же -- онтологическая инженерия, применение его -- применение "машинки типов") описывается в курсах ОиК (и там в головы инсталлируется "машинка типов"), системного мышления 2022 (рассказывается подробно про объекты внимания в системном мышлении как мета-мета-модель/upper ontology), системного менеджмента 2022 (рассказывается про моделирование предприятия в LowCode моделерах как построение табличной мета-модели/middle ontology для кейсов по альфам и подальфам системной схемы проекта, мета-модель соответствует типам мета-мета-модели). Поэтому подробно тут про это не рассказываю, равно как о том, что "мета-моделирование" и "моделирование данных" тут термины из "реального сектора", а в исследовательских кругах это всё онтологическая инженерия на основе дисциплины "онтология" (часто в варианте computational ontology).

Повторю тезис: математика представляет собой набор объектов внимания (типов мета-мета-мета-модели/foundational ontology и в прикладной части мета-мета-модели/upper ontology) для рассуждения об объектах внимания оснований естественных наук/sciences как типов мета-мета-модели. Так что у естественных наук уровень моделирования/онтологический уровень/уровень абстракции/уровень по отношениям классификации примерно тот же, что у моделей трансдисциплинарного методологического стека (мета-мета-модель/upper ontology с заходами на middle ontology), физика при этом просто входит в трансдисциплинарный стек, а другие науки входят как основания для практик инженерного стека -- химия для вещества, биология для существа, и так далее. С одной стороны, это немного кривовато (много стройней было бы указание "метафизики" в методологическом стеке и "физики" в инженерном), но интуитивно понятно, что физика как базисная дисциплина на уровне принципов ("законов о законах" -- принципы симметрии, принципы сохранения и т.д.), а не законов должна быть в методологическом стеке. А вот прикладная физика -- это "законы", идёт в инженерный стек, наряду с химией. Так что всё ОК, включая и тот факт, что "метафизика" по факту представлена разными другими дисциплинами (та же онтология).

Вот ещё раз про то же самое и чуть-чуть примеров:
-- M3, мета-мета-мета-модель -- foundational ontology, "основания математики" (чаще всего это логика, но отнюдь не все математики логицисты, о foundational ontology в математике договориться пока невозможно по совокупности причин), язык формального описания нижележащих системных уровней. На этом уровне определяются объекты, предикаты, субъекты, термы, а ещё и как это всё выражается (имена и прочее про "форму", как у Spencer-Brown с его Laws of Form, https://www.goodreads.com/book/show/584140.Laws_of_Form).
-- M2, мета-мета-модель -- описание типов в методологической трансдисциплине, включая математику как типы для физики на уровне принципов (законов о законах). Система::объект, который включён в состав надсистема::объект и выполняет функцию::предикат.
-- M1, мета-модель -- описание типов объектов в прикладном (из практики инженерного стека, включая законы физики, химии и т.д., и там подтипы от кругозорной практики до прикладных практик уровня стандарта предприятия) domain. "Вот это стол -- за ним едят, вот это стул -- на нём сидят", при этом "Вот это стол::система -- за ним едят::функция, вот это стул::система, за ним сидят::функция".
-- M0, модель -- экземпляры объектов физического мира, описание их свойств. "Стол обеденный номер 5, стул кухонный номер 10", при этом "Стол обеденный номер пять"::стол, "стул кухонный номер 10":: стул.

Вот можно пообсуждать, надо ли щепить M3 на отдельно "M4 -- основания математики" и "M3 -- математика" примерно так же, как щепим "физику на уровне принципов" и "прикладную физику как законы" по разным стекам. Пока не будем этого делать: foundational ontology и upper ontology всё-таки относительно искусственное разделение, да и в моделировании мегамодель включает в себя все эти мета-уровни.

Онтики, мегамодели, онтологии/графы знаний

Онтика в таком подходе -- это когда мы просто игнорируем типизацию из очередного мета-уровня. Вводим "скорость", но забываем приписать "скорость::вектор" (аннотировали физическую величину типом из математики, дающим её представление в мире идеальных объектов) -- это и есть онтика как "ограниченная формализация" (то есть типизацию объектов вводим, а типизацию типов объектов -- не вводим, "подразумеваем как-то понятной").

Знание в таком подходе -- это по возможности компактные/универсальные объяснительные теории/порождающие_мегамодели (generative models из active inference) aka "объяснения", которые могут быть использованы для действий в окружающем мире и которые выжили после многочисленных попыток опровержения. Компактность/универсальность означают короткую запись, покрывающую большое число ситуаций. Четыре уравнения Максвелла описывают всё многообразие электромагнитных явлений, вот это оно и есть. Если бы не было этих уравнений (у которых довольно длинная история), пришлось бы описывать отдельно поведение электрического поля, отдельно поведение магнитного поля, отдельно зависимости от токов, отдельно от зарядов. И не факт, что можно было бы что-то точно вычислить, если при этом не использовать дифференциальное вычисление. А само это вычисление описывает ещё и механическое движение, и много ещё каких движений. Типов объектов и взаимоотношений между ними немного, но они позволяют объяснить (в том числе предсказать) огромное количество явлений. Вот такой компактности/универсальности мы и добиваемся.

Я использую термин "онтология" близко к тому, как это делается в практике ontology engineering с опорой на дисциплину computational ontology - с поправкой, что там ontology называют ontology description (ибо есть "истинная онтология", так она про то, какие объекты в мире, а онтологическое описание - это описание того, какие объекты в мире, информация об объектах, а не сами объекты. Типа как архитектура - это про то важное, что в мире, а архитектурное описание - это описание важного. Можно смело считать, что в computational ontology имеют ввиду ровно ту самую онтологию, что и в традиционной философской метафизике, только добавляют необходимость машинообрабатываемого описания -- см., например, тему "машинообрабатываемости описаний" aka "датацентричности" в инженерии, противопоставление "машинночитаемости", https://ailev.livejournal.com/1089915.html, https://ailev.livejournal.com/1089684.html). Машинообрабатываемость -- это рассуждение/inference каким-то отчуждённым от человека алгоритмом.

Сегодня есть универсальные/обучаемые на разные задачи алгоритмы, которые работают с текстами на естественном языке по части рассуждений (языковые модели на коннективистских геометрических, то есть в многомерном "пространстве смыслов" представлениях, типа свежайшей PaLM от Google Research, там в картинке-иллюстрации при росте размера модели показано, что становятся доступными logical inference chain и common sense reasoning уже на уровне среднего человека, хотя и не лучших из людей -- https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html, заодно там говорится, что эти модели не вышли на плато по части улучшения своих возможностей по мере банального роста размера обученной нейронной сети такой модели). Эти универсальные/обучающиеся алгоритмы на основе нейронных сетей дают относительно новую "машинообрабатываемость", и это довольно перспективная линия развития для компьютеров (вот пост 2011 года, который цитирует John Sowa по переспективности этой "новой машиннобрабатываемости" по сравнению с классическим онтологическим/математическим подходом, это за год до того, как в AI появились нейронные сети на GPU в 2012 году, и за шесть лет до появления языковых моделей в 2017 году: https://ailev.livejournal.com/909758.html).

Формализация как аннотирование типами на много уровней абстракции
Но что удивительно, если отвлечься от "машинообрабатываемости" и нейронных сетей, вернувшись к "человекообрабатываемости" лучшими людьми, то прирост человеческого знания всё-таки случался по другой линии, линии осознанной формализации: работы с алгоритмами рассуждений, ведущими к строгим результатам (я касался этого недавно, обсуждая программу работ CYC, которая как раз критиковалась в 2011 году, но которая продолжается до сих пор -- первый раздел текста https://ailev.livejournal.com/1610230.html). Для этого нужно в результате работ по онтологической инженерии/(мета)моделированию данных иметь knowledge graph, раньше и называвшийся "онтологией"/мегамоделью, то есть набор типов объектов внимания и и отношений между ними (в том числе описываемых формулами, которые сами сложные объекты).

Есть несколько подходов к построению knowledge graph/онтологии, они все основываются на многоуровневой типологизации/объективации M0-M4 примерно по той линии, по которой мы тут это и обсуждаем, хотя и с какими-то вариантами:
-- ad hoc, в произвольных проектах, где потребовалась хоть какая-то формализация: берём объекты внимания as is, делая вид, что это объекты никаких типов (так не бывает, тем не менее). На выходе -- онтика, просто перечисление самих объектов и отношений между ними. "Вот это стол -- на нём едят, а это стул -- на нём сидят".
-- как формализуют базы данных (модели данных, справочные данные) в промышленности: foundational ontology чаще всего логика первого порядка в каком-то её изводе (их ведь тоже много разных) как язык, на котором описываем объекты и отношения upper ontology -- какие-то наиболее общие типы объектов, скажем "сущность", у которой подтипы "абстрактные объекты", "физические объекты", и так примерно 200 понятий из распространённых философских теорий. А дальше все онтики типизируем этими типами в надежде, что все они как-то склеятся. Это основной подход, который используется в инженерии при федерировании данных, https://ailev.livejournal.com/1307116.html). И тут возможны варианты: с микротеориями и без, на базе логики первого порядка или всё-таки порядок логики в некоторых случаях можно пробовать увеличить без потери реальной возможности что-то вывести на ограниченных ресурсах, да и сами объекты upper ontology можно очень по-разному выбирать.
-- как "в естественной науке" (sciences). Foundational ontology берётся из "оснований математики" (унивалентные основания математики, логицизм, конструктивизм как раз про это), а upper ontology -- это математические объекты. Множество, многообразие, поле, интеграл, оператор, уравнение - это типы объектов из онтологии математики. А дальше knowledge graph строится как в промышленности, объектам и отношениям в мире будут соответствовать какие-то математические объекты, а отношения между ними будут выводиться в том числе по математическим формулам, поведение объектов в мире при удачно подобранных формулах будет примерно соответствовать поведению математических объектов.
-- относительно новый подход как "в естественной науке" тут статистический: математические описания как в статистической классической/предквантовой физике и квантовой физике на базе субъективной/байесовской и некоммутативной/квантовой теории вероятностей.

Мы тут не трогаем вопрос о том, что в онтологиях/графах знаний/мегамоделях есть по факту и модели абстрактных объектов, и модели физических объектов -- и сразу захватывается букет вопросов о том, как они связаны (Дойч прямо говорит, что математика и физика как науки о поведении абстрактных/математических и физических объектов связаны через информатику, немного про эту связь будет в тексте ниже, но без ссылок на Дойча).

Как строят естественные науки: аннотируют их понятия математическими типами
Исследования начинаются с того, что предлагаются новые типы объектов внимания/мета-мета-(или даже ещё одно мета-)-модели/middle или даже upper ontology, а в самых абстрактных исследованиях (типа "унивалентные основания математики", сегодня такого много у топологов, которые когда-то и теорию категорий породили, и ещё много чего интересного готовятся породить) доходит и до foundational ontology. И да, в зачёт идут только теории, с которыми можно делать контрафактические рассуждения. Далее как всегда:
-- если объясняется меньшее число ситуаций, чем уже наличествующей теорией, то догадка откидывается (ну, или продолжает оставаться, если существенно проще в вычислениях, а точности или широты не нужно -- типа ньютоновской механики, которую никак не выкинут на помойку истории)
-- критика логическая (включая непротиворечивость рассуждений с использованием типов мета-модели, включая непротиворечивость рассуждений с использованием и смежных теорий, подтягивающихся в рассуждениях по длинной цепочке определяющих друг друга понятий и формульных зависимостей). Если рассуждения противоречивы, объяснение считается опровергнутым
-- критика экспериментом, проверяется порождение более точных результатов, чем у теорий-конкурентов. Если менее точные результаты, объяснение считается опровергнутым.

В естественных науках чаще всего предлагают/"догадывают"/"кладут" объекты и отношения (предлагают некоторые аксиомы, принципы с использованием этих объектов и отношений) в рамках функциональных объяснительных теорий: кладём/guess как аксиомы какое-то описание поведения (что-то там течёт, взаимодействует, передаётся -- функциональная схема с функциональными объектами, портами и потоками), описываем математику этого поведения, чаще всего в форме дифференциальных уравнений для потоков. А потом выполняем архитектурную работу: или reverse engineering, то есть указывая, какие конструктивы/модули реализуют/implement эту функциональную схему, или прямую инженерию -- предлагая физическую реализацию какими-то подходящими физическими объектами в реальном мире. Пример тут integrated information theory (IIT), которая предлагает какую-то математическую модель сознания на базе предлагаемых для рассуждения объектов внимания (framework/ontology, хотя и не в форме knowledge graph, а в форме набора аксиом и некоторой математической модели), и далее разные варианты конструктивов для этих функциональных/поведенческих объектов внимания обсуждаются как реализующие или не реализующие её: "start from consciousness itself, by identifying its essential properties, and then ask what kinds of physical mechanisms could possibly account for them. This is the approach taken by integrated information theory (IIT), an evolving formal and quantitative framework that provides a principled account for what it takes for consciousness to arise, offers a parsimonious explanation for the empirical evidence, makes testable predictions and permits inferences and extrapolations" (https://royalsocietypublishing.org/doi/10.1098/rstb.2014.0167, "Consciousness: here, there and everywhere?", 2015, by Giulio Tononi and Christof Koch). Эта теория интересна тем, что сознание рассматривается как общефизический феномен, связанный с восприятием -- и снимает многочисленные парадоксы, которые занимали философов, занимающихся сознанием.

Дальше эти "новые догадки" (frameworks/ontology) начинают критиковаться. Опора на математическую онтологию (аннотирование математическими типами) для фреймворка позволяет подтвердить хоть какую-то строгость рассуждений: можно опереться в рассуждениях на свойства математических объектов и задействовать рассуждения по формулам. Если мы говорим, что "скорость -- это вектор", то для скорости можно использовать всё, что мы знаем о векторах!

Компактификация/универсализация формальных описаний: нахождение аналогий в формулах
После критики эти догадки ещё и будут смешиваться с другими "догадками". Для этого находятся какие-то аналогии, некоторые понятия и отношения между ними из разных теорий оказываются близкими, их отождествляют, а дальше работают с более компактной общей теорией. Есть множество подходов к тому, как находить аналогии и что такое вообще "рассуждение по аналогии", что такое вообще "аналогия". Самым популярным автором в этой области был Дуглас Хофштадтер, написавший https://ru.wikipedia.org/wiki/Гёдель,_Эшер,_Бах.

Интуитивную коннективистскую линию рассуждений (реализуемую сегодня нейросетями) представляет работа с переводами: "аналогия между двумя текстами об одном и том же на разных языках". Берём множество объектов и отношений из огромного набора (корпуса) текстов какого-то языка и сопоставляем его с теми же объектами и отношениями корпуса текстов на другом языке. Языковые модели в форме предобученных на корпусе текстов нейронных сетей ровно это и делают: берут два облака точек в многомерном пространстве смыслов (немного об этом и других понятиях из текущего текста я писал в https://ailev.livejournal.com/1427265.html), соответствующих словам или даже буквам языка, при этом направления в этом пространстве соответствуют отношениям -- и максимально совмещают их "точка в точку". Это грубая модель, но современные нейросетевые модели переводят именно так, включая перевод на язык, на котором нет параллельных текстов, чтобы подстроиться (используется тот факт, что описываем-то в корпусах текстов один и тот же мир!). Вот тут некоторое описание того, как это делается, в том числе zero-shot (то есть обучение без примеров перевода! аналогия двух моделей мира, отражённых в корпусах текстов): https://mt.cs.upc.edu/2021/02/08/major-breakthroughs-in-multilingual-neural-machine-translation-ii/.

Но человечество всё-таки опиралось на символистскую, а не коннективистскую онтологическую работу/метамоделирование на высоком уровне формальности. Наука достигла того, чего она смогла достичь за счёт использования математики как мета-мета-мета-модели, то есть наука опиралась на структурное сходство рассуждений по формулам для разных объектов внимания. Это и есть основной путь науки. При этом в математике есть ещё и предпочтения: примат булевой логики и полной формальности над байесовскими вероятностными вычислениями с их неопределённостью и квантовыми вычислениями с их ещё большими неопределённостями. Одна беда: чем более формальны описания (длиннее цепочка аннотирования типами, прописаны все типы по линии M0-M3 и иногда и M4), тем больше нужно умственных усилий и тренинга для удержания этой цепочки. Поэтому большинство населения работает с онтиками, используя интуитивное аннотирование типами и неформальные (квантовоподобные, даже не байесовские, как это выясняется в современных исследованиях по теории принятия решений) правила рассуждений над типами M3 и M4, а хорошо обученное меньшинство населения (учёные) ухитряются работать со всей цепочкой, выдерживая строгую/булевскую логику рассуждений с формальными типами на высоких уровнях абстракции -- в том числе снимая неминуемые противоречия, возникающие на этих уровнях абстракции при попытке объединять рассуждения по разным онтикам, неминуемо проскакивающим в этот мир строгой формализации. Формализация имеет образовательный ценз, физмат-моделирование доступно не всем, ему нужно учить специально так же, как любой другой работе с типами.

Ситуация ещё сложнее в силу запутанности конечных классификаций в классификационной иерерахии как отношения репрезентации между физическим миром и абстрактным/математическим миром и наличием функциональных (в каком-то смысле "идеальных", обобщённых, типизирующих, ролевых) объектов, в которых выполняется моделирование физического мира. Объекты из учебника физики проще считать функциональными (рассматриваемыми в run-time) с их репрезентацией абстрактными объектами, а вот продукты/модули/конструктивные объекты какого-то прикладного domain -- это уже физические объекты (а не объекты из учебника физики, те как раз функциональные!). То есть помидоры на весах мы моделируем как помидоры::продукт/физический объект, реализованный/realized/implemented by физическое тело::функциональный_объект, описываемый весом::переменная::скаляр::абстрактный/математический объект. Иначе не разобраться, см., например рассуждения по поводу понимания концепта Markov blanket у разных авторов у Яна Глендиннинга: https://www.psybertron.org/archives/15856

Этот подход "совмещения формальных описаний" обычен и в мире "промышленных" онтологий, где вместо математической upper ontology с формулами используется только foundational ontology из логики. John Sowa в софте компании VivоMind реализовал подход VAE (VivoMind Analogy Engine), когда просто ищутся два фрагмента графа знаний с одинаковой структурой объектов и отношений, http://www.jfsowa.com/pubs/analog.htm, такое даже компьютеру можно поручить (и в работах VivoMind показывается, что такой подход вполне практичен, есть успешные приложения AI, полученные во времена, когда ещё не было нейросетей). И таких работ множество, хотя тот же John Sowa после многих лет мучений с таким подходом пишет, что подобные методы дико трудоёмки и вскрывают проблему: никакие промышленные upper ontologies не помогают в поисках аналогий, для разных задач удобные для них мета-мета-мета-модели кардинально различаются и общих рассуждений по ним принципиально не построишь. Аналогичный результат будет и для статистических описаний: общее байесовское рассуждение для разных статистических теорий не проведёшь, приходится переходить к квантовым (от колмогоровской теории вероятностей для вычислений по Байесу приходится переходить к множеству несовместимых вероятностных алгебр -- это отмечает в своих работах Андрей Хренников, например это описано в https://disk.yandex.ru/i/-HSzsN6thL0Y-w).

В функциональных объяснительных теориях ищут одинаковую структуру математических формул, которыми они выражены (при этом смотрят на то, чтобы речь шла не об одной формуле, а о каком-то массиве формул, чтобы подобие было более-менее развёрнутым/очевидным, а не эпизодическим случайным совпадением). Поскольку тут в основе математика как upper ontology, всё немного полегче, чем в случае с "промышленными онтологиями", где foundational ontology обычно логика первого порядка, а вот всё остальное уже отличается.

Пример: физмат-моделирование сознания
Так, если "глазами по формулам" работать с теорией информации, как это делал Шэннон, то по аналогии с термодинамикой можно ввести и энтропию (информационную!), и свободную энергию (информационную!). Jaynes в "Теории вероятности как логике науки" https://disk.yandex.ru/i/xOMTIe0drCE1tw просил не путать термодинамику и информатику, но далее оказалось вполне продуктивным таки их путать. Например: появляются тексты, где строится вполне строгая теория квантовых безмасштабных описаний физического выражения информационных явлений: Chris Fields со товарищи в 2020 году пишет Information flow in context-dependent hierarchical Bayesian inference, https://chrisfieldsresearch.com/contextual-pre.pdf. Recent theories developing broad notions of context and its effects on inference are becoming increasingly important in fields as diverse as cognitive psychology, information science and quantum information theory and computing. Here we introduce a novel and general approach to the characterization of contextuality using the techniques of Chu spaces and Channel Theory viewed as general theories of information flow. This involves introducing three essential components into the formulism: events, conditions and measurement systems.

Ещё через год появляется текст "Minimal physicalism as a scale-free substrate for cognition and consciousness", 2021, от Chris Fields, James F. Glazebrook and Michael Levin, https://chrisfieldsresearch.com/min-phys-NC-2021.pdf с опорой на уже упоминавшуюся ITT как "физикалистскую теорию сознания", а далее "A free energy principle for generic quantum systems", 2021, от Chris Fields, Karl Friston, James F. Glazebrook, Michael Levin, https://arxiv.org/abs/2112.15242 -- продолжение темы мышления и сознания с безмасштабным квантовым описанием, но с прихватом active inference. И в этом контексте были даже работы, где теории сознания проверяются на колониях муравьёв (прямо адресуется проблема "биологического индивида" и сознания у сообществ, хотя там ещё нет ничего квантового и безмасштабного, это 2019 -- но это уже с опорой на IIT): https://philpapers.org/archive/FRITAC-4.pdf.

Для математического моделирования во всех этих работах Fields и Glazebrook используется теория категорий с пространствами Чу -- там хорошо строить отображения разнородных объектов друг в друга. Например "типы как процессы": types-as-processes modernizes data-as-programs. It is the Curry-Howard propositions-as-types correspondence with propositions replaced by processes. To the extent that types and processes are both part of the working programmers toolkit, even more than propositions, the types-as-processes correspondence is more central to the practice of programming than propositions-as-types. Moreover the connection works out very well mathematically, at least up to a point. Это начало текста Types as Processes, via Chu spaces, 1997, https://www.sciencedirect.com/science/article/pii/S157106610580475X/pdf?md5=baf9bdce177de225c314936d190bca59&pid=1-s2.0-S157106610580475X-main.pdf. А дальше там выход на "естественную математику", Rational Mechanics and Natural Mathematics, 2005, https://www.newdualism.org/papers/V.Pratt/ratmech.pdf. -- Chu spaces have found applications in computer science, mathematics, and physics. They enjoy a useful categorical duality analogous to that of lattice theory and projective geometry. As natural mathematics Chu spaces borrow ideas from the natural sciences, particularly physics, while as rational mechanics they cast Hamiltonian mechanics in terms of the interaction of body and mind.

Эти же Chu spaces используются и дальше, например, 2018 - Distributed Conceptual Structures, https://arxiv.org/abs/1810.04774, The theory of distributed conceptual structures, as outlined in this paper, is concerned with the distribution and conception of knowledge. It rests upon two related theories, Information Flow and Formal Concept Analysis, which it seeks to unify. Information Flow (IF) is concerned with the distribution of knowledge. The foundations of Information Flow is explicitly based upon a mathematical theory known as the Chu Construction in *-autonomous categories and implicitly based upon the mathematics of closed categories. Formal Concept Analysis (FCA) is concerned with the conception and analysis of knowledge. In this paper we connect these two studies by extending the basic theorem of Formal Concept Analysis to the distributed realm of Information Flow. The main results are the categorical equivalence between classifications and concept lattices at the level of functions, and the categorical equivalence between bonds and complete adjoints at the level of relations. With this we hope to accomplish a rapprochement between Information Flow and Formal Concept Analysis.

Другой ход по линии теорий сознания -- это уже упомянутую ITT с её панпсихизмом физикалистского толка ("сознание это свойство физического мира во всём диапазоне от неживого до живого, включая организмы и даже сообщества организмов") смешивают с global workspace теорией сознания и получают integrated world modeling theory/IWMT -- https://psyarxiv.com/kjngh/. Там нет пространств Чу и теории категорий, но мы видим всё тот же набор идей, включая даже модные VAE GAN (порождающие нейронные сети на базе вариационных автоэнкодеров).

Пример: физмат-моделирование эволюции
Вообще, идеи информационной вселенной, где вещество во вселенной ведёт обработку информации как в тупой форме "камня", так и в форме простых и сложных жизненных форм и даже социальных форм той же жизни (человечество тут как пример) -- это очень модная идея. Например, так считает квантовый физик Виталий Ванчурин, вот его русскоязычное интервью, где он немного об этом пишет: https://trv-science.ru/2022/04/ves-mir-neuroset/, вот его ключевая работа на эту тему с выводом о вселенной как работающей непрерывно обучающейся/познающей нейросети: https://iopscience.iop.org/article/10.1088/2632-2153/abe6d7/meta. И далее был стандартный ход "аналогии на базе структуры математических формул", например: смешивание рассуждений для математически выраженных фреймворков термодинамики, теории эволюции и теории нейронных сетей в работе "Thermodynamics of evolution and the origin of life", https://www.pnas.org/doi/full/10.1073/pnas.2120042119 (см. там, например, [7.6] и [7.7] -- "consider the following relations (or dual mappings between physical and biological quantities)". Это общий ход в рассуждениях такого сорта. Так free energy в информационной теории Шэннона имеет смысл не физической энергии, а совсем другой смысл, просто "в формулах на этом месте в физике стоит обычно энергия, поэтому мы сохранили название в информатике". Заканчивается вся эта линия рассуждений теорией многоуровневой эволюции как оптимизационного вычисления-познания по типу нейронной сети, "Towards a Theory of Evolution as Multilevel Learning", 2021, от Vitaly Vanchurin, Yuri I. Wolf, Mikhail I. Katsnelson, Eugene V. Koonin -- https://arxiv.org/abs/2110.14602

Конечно, первое что приходит в голову -- это продолжить обобщение и компактификацию/универсализацию знания, то есть объединить линии работ Fields сотоварищи и Vanchurin сотоварищи. И шанс это сделать даёт ровно тот факт, что они опираются на математику как на upper ontology, то есть аннотируют физические мета-мета-типы математическими мета-мета-мета-типами.

Мораль всей этой длинной истории:
-- математике и физике учить нужно так же как теории понятий (где даются основания математики) и онтологии (даются основные математические объекты и принципы их построения). И дальше давать примеры математического моделирования ровно так же, как даются примеры онтологического моделирования: прямой выход в жизнь, а учебником тут может быть не только математика, но и физика.
-- физику бьём на две части: принципы (методологический стек) и законы (инженерный стек/стек создания, "прикладная физика" -- все эти "оптики" и "электромагнитные явления"), да и математику можно попробовать разделить на "методологическую" (теория понятий с основаниями и онтология с принципами и основными объектами) и прикладную для инженерного стека

То, что заодно описали панпсихические на базе минимального физикализма объяснительные теории сознания и эволюции -- это приятный бонус, просто такие примеры физмат-моделирования. И указали на пространства Чу как удобные для математического совмещения малосовместимого. И поставили задачу на интеграцию/компактификацию/универсализацию работ группы Ванчурина по эволюции и группы Филдса по сознанию.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/groups/771940449578453/posts/4713726965399762/, в чате блога -- с https://t.me/ailev_blog_discussion/14023
Previous post Next post
Up