1. Агент активен, т.е. идейно подобно агентам из reinforcement learning. Идейно, не по конкретной реализации. Активен, т.е. сам интерпретирует окружающую среду и совершает действия в среде.
2. Органы чувств (зрение, слух и т.п.) такого агента - это один (или пачка) из универсальных кодов. Наиболее всем знакомый пример такого кода - алгоритм Лемпеля Зива.
3. Пункт 2 поставляет сущности для мягкой модели.
4. Очевидно, в силу конечности ресурсов агента, требуется garbage collection.
5. Существующие императивные языки программирования закрепляют контекст, и переходы между контекстами становятся слишком дороги, по сравнению с блужданием внутри контекста.
6. Контекст - это не рантайм и не нэймспэйс. Он формируется мягкими моделями. Контекст - скорее соответствует семантическому полю предметной области.
7. В идеале, требуется языковая система (от 0-языка до n-языка), в которой определен селектор. Требование к языковой системе возможно в том, что языковая система должна быть по максимуму ортогональна контекстам. Возможно в том, что языковая система должна быть по максимуму параллельна контекстам. Возможно, она должна иметь возможность «разворачиваться» от ортогональности до параллельности.
8. 7 и 3 определяют основной алгоритм агента, именно этот алгоритм обслуживают другие алгоритмы, от универсальных кодов, до garbage collection. Вспомогательные алгоритмы с основным, если их изобразить в диаграммах Венна, безусловно имеют пересечение.
9. Селектор и память селектора - есть ядро агрегирующего агента.
10. Агрегируемость (эмоциональность) агента - одно из, но необходимое условие, для социализации, кооперации и коммуникации агентов.
11. Социализация, кооперация и коммуникация агентов преследует цели распределения нагрузки п.2 между параллельно активными агентами, работающими над поиском n-мерных координат контекста и составления мягких моделей контекста.
12. Такие стратегии как bruteforce и fuzzing mutation algorithms включены в 11.
13. Аналогия, метафора, языковой системы, контекстам и селектору - может служить спираль днк, экспрессия генов и работа рнк.
14. Основной алгоритм агента 8 есть конкретная реализация гипотетико-реконструктивного подхода с одной стороны, и потенциально саморасширяемого множества действий агента. Пусть и через создание и использование инструмента. В этом, и в агрегируемости (эмоциональности), заключено основное расхождение с существующими агентами из reinforcement learning.
https://dobr-i-trezv.livejournal.com/53559.html