Во-первых, способность человека мыслить явно переоценена, во-вторых, ИИ работает принципиально иначе. Это человек учится подбирать слова. Если человека языку не учить, то он будет бегать на карачках и мычать. ИИ хитро устроен, вообще не так как обычный компьютерный алгоритм. Принцип другой.
сразу виден компьтерный гик :) Если тебя послушать, то человек по сравнению с компьтером - полное ге Правда ты забыл, что этот самый ге и изобрёл компьтер
Я тоже ни разу не специалист, (хотя последние 40 лет был так или иначе связан с компьютерами и программированием) но думаю, что правда, как всегда, посередине. Хайпа и правда очень много. Но он не на пустом месте. Впервые о нейронных сетях я узнал в конце 80-х, и уже тогда их теория была не в новинку. Правда, тогда до их практического применения было как до соседней звезды, и казалось что так будет всегда. Прогресс в последние годы был реально взрывным. И результаты поражают. И нет, современный AI не набор if/else традиционной программной логики. Там все намного интереснее. Без быстрых числодробилок, конечно, это невозможно, но сам по себе прогресс в быстродействии ЦПУ и ГПУ привести к появлению современного AI не мог
( ... )
Я бы скорее назвал смелой гипотезой то, что наш мозг представляет собой что-то кроме огромной языковой модели, как это пытается с помощью квантовой механики аргументировать Пенроуз.
Если, например, посмотреть, как мыслит человек, когда ищет лучший ход при игре в шахматы, и чем отличается мышление начинающего и гроссмейстера, то все эти результаты легко и просто переносятся на программирование нейросетей. Да и по архитектуре вроде как принципиальных различий не наблюдается.
А при общении с нейросеткой - лично у меня возникает ощущение, что общаешься с очень эрудированным, но все равно наивным школьником. Так что возникло внутри этой нейронки самоосознание или пока еще нет - для меня вопрос открытый.
"проблема" (как я это вижу) of AI состоит в том, что он (она? оно? оне?) никогда не научится чувствовать, обладать эмоциями. Человек иногда (хотя довольно часто) поступает не обязательно по логике, если это не касается проектирования инфраструктур (дома, мосты, дороги, ракеты...), а включает чувства типа "нравится-ненравится". Иногда даже вопреки логике. Машина думает только "вдоль логики: полезно/вредно, работает/неработает..." Уверен, что "обучатели" AI когда-нибудь просимулируют у машины некое подобие чувств/симпатий. Но - повторяю снова - это будет симуляция.
>> Человек иногда (хотя довольно часто) поступает не обязательно по логике, если это не касается проектирования инфраструктур (дома, мосты, дороги, ракеты...), а включает чувства типа "нравится-ненравится". Иногда даже вопреки логике. Машина думает только "вдоль логики: полезно/вредно, работает/неработает..."
Ооо, ты, похоже, не ловил ChatGPT на откровенном вранье. При нехватке данных оно врет как дышит. Ему так кажется. И оно может выглядеть убедительно. Только в корне неверно. Например, попытайся заставить его придумать 10 новых палиндромов. Вот где драма-то.
Comments 45
Reply
Reply
Это человек учится подбирать слова. Если человека языку не учить, то он будет бегать на карачках и мычать.
ИИ хитро устроен, вообще не так как обычный компьютерный алгоритм. Принцип другой.
Reply
Если тебя послушать, то человек по сравнению с компьтером - полное ге
Правда ты забыл, что этот самый ге и изобрёл компьтер
Reply
Reply
Если, например, посмотреть, как мыслит человек, когда ищет лучший ход при игре в шахматы, и чем отличается мышление начинающего и гроссмейстера, то все эти результаты легко и просто переносятся на программирование нейросетей. Да и по архитектуре вроде как принципиальных различий не наблюдается.
А при общении с нейросеткой - лично у меня возникает ощущение, что общаешься с очень эрудированным, но все равно наивным школьником. Так что возникло внутри этой нейронки самоосознание или пока еще нет - для меня вопрос открытый.
Reply
Человек иногда (хотя довольно часто) поступает не обязательно по логике, если это не касается проектирования инфраструктур (дома, мосты, дороги, ракеты...), а включает чувства типа "нравится-ненравится". Иногда даже вопреки логике. Машина думает только "вдоль логики: полезно/вредно, работает/неработает..."
Уверен, что "обучатели" AI когда-нибудь просимулируют у машины некое подобие чувств/симпатий. Но - повторяю снова - это будет симуляция.
Reply
Ооо, ты, похоже, не ловил ChatGPT на откровенном вранье. При нехватке данных оно врет как дышит. Ему так кажется. И оно может выглядеть убедительно. Только в корне неверно. Например, попытайся заставить его придумать 10 новых палиндромов. Вот где драма-то.
Reply
Leave a comment