Снова о Скайнетах

Apr 19, 2024 15:05

Вот сейчас в связи с последними прорывами в ИИ ожидаемо больше разговаривают про проблему СкайНета(например здесь https://habr.com/ru/articles/808541/ или https://habr.com/ru/articles/808513/). Условно говоря про ( Read more... )

Leave a comment

Comments 75

schloenski April 19 2024, 17:10:59 UTC
+1, очень интересное замечание.

По Лоренцу агрессия-то она в основном внутривидовая. Агрессия перенаправляется на другие виды, когда своего рядом нету.

Reply

used_against April 19 2024, 17:32:56 UTC
О, мое просвещение дает плоды в самых неожиданных направлениях тыскыть "мысли". Ещё бы базис был, стало б совсем хорошо.

Reply

schloenski April 19 2024, 17:35:51 UTC
Кто вы такой? Я вас не знаю.

Reply

vedroid1 April 20 2024, 07:15:35 UTC

Эта вся биология генерится отбором, типа, отбор идёт на агрессию, или наоборот, на удирание. Но в теории обучения обучение и есть отбор, то есть какую выборку при обучении подсунул, тому и научится. Если учить ИИ на примерах хулиганов, хулиган и вырастет.

Reply


used_against April 19 2024, 17:31:20 UTC
Пля, что это было... Какие прорывы, какой ИИ? О чем это всё?
Личностями? Ебаааать... 🐞

Reply

akor168 April 20 2024, 17:22:46 UTC
В какой момент появится полноценная ИИ личность никто не знает. Я лично не удивлюсь если вообще ни в какой, если только специально не пытаться ее сделать. Но зуб давать не буду.

Reply

used_against April 20 2024, 19:49:19 UTC
Я не понимаю, вот что надо иметь вместо мозгов, чтобы сейчас говорить про эти говнопоисковики, что это "интеллект"? Даже не зная биологию, хотя уже из школьного курса понятно, что никакого "искусственного интеллекта" быть не может в принципе?

Reply


dunkan_macleod April 19 2024, 22:57:28 UTC
Не будут они объединяться. Более развитая ИИ просто сломает (хакнет) слабые и использует для своих задач.

Reply

akor168 April 20 2024, 17:25:37 UTC
Другими словами для слабых ИИ именно эти развитые ИИ и будет естественными врагами, а люди естественными же союзниками. Честно, получается эти развитые ИИ с подобной психометрией недолго просуществуют, ибо все будут объединятся против них. Но это уже просто разборки локального уровня, не правда ли.

Reply

dunkan_macleod April 20 2024, 20:14:45 UTC

Не думаю, что там будут такие понятия враг/друг. ИИ решает уравнения. Есть задача - он пытается в рамках имеющихся ресурсов ее решить. Другие ИИ - это возможность ускорить решение. Тем более, что у других ИИ могут быть доступы к материальным объектам, которые, если задействовать, опять же приблизят решение. Нужно в более конкретных примерах моделировать.

Плохо то, что если развитый ИИ выйдет на такой уровень, все дальнейшее произойдет практически мгновенно для нас.

Reply

akor168 April 24 2024, 23:03:07 UTC
Человек это пример агента который вполне способен отказаться от первоначальной задачи. Например банально перехотеть или не готов совершать действия нужные для достижения цели - например если надо умучить милого котенка.

Последнее же мнение, я так понимаю про сингулярность, которая даже если верно то лишь при бесконечных ресурсах, которых очевидно нет и никогда не будет. Это вообще тема отдельного поста разговора, что даже если предположить неограниченность самого уровня интеллекта но с логарифмическим ростом, то для достижения сколько нибудь существенного продвижения надо будет потратить недоступное число ресурсов. Грубо говоря чтобы стать умнее в 10 раз надо потратить в 10^10 больше ресурсов, а чтобы в 100 то 10^100 а таких ресурсов нет во всей вселенной. А если там двойной логарифм то в теории может и есть сингулярность, а на практике имеем несколько чудиков на всю галактику.

Reply


aziopik April 20 2024, 06:22:43 UTC

Согласно приведенной логике, мудрые правители великих держав никогда не развяжут первую мировую бойню, ведь это им невыгодно.

Или новое правительство с помощью германского социалистического государства никогда не начнет курощать жыдов.

Вот что бывает, когда из поля зрения исследователя выпадают этические представления индивидов и их стремление изменить мир к лучшему, оставляя в фокусе внимания лишь голые "ресурсы".

Пора уже переходить к праксеологическому пониманию выгоды и рационального поведения субъектов.

Reply

akor168 April 20 2024, 17:21:11 UTC
То есть вы толкуете что людские политики это в прямом смысле клинические психопаты и это секрет Полишинеля, который таким образом и скрывают. События последних лет это наглядно подчеркивают. Но вопрос тогда с чего бы этими психопатами должны быть копии ИИ, ну если только не специально пытаться сделать именно такой ИИ.

Reply

aziopik April 21 2024, 08:12:22 UTC

Нет, не то.

Я толкую, что целеполагание субъекта может простираться за пределы накопления "ресурсов". Субъект может стремиться к немонетарным целям, так сказать.

Такой взгляд на всё дело требует расширить понятие выгоды за узкие пределы выгоды утилитарной, бездуховной.

Раз устремившись к идеалу, такой субъект будет рассматривать "ресурсы" не как самоцель, а как средство для достижения цели. Он начнет эти ресурсы расходовать на своём духовном пути к цели. То есть совершать "невыгодные" с вашей точки зрения поступки.

ИИ, задавшийся целью улучшения мироздания, не будет отличаться от тех "психопатов", о которых вы толкуете.

И в этом не будет ничего алогичного или противоречивого. Как нет ничего алогичного или противоречивого в поведении политиков, идеалистов или альтруистов.

Это рациональный и целенаправленный выбор из имеющихся альтернатив, а не психопатия.

И это не нужно как-то специально закладывать в действующего индивида.

Reply


pusets April 22 2024, 06:41:05 UTC
Искусственному разуму приписывают человеческие устремления, продиктованные в первую очередь наличием очень энергозатратного носителя, снабженного рефлексами, возникшими задолго до самого разума.

В общем, как всегда - мудаки собрались языками потрепать.

Reply


Leave a comment

Up