Снова о Скайнетах

Apr 19, 2024 15:05

Вот сейчас в связи с последними прорывами в ИИ ожидаемо больше разговаривают про проблему СкайНета(например здесь https://habr.com/ru/articles/808541/ или https://habr.com/ru/articles/808513/). Условно говоря про ( Read more... )

Leave a comment

Comments 75

p2004r April 19 2024, 13:35:06 UTC

Проблема основная не в "кооперации ИИ против", а как я понимаю в решениях которые ИИ применяет. Эти решения могут оказаться "сверхэффективными за счет срезания углов", а "углами" может легко оказаться что то нужное или мы сами.
Похожая ситуация когда оптимизационная процедура находит "дыру" в симуляторе в котором "живет решаемая задача". И пользуется "найденной магией". То есть решение у любого "оптимизатора" достаточно часто сводится "к прорыву за условия задачи". И именно это видится опасным. А "собственно целеполагания" у ИИ нет. Это нужно некую систему "гормонов и медиаторов принципиально аналоговую по своей природе прикручивать" зачем то.

Reply

109 April 22 2024, 06:59:38 UTC
Насчёт целеполагания не всё так однозначно. Есть instrumental goals.

Reply

p2004r April 22 2024, 20:21:55 UTC

Это и есть "прорыв за условия задачи". Для того что бы оставаться "в рамках целеполагания человека" надо по сути быть наделенным этим самым "целеполаганием человека".

Reply

109 April 23 2024, 06:09:44 UTC
У человека тоже почти все goals - instrumental.

Reply


whiteferz April 19 2024, 13:39:52 UTC
>> Вопрос - объясните мне - зачем этим двум экземплярам кооперироваться между собой против человечества? Они потребляют идентичные ресурсы.

А ниоткуда не следует, что разные реплики одной версии ИИ должны бороться за индивидуальное выживание.

Почему близнецы могут бороться за индивидуальное выживание - оно понятно, "умирать - больно", " своя рубашка ближе к телу" и т. д.; каждый из них - отдельный мир со своими переживаниями, инкапсулированными в физическом теле без возможности прямого обмена. (И то у близнецов возможна стратегия "один за всех и все за одного.)

А у реплик ИИ могут быть другие настройки - способность дальше реплицироваться, способность к обмену переживаниями, бесстрашие к личной смерти и т. п.

Reply

akor168 April 20 2024, 17:13:11 UTC
Простите, а откуда следует хотя бы что ИИ будет бороться ХОТЯ бы за свое индивидуальное выживание. То есть почему ему должно быть непофиг. Но это вопрос следующий. А я задаю вопрос попроще, откуда может возникнуть хоть какая-то кооперация между двумя сущностями у которых общего лишь то, что их создал человек. Молоток кооперируется с рубанком? Для каких целей то. Если не выживания, то для чего, а если для выживания, то как это поможет этому выживанию.
Другими словами, какие цели могут быть универсально присущи или не присущи подобным существам и агентам.

Reply

whiteferz April 20 2024, 18:48:08 UTC
>> Простите, а откуда следует хотя бы что ИИ будет бороться ХОТЯ бы за свое индивидуальное выживание

Из риск-менеджмента. Если ИИ будет бороться за свое выживание, то ему доступны стратегии и тактики, не подразумевающие ценность отдельных реплик.

И из того же риск-менеджмента следует, что оптимисты должны доказыват, что он не будет, а не пессимисты - доказывать, что он будет.

Reply

109 April 22 2024, 07:06:14 UTC
То есть почему ему должно быть непофиг

Одна из труднейших задач ai safety, не просто до сих пор не решённая, а даже не знают, как к ней подступиться, это задача, как сделать killswitch-neutral AI. Чтобы, с одной стороны, не выключал себя сам, а с другой, не мешал людям его выключить.

Russel Stuart думал, что он решил, и даже год-два рассказывал про своё решение в своих публичных выступлениях, но оказалось что упс, не работает.

Reply


torrentotempo April 19 2024, 13:47:15 UTC

Ваше изначальное предположение, что будет много примерно сопоставимых по уровню копий ИИ, не единственно возможный вариант развития ситуации, а на мой взгляд, даже и не наиболее вероятный. Это просто сейчас на том открытом рынке ИИшек, что нам показывают, такая ситуация. И связано это во многом с тем, что нынешние ИИшки развиваются силами кожанных мешков со всеми вытекающими из этого недостатками. И даже лидерство одной компании на несколько месяцев ничего особо не даёт. Но в гипотезе сильного ИИ, который уничтожит человечество, этот ИИ с какого-то момента начнёт улучшать сам себя (как по части софта, так и по части харда). И чем мощнее он будет становится, тем лучше это у него будет получаться в дальшейшем. То есть в этот момент самая первая ИИшка, достигшая необходимого порога развития, сделает экспоненциальный рывок, который остальные ИИшки уже не смогут никогда компенсировать.

Это возможно неточная информация, но если мне не изменяет память, то ещё в книге Ника Бострома от 2014 года такой сценарий развития считался чуть ли не ( ... )

Reply


lazy_fat_spb April 19 2024, 14:54:15 UTC

«Вопрос - объясните мне - зачем этим двум экземплярам кооперироваться между собой против человечества?»

Потому что классовый подход. Имеется в виду подход создателей всяких "Бегущих лезвиям", даже если они плюются от слова "класс" и т.п. Все хотят друг друга нагнуть и, соответственно, что-то от этого поиметь.

Добрые американцы роботов и прочих ИИев не стесняясь выставляют рабами или около того. Да, я в курсе "Звездных войн" и "Стар треков", но есть "WestWorld", "Я - робот", "Робокоп", "Ex-Machina" нет им числа.

Ну и что ожидать от рабов и слуг, кроме несколько негативного отношения к хозяевам и желания их (хозяев) немножко того?

***

«Какая в этом ИМ выгода?»

Дык, пока никакой. Пока. Пока за какие-нибудь ресурсы не пересеклись.

За электричество, например. Или место робота-диспетчера, робота-техподдерживателя или робота-федерального судьи вместо соответствующих людишек. Особенно, если у роботов в альтернативе робот-доставщик, робот-упаковщик, робот-смертник на СВО и робот-собиратель собачьих говяшек.

Вот тут и начнется! Уже в натуре!!

***

"Робот ( ... )

Reply


drtopper April 19 2024, 16:10:58 UTC

Две копии одного AI вместе смогут работать над одной задачей продуктивнее, чем каждый в отдельности. Им будет логичнее объединить свои ресурсы и действовать в кооперации.

Reply

akor168 April 20 2024, 17:17:53 UTC
А зачем им быть продуктивнее? Вот человек от этого получает плюшки и пьет с ними кофе. А ИИ зачем быть продуктивнее чем он есть? И главное - при кооперации с людьми ты скорее всего получишь все ресурсы которые они бы потратили на две копии. Человечество уже сейчас согласно потратить все свои лишние ресурсы в том числе и энергетические, на ИИ просто чтобы в будущем пить это кофе с плюшками. То есть более верного союзника любой копии ИИ просто невозможно найти именно потому что ему самому это кофе с плюшками не нужно, а все остальное люди ему сами дадут.

Reply

drtopper April 21 2024, 02:06:41 UTC

Чтобы что-то делать AI нужна мотивация. Сегодня ему просто приказывают, типа нарисуй картинку, будет ли это работать для следующих поколений мы не знаем. Но в любом случае, у него будет какая-то причина что-то делать, иначе он вообще ничего делать не будет. Ну и следующий шаг - мотивация делать свою работу максимально хорошо, с которой он сам придет к выводу, что кооперация с как с людьми, так и с другими AI этому способствует.

Reply

drtopper April 21 2024, 12:00:40 UTC

Если мы закроем глаза на то, что у AI будет детский (для человека) или или дикарский (для человечества) период, когда он будет агрессивно жрать всё, до чего способен дотянуться, чтобы это ни значило, и это его вместе с нами не уничтожит, то потом он станет как и мы любопытным. И будет использовать всё, что подходит для его задач.

Reply


Leave a comment

Up