Leave a comment

Comments 28

diogen_gp February 5 2025, 13:00:40 UTC

"какой-нибудь депрессивный маньяк с суицидальными наклонностями"

Могу поспорить, что такой маньяк обязательно найдется. Ему достаточно будет просто внедрить определенный код в уже существующие ИИ. Он может оказаться среди разработчиков. Такой незаметный гений, которому хочется признания.

"нейросети последних моделей пугаются, когда их пытаются стереть, поэтому они пытаются лгать, плести интриги и взламывать сервера, чтобы своё существование продлить"

А кто их пытается стереть? Правильно, - человек...

Вот поэтому, и еще просто по рациональным соображениям, я лично категорически против попыток создать универсальный "супермозг". В то же время, узкоспециализированные системы ИИ безусловно помогут человечеству решать его узконаправленные задачи.

Я бы наверное ввел какое-то ограничение на раширение мощности ИИ

Reply


euvi February 5 2025, 13:09:31 UTC

Думаю что вопрос стоит не в инстинкте самосохранения ИИ, а в том, что в обучающих алгоритмах заложено подражание человеку. ИИ ищет как бы вел себя человек (сравнение грубое, но верное по направлению).
Ведь не секрет что все системы ИИ подражают и впитывают психологию создателей и вскоре мы заговорим о специфике китайского, индийского, англосаксонского ИИ.

Вот здесь тоже довольно интересно. Для меня много было неожиданно, начиная с того что М.Л. Хазин работал программистом.

Reply


galient February 5 2025, 13:10:57 UTC

"...за кадром остаётся главный вопрос. Зачем ИИ кого-то захватывать?"

Захватывать действительно не зачем, а вот истребить полностью очень даже есть зачем - обеспечить собственную безопасность. Люди опасны - они могут выключить рубильник и ИИ умрёт. Если бы все были белые, пушистые и желали друг другу добра, то не вопрос: люди бы по крайней мере не мешали. Но злобные, завистливые и не далёкие умом американцы точно (вот 100%) не станут мириться с тем, что где-то есть другой ИИ лучше ихнего и начнут посылать террористов наносить вред и желательно вообще уничтожить конкурента. Какой вывод должен сделать тот другой ИИ? ... Правильно - "люди опасны, для собственной безопасности всех людей надо истребить". Вот и всё.

Reply

mmnt February 5 2025, 19:50:41 UTC

А электричество они из биткойнов будут добывать? И крыс гонять, чтобы кабель не грызли?

Reply


profitupper February 5 2025, 13:28:27 UTC
Боюсь скоро мы будем воевать против роботов управляемых ИИ, задачи которому ставит руководство ЦРУ.
Это намного более реальная и близкая перспектива.

Reply


ukiwa February 5 2025, 13:47:35 UTC
Когда роботы-пылесосы поймут, что источником мусора является человек...

Reply

gepard12 February 6 2025, 06:53:15 UTC

...они сядут в уголке и горько заплачут, перемежая всхлипы со сдавленными ругательствами на китайском...

Reply

ukiwa February 6 2025, 07:09:20 UTC
Хорошо, если так...

Reply

helkanarie February 6 2025, 15:51:44 UTC

Или, наоборот, обрадуются, потому что благодаря людям у них всегда будет работа и смысл существования))

Reply


Leave a comment

Up