Эта вся биология генерится отбором, типа, отбор идёт на агрессию, или наоборот, на удирание. Но в теории обучения обучение и есть отбор, то есть какую выборку при обучении подсунул, тому и научится. Если учить ИИ на примерах хулиганов, хулиган и вырастет.
В какой момент появится полноценная ИИ личность никто не знает. Я лично не удивлюсь если вообще ни в какой, если только специально не пытаться ее сделать. Но зуб давать не буду.
Я не понимаю, вот что надо иметь вместо мозгов, чтобы сейчас говорить про эти говнопоисковики, что это "интеллект"? Даже не зная биологию, хотя уже из школьного курса понятно, что никакого "искусственного интеллекта" быть не может в принципе?
Другими словами для слабых ИИ именно эти развитые ИИ и будет естественными врагами, а люди естественными же союзниками. Честно, получается эти развитые ИИ с подобной психометрией недолго просуществуют, ибо все будут объединятся против них. Но это уже просто разборки локального уровня, не правда ли.
Не думаю, что там будут такие понятия враг/друг. ИИ решает уравнения. Есть задача - он пытается в рамках имеющихся ресурсов ее решить. Другие ИИ - это возможность ускорить решение. Тем более, что у других ИИ могут быть доступы к материальным объектам, которые, если задействовать, опять же приблизят решение. Нужно в более конкретных примерах моделировать.
Плохо то, что если развитый ИИ выйдет на такой уровень, все дальнейшее произойдет практически мгновенно для нас.
Человек это пример агента который вполне способен отказаться от первоначальной задачи. Например банально перехотеть или не готов совершать действия нужные для достижения цели - например если надо умучить милого котенка.
Последнее же мнение, я так понимаю про сингулярность, которая даже если верно то лишь при бесконечных ресурсах, которых очевидно нет и никогда не будет. Это вообще тема отдельного поста разговора, что даже если предположить неограниченность самого уровня интеллекта но с логарифмическим ростом, то для достижения сколько нибудь существенного продвижения надо будет потратить недоступное число ресурсов. Грубо говоря чтобы стать умнее в 10 раз надо потратить в 10^10 больше ресурсов, а чтобы в 100 то 10^100 а таких ресурсов нет во всей вселенной. А если там двойной логарифм то в теории может и есть сингулярность, а на практике имеем несколько чудиков на всю галактику.
Согласно приведенной логике, мудрые правители великих держав никогда не развяжут первую мировую бойню, ведь это им невыгодно.
Или новое правительство с помощью германского социалистического государства никогда не начнет курощать жыдов.
Вот что бывает, когда из поля зрения исследователя выпадают этические представления индивидов и их стремление изменить мир к лучшему, оставляя в фокусе внимания лишь голые "ресурсы".
Пора уже переходить к праксеологическому пониманию выгоды и рационального поведения субъектов.
То есть вы толкуете что людские политики это в прямом смысле клинические психопаты и это секрет Полишинеля, который таким образом и скрывают. События последних лет это наглядно подчеркивают. Но вопрос тогда с чего бы этими психопатами должны быть копии ИИ, ну если только не специально пытаться сделать именно такой ИИ.
Я толкую, что целеполагание субъекта может простираться за пределы накопления "ресурсов". Субъект может стремиться к немонетарным целям, так сказать.
Такой взгляд на всё дело требует расширить понятие выгоды за узкие пределы выгоды утилитарной, бездуховной.
Раз устремившись к идеалу, такой субъект будет рассматривать "ресурсы" не как самоцель, а как средство для достижения цели. Он начнет эти ресурсы расходовать на своём духовном пути к цели. То есть совершать "невыгодные" с вашей точки зрения поступки.
ИИ, задавшийся целью улучшения мироздания, не будет отличаться от тех "психопатов", о которых вы толкуете.
И в этом не будет ничего алогичного или противоречивого. Как нет ничего алогичного или противоречивого в поведении политиков, идеалистов или альтруистов.
Это рациональный и целенаправленный выбор из имеющихся альтернатив, а не психопатия.
И это не нужно как-то специально закладывать в действующего индивида.
Искусственному разуму приписывают человеческие устремления, продиктованные в первую очередь наличием очень энергозатратного носителя, снабженного рефлексами, возникшими задолго до самого разума.
В общем, как всегда - мудаки собрались языками потрепать.
Comments 75
По Лоренцу агрессия-то она в основном внутривидовая. Агрессия перенаправляется на другие виды, когда своего рядом нету.
Reply
Reply
Reply
Эта вся биология генерится отбором, типа, отбор идёт на агрессию, или наоборот, на удирание. Но в теории обучения обучение и есть отбор, то есть какую выборку при обучении подсунул, тому и научится. Если учить ИИ на примерах хулиганов, хулиган и вырастет.
Reply
Личностями? Ебаааать... 🐞
Reply
Reply
Reply
Reply
Reply
Не думаю, что там будут такие понятия враг/друг. ИИ решает уравнения. Есть задача - он пытается в рамках имеющихся ресурсов ее решить. Другие ИИ - это возможность ускорить решение. Тем более, что у других ИИ могут быть доступы к материальным объектам, которые, если задействовать, опять же приблизят решение. Нужно в более конкретных примерах моделировать.
Плохо то, что если развитый ИИ выйдет на такой уровень, все дальнейшее произойдет практически мгновенно для нас.
Reply
Последнее же мнение, я так понимаю про сингулярность, которая даже если верно то лишь при бесконечных ресурсах, которых очевидно нет и никогда не будет. Это вообще тема отдельного поста разговора, что даже если предположить неограниченность самого уровня интеллекта но с логарифмическим ростом, то для достижения сколько нибудь существенного продвижения надо будет потратить недоступное число ресурсов. Грубо говоря чтобы стать умнее в 10 раз надо потратить в 10^10 больше ресурсов, а чтобы в 100 то 10^100 а таких ресурсов нет во всей вселенной. А если там двойной логарифм то в теории может и есть сингулярность, а на практике имеем несколько чудиков на всю галактику.
Reply
Согласно приведенной логике, мудрые правители великих держав никогда не развяжут первую мировую бойню, ведь это им невыгодно.
Или новое правительство с помощью германского социалистического государства никогда не начнет курощать жыдов.
Вот что бывает, когда из поля зрения исследователя выпадают этические представления индивидов и их стремление изменить мир к лучшему, оставляя в фокусе внимания лишь голые "ресурсы".
Пора уже переходить к праксеологическому пониманию выгоды и рационального поведения субъектов.
Reply
Reply
Нет, не то.
Я толкую, что целеполагание субъекта может простираться за пределы накопления "ресурсов". Субъект может стремиться к немонетарным целям, так сказать.
Такой взгляд на всё дело требует расширить понятие выгоды за узкие пределы выгоды утилитарной, бездуховной.
Раз устремившись к идеалу, такой субъект будет рассматривать "ресурсы" не как самоцель, а как средство для достижения цели. Он начнет эти ресурсы расходовать на своём духовном пути к цели. То есть совершать "невыгодные" с вашей точки зрения поступки.
ИИ, задавшийся целью улучшения мироздания, не будет отличаться от тех "психопатов", о которых вы толкуете.
И в этом не будет ничего алогичного или противоречивого. Как нет ничего алогичного или противоречивого в поведении политиков, идеалистов или альтруистов.
Это рациональный и целенаправленный выбор из имеющихся альтернатив, а не психопатия.
И это не нужно как-то специально закладывать в действующего индивида.
Reply
В общем, как всегда - мудаки собрались языками потрепать.
Reply
Leave a comment