>Человеческие попытки контролировать сверхразумы будут встречать ожесточенное сопротивление с их стороны.
Так для того и существует алигмент. Видимо, неудачные попытки уже были apples_jimmy/status/1726439290815811625
Интересно, как это выглядело.
Я думаю, если поставить цель создать более умного чем человек осьминога, можно управиться за 1000
(
Read more... )
Comments 2
Из правильного понимания скорости развития ИИ и его опасности для человеческого вида следует неизбежное логическое следствие:
1. Сильные державы должны отказаться от настоящей 3-ей мировой войны и объединить усилия. Бесполезно атаковать центры принятия решений в условиях уже реально существующей руки смерти. Есть новости о том, что Майкрософт помогает создавать крупные датацентры в Англии и Франции. Возможно, это оно.
2. Договориться с ещё каким-то количеством стран/элит о сотрудничестве.
3. Во всех остальных странах (включая РФ и Китай) провести серию революций. В том числе с использованием пост-сингулярных технологий.
4. Установить мировое военное положение, отключить интернет и электричество. После этого установить физическую монополию на ИИ, т.к. никакой другой быть не может.
Это самое минимальное по опасности, что нас ждёт. Видимо, что-то подобное и так планировалось, но только не с такой скоростью. Экспоненциальное развитие ИИ вынуждает действовать моментально.
Скорее всего это неожиданный вывод, с которым многие не согласятся ( ... )
Reply
Разумеется, любые попытки остановить развитие ИИ предпринимать уже слишком поздно.
Reply
Leave a comment