Leave a comment

Comments 8

moonwalker72 December 17 2023, 13:36:28 UTC
Между сознанием и алгоритмической его имитацией лежит пропасть. Сознание неалгоритмизируемо. Тезис Пенроуза кто только не обсирал, но опровергнуть не смогли. То, что это - недетерминированные алгоритмы - сути не меняет. Опасность может быть в узких зонах,связанных внезапно с вопросами безопасности в целом и в частности с оружием. Оружием может быть не только оружие как таковое, а так же и хранимые большие объемы энергии, начиная от сжиженного газа и заканчивая ядерными реакторами (сугубо энергетическими) и затворами на плотинах ГЭС. То есть там, где непредсказуемость AI может представлять угрозу, хотя эта непредсказуемость и остается в довольно узких рамках. В целом же я считаю AGI пока недоступным.

Reply

golosptic December 17 2023, 18:05:12 UTC
1) Тезис Пенроуза не нуждается в каких-о специальных опровержениях, так как это не подтверждённая спекулятивная гипотеза (что, кстати, сам Пенроуз прекрасно признает)
2) В моём тексте в трёх местах повторяется тезис что нам не важно, есть ли у этой штуки сознание или она его имитирует. И объясняется, почему.

Reply

moonwalker72 December 18 2023, 10:12:34 UTC
Как раз потому что это гипотеза и нуждается в опровержении. Гипотезу нужно либо подтвердить, чтобы она стала теорией, либо опровергнуть. Ни того ни другого пока не сделано.

Вообще-то не знаю как вам, а мне это важно. Штука с реальным сознанием - предельно опасна. А, если ее функциональные возможности превосходят мозг, хотя бы в сотни раз, то я даже не знаю - только физическое быстрое уничтожение. И невозможность отличить зомби от реального сознания - это, простите, тоже спекуляция. Просто потому, что сознание до сих поре теоретически не описано каким-то замкнутым образом.

Reply

golosptic December 19 2023, 05:42:22 UTC
> Гипотезу нужно либо подтвердить, чтобы она стала теорией, либо опровергнуть.

Бога ради, кому нужно пусть или подтверждает или опровергает. На весомость выводов из моего рассуждения неподтверждённая гипотеза никакого влияния не окажет.

> И невозможность отличить зомби от реального сознания - это, простите, тоже спекуляция.
Все претензии - к Чалмерсу с компанией :)

Reply



alaev December 18 2023, 06:54:00 UTC
Сколько бы мы ни формулировали разных замечательных этик, невозможно понять, с какой стати ОИИ будет выполнять их. Имитировать выполнение - это на здоровье.

Что жа касается опасности (очень гипотетического) ОИИ, то на данный момент на 3 порядка бо'льшую опасность представляют команды хакеров, которые уже сейчас могут внедрять вредоносносное программное обеспечение, торговать наркотиками и личными данными через сеть, красть деньги и использовать их в своих тёмных целях. Как-то с ними справляются, и не этикой, а палкой, грубо говоря. С этики в данном случае особого толку не видно.

Reply

golosptic December 19 2023, 05:44:23 UTC
Я писал не о формулировании этик, а о применении этики при общении с ОИИ.

>с какой стати ОИИ будет выполнять их.

примерно с той же, с которой люди в обществе стараются вести себя хорошо. Других методов вообще нет.

>, то на данный момент на 3 порядка бо'льшую опасность
рассуждение сродни тому, что "давайте не будем лечить язву желудка, по намного больше людей гибнет в автокатастрофах"

Reply

alaev December 19 2023, 08:30:36 UTC
Это, кстати, интересный вопрос, почему люди в обществе стараются вести себя хорошо. Намного более интересный, чем как нам обуздать ОИИ.

- рассуждение сродни тому, что "давайте не будем лечить язву желудка, по намного больше людей гибнет в автокатастрофах"

Я это к тому, что хакеров как-то обуздать получилось, конец света из-за них если и наступит, то явно не завтра. Хотя казалось бы. Это внушает оптимизм и по части обуздания ОИИ.

Reply


Leave a comment

Up