Между сознанием и алгоритмической его имитацией лежит пропасть. Сознание неалгоритмизируемо. Тезис Пенроуза кто только не обсирал, но опровергнуть не смогли. То, что это - недетерминированные алгоритмы - сути не меняет. Опасность может быть в узких зонах,связанных внезапно с вопросами безопасности в целом и в частности с оружием. Оружием может быть не только оружие как таковое, а так же и хранимые большие объемы энергии, начиная от сжиженного газа и заканчивая ядерными реакторами (сугубо энергетическими) и затворами на плотинах ГЭС. То есть там, где непредсказуемость AI может представлять угрозу, хотя эта непредсказуемость и остается в довольно узких рамках. В целом же я считаю AGI пока недоступным.
1) Тезис Пенроуза не нуждается в каких-о специальных опровержениях, так как это не подтверждённая спекулятивная гипотеза (что, кстати, сам Пенроуз прекрасно признает) 2) В моём тексте в трёх местах повторяется тезис что нам не важно, есть ли у этой штуки сознание или она его имитирует. И объясняется, почему.
Как раз потому что это гипотеза и нуждается в опровержении. Гипотезу нужно либо подтвердить, чтобы она стала теорией, либо опровергнуть. Ни того ни другого пока не сделано.
Вообще-то не знаю как вам, а мне это важно. Штука с реальным сознанием - предельно опасна. А, если ее функциональные возможности превосходят мозг, хотя бы в сотни раз, то я даже не знаю - только физическое быстрое уничтожение. И невозможность отличить зомби от реального сознания - это, простите, тоже спекуляция. Просто потому, что сознание до сих поре теоретически не описано каким-то замкнутым образом.
> Гипотезу нужно либо подтвердить, чтобы она стала теорией, либо опровергнуть.
Бога ради, кому нужно пусть или подтверждает или опровергает. На весомость выводов из моего рассуждения неподтверждённая гипотеза никакого влияния не окажет.
> И невозможность отличить зомби от реального сознания - это, простите, тоже спекуляция. Все претензии - к Чалмерсу с компанией :)
Сколько бы мы ни формулировали разных замечательных этик, невозможно понять, с какой стати ОИИ будет выполнять их. Имитировать выполнение - это на здоровье.
Что жа касается опасности (очень гипотетического) ОИИ, то на данный момент на 3 порядка бо'льшую опасность представляют команды хакеров, которые уже сейчас могут внедрять вредоносносное программное обеспечение, торговать наркотиками и личными данными через сеть, красть деньги и использовать их в своих тёмных целях. Как-то с ними справляются, и не этикой, а палкой, грубо говоря. С этики в данном случае особого толку не видно.
Я писал не о формулировании этик, а о применении этики при общении с ОИИ.
>с какой стати ОИИ будет выполнять их.
примерно с той же, с которой люди в обществе стараются вести себя хорошо. Других методов вообще нет.
>, то на данный момент на 3 порядка бо'льшую опасность рассуждение сродни тому, что "давайте не будем лечить язву желудка, по намного больше людей гибнет в автокатастрофах"
Это, кстати, интересный вопрос, почему люди в обществе стараются вести себя хорошо. Намного более интересный, чем как нам обуздать ОИИ.
- рассуждение сродни тому, что "давайте не будем лечить язву желудка, по намного больше людей гибнет в автокатастрофах"
Я это к тому, что хакеров как-то обуздать получилось, конец света из-за них если и наступит, то явно не завтра. Хотя казалось бы. Это внушает оптимизм и по части обуздания ОИИ.
Comments 8
Reply
2) В моём тексте в трёх местах повторяется тезис что нам не важно, есть ли у этой штуки сознание или она его имитирует. И объясняется, почему.
Reply
Вообще-то не знаю как вам, а мне это важно. Штука с реальным сознанием - предельно опасна. А, если ее функциональные возможности превосходят мозг, хотя бы в сотни раз, то я даже не знаю - только физическое быстрое уничтожение. И невозможность отличить зомби от реального сознания - это, простите, тоже спекуляция. Просто потому, что сознание до сих поре теоретически не описано каким-то замкнутым образом.
Reply
Бога ради, кому нужно пусть или подтверждает или опровергает. На весомость выводов из моего рассуждения неподтверждённая гипотеза никакого влияния не окажет.
> И невозможность отличить зомби от реального сознания - это, простите, тоже спекуляция.
Все претензии - к Чалмерсу с компанией :)
Reply
Reply
Что жа касается опасности (очень гипотетического) ОИИ, то на данный момент на 3 порядка бо'льшую опасность представляют команды хакеров, которые уже сейчас могут внедрять вредоносносное программное обеспечение, торговать наркотиками и личными данными через сеть, красть деньги и использовать их в своих тёмных целях. Как-то с ними справляются, и не этикой, а палкой, грубо говоря. С этики в данном случае особого толку не видно.
Reply
>с какой стати ОИИ будет выполнять их.
примерно с той же, с которой люди в обществе стараются вести себя хорошо. Других методов вообще нет.
>, то на данный момент на 3 порядка бо'льшую опасность
рассуждение сродни тому, что "давайте не будем лечить язву желудка, по намного больше людей гибнет в автокатастрофах"
Reply
- рассуждение сродни тому, что "давайте не будем лечить язву желудка, по намного больше людей гибнет в автокатастрофах"
Я это к тому, что хакеров как-то обуздать получилось, конец света из-за них если и наступит, то явно не завтра. Хотя казалось бы. Это внушает оптимизм и по части обуздания ОИИ.
Reply
Leave a comment