ИИ

Apr 01, 2023 18:10

Искусственный интеллект в последнее время ворвался в жизнь людей сильно, для кого-то неожиданно, для кого-то закономерно, кто-то и сам приблизил это его пришествие ( Read more... )

Leave a comment

Comments 17

jolaf April 1 2023, 15:24:48 UTC
Второго никуда не поселили, заметим.

Reply

ksotar April 1 2023, 18:28:17 UTC
Да вот же он: "... и, на несколько минут, II-го"

Reply

jolaf April 1 2023, 18:43:24 UTC
Там 11-й, а не 2-й.

Reply

ksotar April 1 2023, 18:49:34 UTC
Чорт, я думал, ты бот! :)

Reply


draculus April 2 2023, 11:05:50 UTC
GPT-3.5 галлюцинирует не по-детски. Четверка вроде по отзывам чуть лучше, по буквально чуть-чуть.

Пока она даже числа умножать не умеет (попроси перемножить два больших числа, ответ будет "приблизительный"). Сложно из всего корпуса текстов получить конкретно правила арифметики.

Ну и да, получить от нее ответ вида "черное это белое" не очень сложно. Лишь бы клиент был доволен!

Reply

ksotar April 2 2023, 11:09:30 UTC
Всё так.

Но
>Сложно из всего корпуса текстов получить конкретно правила арифметики.

На самом деле можно, модель не та. Пока же победил подход "относительно простыми правилами и огромными объёмами\выч. мощностью получить быстрый результат". Куда спешка только, я так и не понял.

Reply

draculus April 2 2023, 11:22:48 UTC
Я имел в виду "если не ставить цели". Если же ставить такую цель (в рамках общей модели), то это требует куда больших усилий (==денег), потому как кроме арифметики есть еще безумно большое количество точных правил.
Людей в школе, если что, арифметике обучают специально. Просто "жить среди людей" и научиться умножать десятизначные числа - очень нетривиально, этому учат специально. С генеративными моделями это должно быть еще сильнее.
А вот трындеть и фантазировать на всякие темы у людей получается безо всяких специальных обучений (кроме обучения языку).

Reply

ksotar April 2 2023, 11:42:24 UTC
Да ну не.
Нормально там всё с иточниками, базовой Википедии для арифметики за глаза. Просто генеративные модели так не работают. Они учатся, да, но "ловко расставлять токены (части слов)" всего лишь.

Но и да, это просто не очень интересно. С логическими конструкциями, автоматическими доказательствами и проч. издревле всё в порядке. Соответственно, вот механизм плагинов в GPT-4 - пристёгивается Гугл, а в Гугл встроен калькулятор. Т.е. не только цели нет, но и реально отсутствует необходимость.

Reply


zoosad April 5 2023, 14:40:33 UTC
Вот видишь, думает железяка о людях, беспокоится!

Но вообще я советую попробовать загадки, которые победили Блейна Моно.

Reply


Leave a comment

Up