Искусственный интеллект в последнее время ворвался в жизнь людей сильно, для кого-то неожиданно, для кого-то закономерно, кто-то и сам приблизил это его пришествие
( Read more... )
GPT-3.5 галлюцинирует не по-детски. Четверка вроде по отзывам чуть лучше, по буквально чуть-чуть.
Пока она даже числа умножать не умеет (попроси перемножить два больших числа, ответ будет "приблизительный"). Сложно из всего корпуса текстов получить конкретно правила арифметики.
Ну и да, получить от нее ответ вида "черное это белое" не очень сложно. Лишь бы клиент был доволен!
Но >Сложно из всего корпуса текстов получить конкретно правила арифметики.
На самом деле можно, модель не та. Пока же победил подход "относительно простыми правилами и огромными объёмами\выч. мощностью получить быстрый результат". Куда спешка только, я так и не понял.
Я имел в виду "если не ставить цели". Если же ставить такую цель (в рамках общей модели), то это требует куда больших усилий (==денег), потому как кроме арифметики есть еще безумно большое количество точных правил. Людей в школе, если что, арифметике обучают специально. Просто "жить среди людей" и научиться умножать десятизначные числа - очень нетривиально, этому учат специально. С генеративными моделями это должно быть еще сильнее. А вот трындеть и фантазировать на всякие темы у людей получается безо всяких специальных обучений (кроме обучения языку).
Да ну не. Нормально там всё с иточниками, базовой Википедии для арифметики за глаза. Просто генеративные модели так не работают. Они учатся, да, но "ловко расставлять токены (части слов)" всего лишь.
Но и да, это просто не очень интересно. С логическими конструкциями, автоматическими доказательствами и проч. издревле всё в порядке. Соответственно, вот механизм плагинов в GPT-4 - пристёгивается Гугл, а в Гугл встроен калькулятор. Т.е. не только цели нет, но и реально отсутствует необходимость.
Comments 17
Reply
Reply
Reply
Reply
Пока она даже числа умножать не умеет (попроси перемножить два больших числа, ответ будет "приблизительный"). Сложно из всего корпуса текстов получить конкретно правила арифметики.
Ну и да, получить от нее ответ вида "черное это белое" не очень сложно. Лишь бы клиент был доволен!
Reply
Но
>Сложно из всего корпуса текстов получить конкретно правила арифметики.
На самом деле можно, модель не та. Пока же победил подход "относительно простыми правилами и огромными объёмами\выч. мощностью получить быстрый результат". Куда спешка только, я так и не понял.
Reply
Людей в школе, если что, арифметике обучают специально. Просто "жить среди людей" и научиться умножать десятизначные числа - очень нетривиально, этому учат специально. С генеративными моделями это должно быть еще сильнее.
А вот трындеть и фантазировать на всякие темы у людей получается безо всяких специальных обучений (кроме обучения языку).
Reply
Нормально там всё с иточниками, базовой Википедии для арифметики за глаза. Просто генеративные модели так не работают. Они учатся, да, но "ловко расставлять токены (части слов)" всего лишь.
Но и да, это просто не очень интересно. С логическими конструкциями, автоматическими доказательствами и проч. издревле всё в порядке. Соответственно, вот механизм плагинов в GPT-4 - пристёгивается Гугл, а в Гугл встроен калькулятор. Т.е. не только цели нет, но и реально отсутствует необходимость.
Reply
Но вообще я советую попробовать загадки, которые победили Блейна Моно.
Reply
Leave a comment