Десять лет назад, ещё до современного взлёта deep learning, в этом журнале я
предсказал, что прорыв в AI будет основан на обобщении методов распознавания изображений. Я, правда, совершенно не ожидал, что методами этими окажется старый добрый градиентный спуск, только хорошо так перебрендированный и умеющий уважать инварианты предметной области, а
(
Read more... )
Comments 96
Reply
Раньше думали, что киборг - это уникальные человеческие мозги плюс новое тело взамен несовершенного мяса.
Оказалось наоборот
Reply
А, если серьезно, то вся проблема в материалах, которые бы сокращались при подаче напряжения. Такие решения уже есть, но до человеческих мышц им пока далеко в плане прочности, силы и кратности сокращения.
Reply
Reply
Гораздо проще, но, к счастью для человечества, итоговая конфигурация дороже.
А так-то да, к этому уже всё идёт. Один мой друг уже пару лет делает довольно жуткие технологии вида "видеокамера следит за людьми, выделяет моменты нарушения инструкции и штрафует". Лично я не хотел бы, чтобы это стало мейнстримом. В принципе, по ту сторону камеры и человек может сидеть, конечно, но у всего этого есть какой-то важный переход количества в качество.
Reply
Reply
Reply
Reply
Reply
Reply
Распознавание команд на естественном языке далеко не главная задача.
Reply
Я не очень понял, с чем.
"Распознавание команд на естественном языке" не главная задача, главная задача это построение универсальной Q-функции, специфицируемой командами на естественном языке.
Reply
Q-функция это что-то вроде модели?
Reply
Очень простым и древним примером является функция оценки позиции в шахматах. Аналогом "функции вознаграждения" является только исход партии: выигрыш, проигрыш или ничья. А подсчёты вроде "конь стоит 3 пешки, ладья 5, ферзь 9-10", позволяющие, собственно, перебирать варианты, это уже какой-то аналог Q-функции. Современные шахматные программы свои функции оценки позиции как раз выучивают, но это легко, потому что сама игра очень дискретная и с полной информацией.
Q-функция для задач реального мира, конечно, будет гораздо сложнее, и в определенном смысле должна включать в себя его модель. Есть надежда, что при достаточно большом датасете и transfer learning-е с предиктивных моделей она там возникнет сама собой. По крайней мере, в тяжелых языковых моделях типа GPT-3 так и случилось.
Reply
Leave a comment