Всем читать в нейронетных кулуарах правительства огромную дискуссию по безопасности искусственных интеллектов. Я уж не выдержал, принял активное участие (возможно, вам нужно будет попроситься в группу, чтобы иметь доступ к записи):
https://www.
( Read more... )
Но в конце, когда он рассказывал про конкретные приложения - картинки там всякие и т.п., много было впечатляющего - он все время говорил, что надо очень много данных, чтобы это работало. И у меня какой-то когнитивный диссонанс случился, как будто начало концу противоречило. И прямо до сих пор жалею, что не спросила его об этом.
Reply
Reply
И все равно мне тут видится какой цикл - overfit как раз потому и происходит, что есть dimensionality curse. А если его научились обходить, то откуда опять overfit?
Reply
Overfit никуда не девается, все практические работы рассказывают, как с ним борются.
А вообще очень забавно наблюдать, как каждые пару недель делается какая-то атака на основание (например, Бенжио долбит в backpropagation, плюс предлагает заменить умножение битовым сдвигом что приведёт к удешевлению и убыстрению железа в разы и разы). Лента http://vk.com/deeplearning просто поражает плотностью событий в ведущих лабораториях. Но мы ведь понимаем, что огромное число событий сейчас происходит в закрытых от посторонних глаз стартапах! Финансирование-то уже пошло, дальше ждём пару-тройку лет до выхода продуктов.
Reply
грубо говоря, раньше был smooth prior
а сейчас допустим "deep" prior или к примеру sparse
вообще тут ведь важную роль играет выбор алго - за ними стоят разные априорные предположения
можно сказать что борьба с проклятием идет подбором лёрнинговой архитектуры, которая удачно ляжет на ту или иную задачу
ну тут и полезно иметь много разных гибких алго, в том числе конструируемых из отдельных кусочков
Reply
Reply
Reply
Reply
Leave a comment