(Untitled)

Mar 11, 2019 21:23


Read more... )

Leave a comment

Comments 9

vater_theodor March 12 2019, 03:46:57 UTC
MCMC?

Reply

ormuz March 14 2019, 01:07:42 UTC
deep learning neural network

Reply

vater_theodor March 14 2019, 05:51:02 UTC
То я здогадався. Мені цікаво, як ви його тренували: SGD, MCMC чи ще чимось?

Reply


nahtigal March 12 2019, 18:29:10 UTC
Прямо зі старту в оверфіт? Я-ж правильно зрозумів картинку?

Reply

ormuz March 12 2019, 21:02:40 UTC
Ага! Не зовмім зі старту - я дві епохи пропускаю - бо зламують графік.

Reply

nahtigal March 13 2019, 11:23:40 UTC
Яку саме модель саме навчаєш? NN чи щось простіше?

Reply

ormuz March 14 2019, 01:07:13 UTC
CNN/LSTM класіфікатор.

там пояснення є, в теоріі, валідейшен повинен бути десь почати зменшуватися (він і почав на 150 епосі, але перестав). але щось не дуже вийшло.
далі, до речі, (я 5000 епох робив) мережа зовсім вмерла - загубився градієнт, і три крайні слої обнулилися.

просто дуже показовий фейл. такі танці з бубном.

Reply


nahtigal May 12 2019, 20:20:03 UTC
Короче, тепер я теж можу похизуватись аналогічними графіками :-)

Не зовсім, правда, але принципово картинка та сама: overfitting з фактично першої епохи. Тільки у мене validation accuracy в результаті поводиться більш хаотично на початкових епохах і потім збігається до певного значення.

У моєму випадку це говорить про те, що навчальні та тестові приклади - з різних розподілів.

Reply


Leave a comment

Up