Мое первое вступление в ML и DL было в прошлом году в Udacity / Coursera и с использованием TensorFlow.Я должен признать, что многому научился, но ничего из этого не было закреплено до тех пор, пока я не прочитал книгу Майкла Нильсона о нейронных сетях и DL.
Идеи были закреплены только потому, что я следовалего примеры на python / numpy, а затем «скопировал» эти методы , насколько я могу , используя C только с stdlib.
Я сделал это, потому что хотел попрактиковаться в кодировании на C. Вы можете поспоритьчто теперь я понимаю, как обработать SEGFAULTS
/ SIGSEGV
намного лучше, чем когда я начал это более месяца назад.
Я смог понять больше деталей SGD / backprop для vanillaСети прямой связи, потому что я практиковал их.
К сожалению, когда дело дошло до Conv Nets, он перешел прямо в Theano.
Так что теперь я ищу подробные обсуждения в свертках, im2col, объединении, SGD /backprop и т. д., которые не используют какую-либо структуру и описывают только уравнения и алгоритмы (и, надеюсь, некоторые примеры кода в python/numpy
и даже лучше в C/C++
).
Пожалуйста, поймите, я не пытаюсь написать свою собственную библиотеку или фреймворк.Я просто пытаюсь получить глубокие глубокие фундаментальные знания по этим темам.Я полагаю, что этого можно достичь, только практикуя их с python/numpy
или C или любым другим языком по выбору.
Затем я могу опираться на это с помощью такой инфраструктуры, как TF / PyTorch / Theano, чтобы экспериментировать с настройкой гиперпараметров,и т.д.