>>150964 У меня сложилось впечатление, что на практике для использования нейросетей знать матана особо не надо не надо. Ну серьезно, все библиотеки давно написаны
если вы конечно не хотите вырываться во что-то гениальное и становиться чемпионами kaggle.com, и для простых сетей типа перцептронов, и для DeapLearning (сложных многослойных сетей). И вообще задача использования нейросетей, как я понял, похожа на задачу использования методов оптимизации, то есть подбора параметров (топологии сети, числа слоев, числа нейронов, функции активации, метода обучения и количества эпох обучения). Да и вообще, в самой идеи нейросети ничего сложного с точки зрения математики нет, только в методах обучения, но на практике, похоже, и не надо знать почему метод такой, а надо знать КАКОЙ метод использовать. Так что для меня то проблема состоит в отсутствии хороших практических пособий, а не бесполезных статей из формул. Опять же, формулы лишними не будут, я предпочитаю разбираться, как что работает, но это практической части бы побольше.
>>150965 Я начинал примерно так: прочитал, что такое нейросеть и для чего она нужна, нашел самую элементарную нейросеть (однослойный перцептрон), затем перешел к практике. Для начала решил написать сетевую библиотечку сам
иначе не мог, это позволило мне лучше разобраться, для этого прочитал про искусственный нейрон и функции активации, затем, собственно, про сам перцептрон. Потом потрахался с обучением и запилил обучение методом обратного распространения ошибки. Проверил на работоспособность, подправил, и, о чудо, все заработало. Тогда я скачал популярную и простую библиотеку для питона и начал играться. Сначала аппроксимировал прямую
хотя на это способен даже ОДИН нейрон, затем синусоиду и решил задачу XOR
простейшая линейно неразделимая задача. Потом немного с классификацией, вроде положительные/отрицательные числа и задачу про Ирисы. Вот сейчас пытаюсь, когда нахожу время, изучать другие топологии и методы обучения, хотя на сверточных сетях слегка запоролся.
Элементарные советы могу дать такие: число входных нейронов равно числу стимулов (например для картинки 16х16 = 256, для функции одной переменной - 1 нейрон, для функции трех переменных - 3), если задача легко формализуема, то в скрытом слое надо немного нейронов (штук 5), если сложно - сильно больше. Эпох обучения нужно довльно много, 10 - 10000, и это может занять немало времени (так как метод обратного распространения ошибки это градиентный алгоритм), но не слишком много, иначе можно столкнуться с проблемой
переобучения.
Алсо, если нужно я могу как-нибудь объяснить персептрон и тому подобные вещи на пальцах.
P.S извините за неровный почерк