Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
Систематическое изучение искусственных нейронных сетей было начато Маккалохом и Питтсом в 1943 году Позднее они исследовали нейросетевые парадигмы для распознавания изображений, подвергаемых сдвигам и поворотам, используя при этом нейронную модель, показанную на рис.4. Элемент ∑ умножает каждый вход х1, на вес w1 и суммирует взвешенные входы. Если эта сумма больше заданного порогового значения, выход равен единице, в противном случае - нулю Эти системы (и множество им подобных) получили название персептронов.
Они состоят из одного слоя искусственных нейронов, соединенных с помощью весовых коэффициентов с множеством входов.
Рис. 4. Персептронный нейрон
Рис. 5. Персептрон со многими выходами
Процедура обучения персептрона:
ШАГ 1. Проинициализировать элементы весовой матрицы небольшими случайными значениями
ШАГ 2. Подать на входы один из входных векторов, которые сеть должна научиться различать, и вычислить ее выход
ШАГ 3. Если выход правильный, перейти на шаг 4. Иначе вычислить разницу между требуемым и полученным значениями выхода:
δ = d - Y
Модифицировать веса в соответствии с формулой
где t и t+1 - номера текущей и следующей итераций, η - коэффициент скорости обучения, 0 < η < 1, i– номер входа, j – номер нейрона в слое.
Очевидно, что если d > Y, то весовые коэффициенты будут увеличены и, тем самым уменьшат ошибку. В противном случае они будут умещены, и У тоже уменьшится, приближаясь к d.
Шаг 4 Цикл с шага 2, пока сеть не перестанет ошибаться.
Дата публикования: 2015-03-29; Прочитано: 323 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!