Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
В начале функционирования все веса В и Т и параметр сходства принимают начальные значения
bij < L / (L-1+m);
ti=1 для всех i,j,
где bij –вес связи, соединяющий нейрон i в слое сравнения с нейроном j в слое распознавания;
m – число компонент входного вектора Х; L – константа (например равна 2 при L>1,).
Такой выбор весов приводит к устойчивому обучению. Начальная установка весов bij в малые величины гарантирует, что несвязанные нейроны не будут получать больше возбуждения, чем обученные нейроны в слое распознавания. Параметр сходства выбирается на основе требований решаемой задачи. При высоких значениях ρ формируется большое число классов, к каждому из которых относятся только очень похожие векторы. При низком уровне ρ сетьформирует небольшое число классов с высокой степенью обобщения («грубая» классификация). Для повышения гибкости сети необходима динамическое изменение параметра ρ во время процедуры обучения.
Обучение происходит без учителя и проводится для весов нейрона-победителя в случае успешной, так и неуспешной классификации. При этом веса вектора В стремятся к нормализованной величине компонент вектора С.
L*сi
bij = -----------------,
L – 1 + ∑ ck
k
bij – вес связи, соединяющий нейрон i в слое сравнения с нейроном j в слое распознавания;
сi – i-ая компонента выходного вектора С слоя сравнения;
j – номер выигравшего нейрона в слое распознавания;
L – константа.
При этом роль нормализации компонент очень важна. Вектора с большим количеством единиц приводят к небольшим значениям b, и наоборот.
Таким образом, произведение (b*с)=∑bi*сi оказывается масштабированным и сеть может правильно различать вектора, даже если один из них является подмножеством другого.
Пусть вектор Х1=100000, а вектор Х2=111100. Эти образы различные. При обучении без нормализации (bi àсi) при поступлении в сеть первого образа он даст одинаковые скалярные произведения, равные единице, как с весами вектора Х1, так и весами вектора Х2. Вектор Х2 при наличии шума может выиграть конкуренцию. При этом веса его вектора Т установятся равными (100000), и образ (111100) будет «забыт». В случае применения нормализации исходные скалярные произведения будут равны 1 для вектора Х и 2/5 для вектора Х2 (при L=2). Здесь вектор Х1 выиграет конкуренцию.
Компоненты вектора Т устанавливаются равными компонентам вектора С. tij=cij, где tij – вес связи между выигравшем нейроном j в слое распознавания и нейроном i в слое сравнения.
Если какая-то tj равна 0, то при дальнейшем обучении на фазах сравнения соответствующая компонента сj никогда не получит подкрепление по правилу 2 из 3.
Список литературы
1.Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: Учеб. Пособие для вузов. -2-ое изд. Перераб. И доп.-М.: Изд-во МГТУ им. Н.Э. Баумана, 2004.-400с.
Дата публикования: 2014-10-18; Прочитано: 542 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!