Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Обучение сети ART -1



В начале функционирования все веса В и Т и параметр сходства принимают начальные значения

bij < L / (L-1+m);

ti=1 для всех i,j,

где bij –вес связи, соединяющий нейрон i в слое сравнения с нейроном j в слое распознавания;

m – число компонент входного вектора Х; L – константа (например равна 2 при L>1,).

Такой выбор весов приводит к устойчивому обучению. Начальная установка весов bij в малые величины гарантирует, что несвязанные нейроны не будут получать больше возбуждения, чем обученные нейроны в слое распознавания. Параметр сходства выбирается на основе требований решаемой задачи. При высоких значениях ρ формируется большое число классов, к каждому из которых относятся только очень похожие векторы. При низком уровне ρ сетьформирует небольшое число классов с высокой степенью обобщения («грубая» классификация). Для повышения гибкости сети необходима динамическое изменение параметра ρ во время процедуры обучения.

Обучение происходит без учителя и проводится для весов нейрона-победителя в случае успешной, так и неуспешной классификации. При этом веса вектора В стремятся к нормализованной величине компонент вектора С.

L*сi

bij = -----------------,

L – 1 + ∑ ck

k

bij – вес связи, соединяющий нейрон i в слое сравнения с нейроном j в слое распознавания;

сi – i-ая компонента выходного вектора С слоя сравнения;

j – номер выигравшего нейрона в слое распознавания;

L – константа.

При этом роль нормализации компонент очень важна. Вектора с большим количеством единиц приводят к небольшим значениям b, и наоборот.

Таким образом, произведение (b*с)=∑bi*сi оказывается масштабированным и сеть может правильно различать вектора, даже если один из них является подмножеством другого.

Пусть вектор Х1=100000, а вектор Х2=111100. Эти образы различные. При обучении без нормализации (bi àсi) при поступлении в сеть первого образа он даст одинаковые скалярные произведения, равные единице, как с весами вектора Х1, так и весами вектора Х2. Вектор Х2 при наличии шума может выиграть конкуренцию. При этом веса его вектора Т установятся равными (100000), и образ (111100) будет «забыт». В случае применения нормализации исходные скалярные произведения будут равны 1 для вектора Х и 2/5 для вектора Х2 (при L=2). Здесь вектор Х1 выиграет конкуренцию.

Компоненты вектора Т устанавливаются равными компонентам вектора С. tij=cij, где tij – вес связи между выигравшем нейроном j в слое распознавания и нейроном i в слое сравнения.

Если какая-то tj равна 0, то при дальнейшем обучении на фазах сравнения соответствующая компонента сj никогда не получит подкрепление по правилу 2 из 3.

Список литературы

1.Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: Учеб. Пособие для вузов. -2-ое изд. Перераб. И доп.-М.: Изд-во МГТУ им. Н.Э. Баумана, 2004.-400с.






Дата публикования: 2014-10-18; Прочитано: 542 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.006 с)...