Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Принцип работы сети Кохонена



Примером сети, использующей алгоритм обучения без учителя, является самоорганизующая карта Кохонена (1982 год). Другое название сети Кохонена –KNC (Kohonen Clastering Networks). KNC используют для отображения нелинейных зависимостей на двумерные (чаще всего) сетки, представляющие метрические и топологические зависимости входных векторов, объедингяемых в кластеры.

Нейронная сеть Кохонена имеет один слой нейронов. Количество входов каждого нейрона равно размерности входного вектора. Количество нейронов непосредственно определяет сколько различных кластеров сеть может распознать.

Кора человеческого мозга разбита на участки. Например, участок, ответственный за ступни ног, примыкает к участку, контролирующему движение всей ноги и т.д. Все элементы человеческого тела отображаются на эту поверхность.

Основная цель обучения в KNC состоит в выявлении структуры в n-мерных входных данных и предоставлении ее на карте в виде распределенных нейронных активностей (на рис.1 - в виде двумерной сетки 6*6 нейронов). Здесь высоким степеням возбуждения нейронов соответствует более темная окраска. Каждый нейрон несет информацию о кластере, объединяющем в группу схожие по критерию близости входные вектора, формируя для данной группы собирательный образ.

           
           
           
           
           

Рис.1

Подобные вектора активизируют подобные нейроны, т.е. KNC способна к обобщению. Конкретному кластеру может соответствовать и несколько нейронов с близкими значениями векторов весов, поэтому выход из строя одного нейрона не так критичен к ошибке распознавания, как это имеет место в сети Хемминга.

В большинстве случаев каждый выходной нейрон связан со своими соседями. Эти внутрислойные связи играют важную роль в процессе обучения, так как корректировка весов происходит не для всех весов сети, а только в окрестности этого элемента.

Сеть Кохонена использует состязательный конкурентный алгоритм обучения. Выигрывает тот нейрон, чей вектор весов наиболее близок к текущему входному вектору. Например, в смысле расстояния определяемой евклидовой метрикой.

Пример. В качестве близости двух образов Х1 и Х2 можно принять евклидово расстояние между ними

D(X1,X2)= √∑(X1-X2)2 . (1)

У нейрона – победителя это расстояние будет меньше, чем у остальных. В другом варианте обучения победителем считается нейрон, весовой вектор которого имеет наибольшее скалярное произведение со входным вектором, так как скалярное произведение – это проекция входного вектора на вектор весов. В этом методе оба вектора должны быть нормализованы по длине.





Дата публикования: 2014-10-18; Прочитано: 1335 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.007 с)...