Меры расстояния между векторами и нормализация векторов

Процесс самоорганизации предполагает определение победителя каждого этапа, то есть нейрона, вектор весов которого в наименьшей степени отличается от поданного на вход сети вектора х. В этой ситуации важной проблемой становится выбор метрики, в которой будет измеряться расстояние между векторами х и . Чаще всего в качестве меры расстояния используются:

· эвклидова мера

; (5.4)

· скалярное произведение

; (5.5)

· мера относительно нормы L1 (Манхэттен)

; (5.6)

· мера относительно нормы L

. (5.7)

При использовании эвклидовой меры разбиение пространства на зоны доминирования нейронов равносильно разбиению на области Вороного. При использовании другой меры формируется другое разделение областей влияния нейронов. Использование скалярного произведения требует нормализации входных векторов, так как в противном случае возможно неравномерное распределение нейронов: в одной области может находиться несколько нейронов, а в другой – ни одного нейрона.

При нормализованных входных обучающих векторах стремящиеся к ним векторы весов нормализуются автоматически. Однако нормализация векторов приводит к тому, что если , то для всех нейронов при фиксированном значении произведение также становится постоянной величиной. Поэтому активация нейрона определяется значением , которое становится общей мерой для всей сети. Следует отметить, что при нормализации вектора весов эвклидова мера и скалярное произведение равнозначны друг другу, так как . Поэтому при . Экспериментальные исследования подтвердили необходимость применения нормализации векторов при малой размерности пространства [4]. Такая нормализация проводится двумя способами:

1. Переопределение компонентов вектора в соответствии с формулой

. (5.8)

2. Увеличением размерности пространства на одну координату с таким выбором -го компонента вектора, чтобы выполнялось условие:

. (5.9)

При использовании второго способа возникает необходимость предварительного масштабирования компонентов вектора .

С увеличением размерности входного вектора эффект нормализации становится менее заметным, а при размерности вообще сходит на нет.