Рассмотрим теперь регулярную двумерную решетку плоскости выходных параметров, состоящую из вычислительных элементов, именуемых нейронами. Для улучшения визуального восприятия удобнее представить данную решетку гексагональной. С каждым нейроном, таким образом, связывается модельный вектор k m , т.е. координаты узла в пространстве сигналов представляются теперь в виде соответствующего нейрону множества вещественных чисел. В обычных нейросетевых моделях модельный вектор соответствовал бы синаптическим весам, которые будут рассматриваться ниже, однако в АНС конкретизировать природу k m нет необходимости.
Представим, что последовательность примеров наблюдений r (t) каким-то образом передается каждому нейрону, по одному примеру поочередно. Вычислительный алгоритм сети (в простейшем случае это запрограммированное последовательное сравнение r (t) с k m по всем элементам входного множества) сначала будет выбирать нейрон-победитель, чей вектор k m наилучшим образом соответствует r (t) . Этот нейрон будет иметь индекс k=П .
Если задать положение нейрона k в этой сети с помощью двумерного вектора локализации k l , то функция соседства может быть приведена к виду:
В общем случае для этого можно воспользоваться и более простой формой функции соседства.
Как было отмечено выше, что алгоритм АНС определяет, каким образом m (t) k подстраиваются под значения r (t) . Предположим, что имеется достаточно примеров r (t) , а если это не так, то следует выполнить несколько итераций с имеющимися примерами повторно, с тем чтобы число «этапов обучения» оказалось достаточным для обеспечения сходимости m (t) k к приемлемым стационарным значениям * k m . Таким образом, любой вектор r (t) выбирает один нейрон, а именно тот, модельный вектор которого имеет наибольшее сходство с r (t) .