Ассоциативная память

Лекция №9

Фильтрация.

Фильтр - это устройство либо алгоритм который используется для извлечения полезной информации из набора зашумленных данных. Причины возникновения шума различны. Например, при передаче информационного сигнала через зашумленные линии связи, могут возникать возмущения. На полезный сигнал возможно наложение другого сигнала, который поступает из окружающей среды. Кроме того, данные могут быть измерены с помехами. Примером фильтрации является задача распознавания голоса определенного студента в шумной аудитории. Человек способен избирательно отфильтровать нужные источники в зашумленной среде.

 

 

Практическим приложением построением диаграммы направленности является, например, системы радаров. Здесь задача сводится к отслеживанию цели. В условиях помех и интерференции, т.е. наложении сигналов друг на друга. При этом задача усложняется тем, что полезный сигнал формируется в не известном направление и не существует априорной информации о наложении сигналов в результате интерференции.

Это распределенная память которая обучается на основе ассоциаций подобно мозгу живых существ. Ассоциативная память или память адресуемая по содержимому, доступная по указанию заданного содержимого. Содержимое памяти может быть вызвано даже по частичному ходу или искаженному образу, вектору. Существует два типа ассоциативной памяти

1. Авто-ассоциативная

2.Гетеро-ассициативная

При решении задача авто-ассиоцивной памяти в Нс запоминаются передаваемые в ней образы, затем в эту сеть последовательно подаются не полное описание или зашумленное представление, хранимых в памяти исходных образов. Отличие гетеро-ассоциативной памяти от гетеро-фссоциативной, в том что в производном наборов входных образов, ставится в соответствие другой произвольный набор сигналов. Настройка НС которые предназначены для решения задач авто-ассоциативной памяти, происходит пктем обучения без учителя. В НС гетеро-ассоциативной памяти применяется обучение с учителем.

Допустим, что вектор хk используемый для решения задачи ассоциативной памяти. А yk – запомненый образ. Отношение ассоции образов который образует Нс имеет вид: xk -> yk ; k = 1,2,3…Q где Q …

Yk = xk это значит что пространство входных и выходных данных сети должны иметь одинаковую размерность, в гетеро-ассоциативной памяти Yk != Xk т.е. размерности пространств могут отличатся и совпадать. Работа ассоциативной памяти состоит из 2 фаз:

1.Запоминания, которая соответствует процессу обучения процессу сети в соответствии с выражением 1.

2. Восстановления, во время которой происходит извлечение запомненного образа в ответ на представление в Нс зашумленной или скаженной версией ключа.

В идеальном случае имеем что отклик НС вектор Y=Yi где он запомненный образ ассоциированный с ключом Xi . Однако если входной стимул вектор x = xi и вектор y = yi то при востонавленнии образа делает ошибку. Количество образов которые хранятся в ассоциативной памяти являются непосредственно емкостью НС. Информационная емкость измеряется в % от N использованных НС. При проектировании ассоциативной памяти желательно увеличить ее емкость и убедится что большая часть заполненных образов восстанавливается корректно.

Одна из задач обучения которую можно решать с использованием Нс является в цправленни нектором процессом либо критической частью системы. Пусть динамеческая система, задана совокупостью, X(t) Y(t) где X(t) входное управляющее воздействие, а y(t) выход системы с момет времени t.

 

 

В данной системе единая обратная связь обхаватые все единую связь, т.е. выход связан всо сходом. По сколько выходной сигнал объекта является некоторой переменной для управления объектом нужно знать ее значение, а значит нужно измерять выходной сигнал объекта. Система которая используется для измерения физических величин называется датчиком ил сенсером. В предположении что передаточные функции сенсора равна единичной на рисунке 1 в цепи обратной связи. Выход объекта управления вычитается из эталонного сигнала, принимаемого из внешнего источника. Получанный сигнал ошибки е(t) подается на Нейро-контролер для настройки синоптических весов. Основная задача котролерра это подержание такого входного вектора х(t) для которого выходной сигнал y(t) соответствует эталонному сигналу d(t). Другими словами задача контролера инвертирование отображения вход-выход объекта отображения. Из рис(1) следует что сигнал ошибки е(t) прежде чем достигнет объекта управления распространяется через контролер. СЛЕДОВАТЕЛЬНО в соответвитсвии на основе обучения для настройки весовых коффицеентов нужно знать матрицу Якоби. Частные производные d(k) b dx(t) зависят от рабочей точки объекта управления и зависят, их можно оценить с помощью прямого или не прямого обучения. Таким образом что-то там свидетельствует об универсальности как систем обработки информации.