Масштабирование и восстановление данных

 

При работе с ИНС ПР часто возникает необходимость предобработки и постобработки информации. В MatLab предусмотрен набор команд для выполнения этих операций.

Пример 3.15. Пусть имеется файл data.txt с числовой информацией:

-10 0

-7.5 7.07

-5 -10

-2.5 -7.07

0 0

2.5 7.07

5 10

7.5 7.07

10 0

Данные считываются командой:

>> load data.txt;

>> P=data(1:9,1);

>> T=data(1:9,2);

Следующая команда выполняет нормализацию обучающих данных:

>> [pn,minp,maxp,tn,mint,maxt] = premnmx(P',T')

pn =

-1.0000 -0.7500 -0.5000 -0.2500 0 0.2500 0.5000 0.7500 1.0000

minp = -10

maxp = 10

tn =

0 0.7070 -1.0000 -0.7070 0 0.7070 1.0000 0.7070 0

mint = -10

maxt = 10

Пример 3.16. Сначала с помощью функции premnmx выполним масштабирование обучающей последовательности к диапазону [-1 1], затем создадим и обучим ИНС ПР, выполним ее моделирование и восстановление выхода с помощью функции postmnmx.

>> P = [-0.92 0.73 -0.47 0.74 0.29; -0.08 0.86 -0.67 -0.52 0.93];

>> t = [-0.08 3.40 -0.82 0.69 3.10];

>> [pn,minp,maxp,tn,mint,maxt] = premnmx(P,t);

>> net = newff(minmax(pn),[5 1],{'tansig' 'purelin'},'trainlm');

>> net = train(net,pn,tn); grid on

>> an = sim(net,pn)

an = -0.6493 1.0000 -1.0000 -0.2844 0.8578

>> a = postmnmx(an,mint,maxt)

a = -0.0800 3.4000 -0.8200 0.6900 3.1000

Аналогично используется функция prestd, которая выполняет масштабирование обучающей последовательности к нормальному закону распределения с параметрами [0 1], а восстановление выхода происходит с помощью функции poststd.

 


Вопросы для самоподготовки:

 

1. Опишите свойства искусственных нейронных сетей прямого распространения (ИНС ПР).

2. В чем заключается сходство ИНС ПР и комбинационных логических схем?

3. От чего зависит количество входов, выходов, а также количество нейронов во внутренних слоях ИНС ПР?

4. Каким свойством должна обладать ИНС ПР, чтобы являться универсальным аппроксиматором?

5. Какие параметры требуется указать при создании ИНС ПР в MatLab?

6. В чем заключается проблема обучения многослойной ИНС ПР?

7. Обобщением какого алгоритма является алгоритм обратного распространения ошибки (АОРО)?

8. Почему сигмоидная активационная функция удобна при использовании (АОРО)?

9. Опишите последовательность действий при использовании АОРО.

10. В чем заключается явление переобучения ИНС?

11. Сформулируйте градиентный метод поиска минимума функции.

12. Обоснуйте формулу коррекции весов выходного слоя ИНС ПР при использовании АОРО.

13. Обоснуйте формулу коррекции весов скрытых слоев ИНС ПР при использовании АОРО.

14. Как выбирается константа скорости обучения в АОРО?

15. В чем заключается основной недостаток АОРО для обучения нейронных сетей?

16. Сформулируйте задачу аппроксимации функции с помощью нейронной сети.

17. Сформулируйте задачу распознавания символов с помощью нейронной сети.

18. Можно ли с помощью ИНС ПР моделировать динамическую систему?

19. В чем заключается статичность поведения ИНС ПР?