Виды нелинейных регрессионных моделей, расчет их параметров

Виды нелинейных регрессионных моделей, расчет их параметров

2. Оценка корреляции для нелинейной регрессии

 

Хотя во многих практических случаях моделирование экономических зависимостей линейными уравнениями дает вполне удовлетворительный результат, однако ограничиться рассмотрением лишь линейных регрессионных моделей невозможно. Так, близость линейного коэффициента корреляции к нулю еще не значит, что связь между соответствующими экономическими переменными отсутствует. При слабой линейной связи может быть очень тесной, например, не линейная связь. Поэтому необходимо рассмотреть и нелинейные регрессии, построение и анализ которых имеют свою специфику.

В случае, когда между экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных эконометрических моделей.

Различают две группы нелинейных регрессионных моделей:

­- модели, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;

­ - модели нелинейные по оцениваемым параметрам.

К первой группе относятся, например, следующие виды функций:

- полином 2-й степени;

- полином 3-й степени;

- гипербола.

Ко второй группе относятся:

- степенная;

- показательная;

- экспоненциальная и др. виды функций.

Классическим примером функций, относящихся к первой группе, являются кривые Филипса и Энгеля:

и , соответственно.

Первая функция характеризует нелинейные соотношения между нормой безработицы x и процентом прироста заработной платы у. Из данной зависимости следует, что с ростом уровня безработицы темпы роста заработной платы в пределе стремится к нулю.

Вторая функция устанавливает закономерность – с ростом дохода доля расходов на продовольствие - уменьшается. Здесь у, обозначает - долю расходов на непродовольственные товары; х – доходы.

Первая группа нелинейных функций легко может быть линеаризована (приведены к линейному виду). Например, для полинома к-го порядка

производя замену:

, , ,…,

получим линейную модель вида

.

Аналогично могут быть линеаризованы и другие виды нелинейных функций 1-й группы, производя соответствующие замены.

Для оценки параметров нелинейных функций первой группы можно использовать, обычный МНК, аналогично, как и в случае линейных функций.

Иначе обстоит дело с группой регрессионных, нелинейных функций по оцениваемым параметрам. Данную группу функций можно разбить на две подгруппы: ­нелинейные модели внутренне линейные и нелинейные модели внутренне нелинейные.

Рассмотрим степенную функцию . Она нелинейна относительно параметров и b. Однако ее можно считать внутренне линейной, так как, прологарифмировав ее можно привести к линейному виду:

.

Следовательно, ее параметры могут быть найдены обычным МНК.

Если модель представить в виде:

, то модель становится внутренне нелинейной, т.к. ее невозможно преобразовать в линейный вид.

Внутренне нелинейной будет и модель вида

В эконометрических исследованиях, часто к нелинейным относят модели, только внутренне нелинейные по оцениваемым параметрам, а все другие модели, которые легко преобразуются в линейный вид, относятся к группе линейных моделей. Например, к линейным относят модель:

, так как

.

Если, модель внутренне нелинейна по параметрам, то для оценки параметров используются итеративные методы, успешность которых зависит от вида функции и особенностей применяемого итеративного подхода.

МНК в случае нелинейных функций, рассмотрим на примере оценки параметров степенной функции .

Прологарифмировав данную функцию, получим:

или, производя обозначения:

, где

; ; ; .

Применив МНК к полученному уравнению:

, или

Параметр b определяется непосредственно из системы, а параметр а – косвенным путем:

8.2 Оценка корреляции для нелинейной регрессии

Оценка тесноты корреляционной зависимости в случае нелинейной регрессии производится с помощью индекса корреляции (R):

где ,, ,

значения результативного признака, рассчитанные по уравнению регрессии.

Величина данного показателя находится в границах: , чем она ближе к единице, тем теснее связь рассматриваемых признаков, тем надежнее найденное уравнение регрессии.

Следует помнить, что если для линейной зависимости имеет место равенство: , то при криволинейной зависимости не равен .Величина R2 называется индексом детерминации.

Оценка существенности индекса корреляции проводится, так же как и оценка надежности коэффициента корреляции. Индекс детерминации используется для проверки существенности в целом уравнения нелинейной регрессии по F-критерию Фишера:

,

где R2- индекс детерминации;

n - число наблюдений;

m - число параметров при переменных х.

Индекс детерминации можно сравнивать с коэффициентом детерминации для обоснования возможности применения линейной функции.

Если величина не превышает 0,1, то предположение о линейной форме связи считается оправданным. В противном случае проводится оценка существенности различия междуи r2yx, вычисленных по одним и тем же исходным данным, через t - критерий Стьюдента:

,

где ,

Если , то различия между и существенны и замена нелинейной регрессии линейной - невозможна. Практически, если , то различия между и несущественны, и, следовательно, возможно применение линейной регрессии.

Фактические значения результативного признака отличаются от теоретических, рассчитанных по уравнению регрессии, т.е. и . Чем меньше это отличие, тем ближе теоретические значения подходят к эмпирическим данным, лучше качество модели. Чтобы иметь общее представление о качестве модели из относительных отклонений по каждому наблюдению, определяют среднюю ошибку аппроксимации:

Существует и другая формула определения средней ошибки аппроксимации:

, где .

Ошибка аппроксимации в пределах 5-7% свидетельствует о хорошем подборе модели к исходным данным.

Возможность построения нелинейных моделей, как с помощью их приведения к линейному виду, так и путем использования нелинейной регрессии, значительно повышает универсальность регрессионного анализа, но и усложняет задачу исследователя.

Возникает вопрос: с чего начать - с линейной зависимости или с нелинейной, и если с последней, то, какого типа.

Если ограничиться парной регрессией, то можно построить график наблюдений у и х и принять решение. Однако очень часто несколько разных нелинейных функций приблизительно соответствуют наблюдениям, если они лежат на некоторой кривой. А в случае множественной регрессии невозможно даже построить график.

При рассмотрении альтернативных моделей с одним и тем же определением зависимой переменной процедура выбора достаточно проста. Наиболее разумным является оценивание регрессии на основе всех вероятных функций, и выбор функции, в наибольшей степени объясняющей изменения зависимой переменной. Если для одной модели коэффициент R2 значительно больше, чем для другой, то вы сможете сделать оправданный выбор без особых раздумий, однако, если значения R2 для двух моделей приблизительно равны, то проблема выбора существенно усложняется.

В этом случае следует использовать стандартную процедуру, известную под названием теста Бокса – Кокса.

Если необходимо сравнить модели с использованием у и lny в качестве зависимой переменной, то можно использовать вариант теста, разработанный Полом Зарембкой. Процедура включает следующие шаги:

1) Вычисляется среднее геометрическое значений у в выборке, (оно совпадает с экспонентой среднего арифметического lny):

2) Пересчитываются наблюдения у, т.е. они делятся на это значение, то есть

3) Оценивается регрессия для линейной модели с использованием у*i вместе yi и для логарифмической модели с использованием ln(y*i) вместо ln(yi). Теперь значения суммы квадратов отклонений для двух регрессий сравнимы, и, следовательно, модель с меньшей суммой квадратов отклонений обеспечивает лучшее соответствие.

 

Список рекомендуемой литературы:/1, 2, 6, 8, 9/

 

 

ТЕМА 9 - Мультиколлинеарность

 

План лекции:

1. Мультиколлинеарность, ее виды

2. Методы устранения мультиколлинеарности

3. Фиктивные переменные

 

9.1 Мультиколлинеарность, ее виды

Одним из важнейших этапов построения регрессии является отбор факторов Xjj, ,j=1,..., k, i=1,2,...,n, включаемых в регрессию. Наибольшее распространение получили следующие методы построения уравнения множест­венной регрессии: метод исключения, метод включения, шаговый регрессион­ный анализ. Перечисленные методы дают близкие результаты: отсев факторов из полного их набора (метод исключения), дополнительное введение фактора (метод включения), исключение ранее введенного фактора (шаговый метод).

Наиболее широко используются для решения вопроса об отборе факторов частные коэффициенты корреляции, оценивающие в чистом виде тесноту связи между фактором и результатом.

При включении факторов следует придерживаться правила, согласно которому число включаемых в модель объясняющих переменных должно быть в 5-6 раз меньше объема совокупности, по которой строится регрессия. Иначе число степеней свободы остаточной вариации будет мало, и параметры уравнения регрессии окажутся статистически незначимы.

Иногда при отборе переменных-факторов нарушается предположение (3.5). В этом случае говорят, что объясняющие переменные X jt, j=l,..., k,i=1,2,...,n модели характеризуются свойством полной (строгой) мультиколли­неарности. В этом случае система (3.6) не может быть разрешена относительно неизвестных оценок коэффициентов. Строгая мультиколлинеарность встреча­ется редко, так как ее несложно избежать на предварительной стадии отбора объясняющих переменных.

Реальная (частичная) мультиколлинеарность возникает в случаях доста­точно сильных линейных статистических связей между переменными

Точных количественных критериев для проверки наличия мультиколлинеарности не существует, но имеются некоторые практические ре­комендации по выявлению мультиколлинеарности.

1) Если среди парных коэффициентов корреляции между объясняющими переменными имеются значения 0,75-0,80 и выше, это свидетельствует о при­сутствии мультиколлинеарности.

2) О присутствии явления мультиколлинеарности сигнализируют некото­рые внешние признаки построенной модели, являющиеся его следствиями:

- некоторые из оценок , j=l,2,...,k имеют неправильные с точки зрения экономической теории знаки или неоправданно большие по абсолютной вели­чине значения,

- небольшое изменение исходной выборки (добавление или изъятие ма­лой порции данных) приводит к существенному изменению оценок коэффици­ентов модели вплоть до изменения их знаков,

- большинство оценок коэффициентов регрессии оказываются статисти­чески незначимо отличающимися от нуля, в то время как в действительности многие из них имеют отличные от нуля значения, а модель в целом является
значимой при проверке с помощью F-критерия.

9.2 Методы устранения мультиколлинеарности

1) Проще всего удалить из модели один или несколько факторов.

2) Другой путь состоит в преобразовании факторов, при котором умень­шается корреляция между ними. Например, при построении регрессий на осно­ве динамических рядов помогает переход от первоначальных данных к первым разностям .

3) Использование в уравнении регрессии взаимодействия факторов, на­пример, в виде их произведения.

4) Использование так называемой ридж-регрессии (гребневой регрессии).
В этом случае к диагональным элементам системы добавляется "гребень" τ (небольшое число, как правило, от 0,1 до 0,4):

Это делает получаемые оценки смещенными, но уменьшает средние квадраты ошибок коэффициентов.

5) Использование метода главных компонент.

6) Отбор наиболее существенных объясняющих переменных на основе методов исключения, включения, шаговой регрессии, которые используют для принятия решения F-критерий.

9.3 Фиктивные переменные

Факторы (объясняющие переменные), применяемые в задаче регрессии до сих пор, принимали значения из некоторого непрерывного интервала. Ино­гда может понадобиться ввести в модель переменные, значения которых детер­минированы и дискретны. Например, данные получены для трех разных рай­онов, или на двух фабриках, или на разных машинах и т.п. Переменные такого типа обычно называют фиктивными или искусственными. Эти переменные по­зволяют отразить в модели эффекты сдвига во времени или в пространстве, воздействия качественных переменных. Пример фиктивной переменной - это переменная Х0 при свободном члене уравнении регрессии, которая принята равной 1. Эту переменную необязательно вводить в модель, но ее использование обеспечивает некоторое удобство в обозначениях. Во многих дру­гих случаях введение фиктивных переменных диктуется необходимостью.

Например, необходимо отразить в модели разное происхождение куриных окорочков, часть из которых полу­чены в Америке, а часть в Канаде, при построении регрессионной зависимости веса окорочков Y от возраста кур X. Для этого в модель включим фиктивную переменную Z: Z=0 для Америки, Z=l для Канады:

Ясно, что для какой-либо задачи существует не единственный способ вы­бора фиктивных переменных, а в большинстве случаев путей их представления много. Это обстоятельство оказывается выгодным, поскольку в некоторых слу­чаях можно угодить в ловушку, когда существует линейная зависимость между введенными фиктивными переменными.

Чтобы избежать ловушки, необходимо выбрать одну из категорий в каче­стве эталонной и определять фиктивные переменные для остальных возможных категорий, причем выбор эталонной категории не влияет на сущность регрес­сии. Может потребоваться включение в модель более одной совокупности фиктивных переменных. Это особенно часто встречается при работе с перекре­стными выборками. Поясним такую процедуру - множественных совокупно­стей фиктивных переменных - на примере.

Пример. Предположим, что исследуется зависимость между весом ново­рожденного и семейным положением матери, а также рожала ли она раньше.

Введем фиктивную переменную М, которая принимает значения 1, если мать одинока, и 0 - в остальных случаях. Введем также фиктивную переменную числа родов в прошлом D, равную 1 для матерей, которые рожали в прошлом, и 0 для матерей, которые ранее не рожали. При этом двойном наборе фиктивных переменных имеется четыре воз­можных случая с соответствующими комбинациями значений фиктивных пе­ременных:

1) Замужняя мать, первые роды М=0, D=0.

2) Одинокая мать, первые роды M=l, D=0.

3) Замужняя мать, не первые роды М=0, D=1.

4) Одинокая мать, не первые роды M=l, D=1

Первый случай по смыслу является основной совместной эталонной­ категорией. Коэффициент при М будет представлять оценку разности веса новорожденных, если мать одинока (ожидаем отрицательный знак коэффициента). Коэффициент при D будет представлять оценку дополнительного веса при рожде­нии, если ребенок не является первенцем. Ребенок для четвертой категории ма­терей будет подвержен обоим воздействиям.

Фиктивные переменные могут быть введены не только в правую часть регрессионного соотношения, но и зависимая переменная может быть представлена в такой форме. Это возможно в тех случаях, когда в качестве зависи­мой переменной мы рассматриваем ответы на вопросы, пользуется ли человек собственной машиной, имеет ли счет в банке и т.п., причем во всех случаях за­висимая переменная принимает дискретные значения.

Фиктивные переменные могут быть использованы для учета взаимодействия между различными группами факторов.

Такой подход позволяет проверить различные варианты гипотез:

1) Гипотеза Н0: против альтернативы Hi: что это не так. Если
гипотеза Н0 будет отвергнута, то мы придем к выводу, что модели не одинаковы, а если нет, то можно пользоваться одной моделью независимо от происхо­ждения окороков.

2) Если гипотеза Н0 в предыдущем пункте будет отвергнута, то можно
проверить гипотезу Но: γ2=Q. Если Н0 принимается, то мы заключаем, что имеющиеся два набора данных отличаются только уровнем, имея одинаковые углы наклона.

При необходимости могут быть выбраны и другие варианты проверок, если это разумно для задачи.

Как показывает пример, использование взаимодействия с фиктивными переменными упрощает построение подходящих критериев и получение пра­вильных статистик для проверки гипотез.

 

Список рекомендуемой литературы:/1, 2, 3, 5, 8, 9/

 

 

ТЕМА 10 – Гетероскедастичность

 

План лекции:

1. Обобщенный метод наименьших квадратов

2. Линейная модель множественной регрессии с гетероскедастичными остатками

3. Способы проверки выборки на гомоскедастичность

 

10.1 Обобщенный метод наименьших квадратов

Обобщим КЛММР вида (5.1). Пусть по-прежнему мы располагаем выбо­рочными наблюдениями над k переменными и X jn j=l,..., k, г'=1,2,...,n и строим регрессию:

(10.1)

Откажемся от предположения КЛММР о некоррелированности и гомоскедастичности случайной ошибки (5.3). То есть относительно переменных мо­дели в уравнении (10.1) примем следующие основные гипотезы:

(10.2)

(10.3)

Xi, Х3,..., Хk - неслучайные переменные. (10.4)

Не должно существовать строгой линейной зависимости между переменными Xi, Х3,..., Хk. (10.5)

Суть гипотезы (10.3) в том, что все случайные ошибки εi, имеют непосто­янную дисперсию, то есть не выполняется условие гомоскедастичности диспер­сии - имеет место гетероскедастичность дисперсии ошибок. Кроме того, ковариации остатков могут быть произвольными и отличными от нуля (вторая строчка соотношения (10.3)).

Модель вида (10.1)-(10.5) называется обобщенной линейной моделью мно­жественной регрессии (ОЛММР). Отличие ОЛММР от КЛММР состоит в из­менении предположений о поведении случайной ошибки (10.3).

К ОЛММР может быть применен метод наименьших квадратов, однако он оказывается неприменимым к модели (10.1)-(10.5) в силу потери свойства оптимальности оценок. Но МНК к ОЛММР может быть применен.

Критерий минимизации суммы квадратов ошибок МНК в силу условия (10.3) заменяется на другой - минимизация обобщенной суммы квадратов от­клонений (с учетом ненулевых ковариаций случайной ошибки для разных на­блюдений и непостоянной дисперсии ошибки) и соответственно усложняется вид системы уравнений для определения оценок коэффициентов по сравнению с системой для МНК. После решения полученной системы линейных ал­гебраических уравнений получим линейные несмещенные оценки коэффициен­тов ОЛММР, которые будут эффективными. Указанный метод получения оце­нок называется обобщенным методом наименьших квадратов (ОМНК) или ме­тодом Айткена.

Обозначим:

Тогда модель (10.1)-(10.5) запишется в матричном виде:

y=xβ+u, при условиях

Е(u)=0;

E(uuT)=σ2

X - не из случайных чисел;

rank(X)=k+l<n.

Оценки МНК получаются по формуле = (Х'Х)Х'у. Оценки ОМНК по­лучаются по формуле = (Х'ΩХ) Х'Ωу.

Подчеркнем, что для применения ОМНК в (10.1) необходимо знать значе­ния в правой части равенства (в частности элементы матрицы Ω), что на прак­тике случается крайне редко. Поэтому каким-либо способом оценивают вели­чины (, i,j=1,...,n. А затем используют эти оценки в расчетах коэффици­ентов модели. Этот подход составляет суть так называемого доступного обоб­щенного метода наименьших квадратов. Конкретные способы оценки неизвест­ных ковариаций будут рассмотрены ниже.

10.2 Линейная модель множественной регрессии с гетероскедастичными остатками

Часто при построении регрессии анализируемые объекты неод­нородны, например, при исследовании структуры потребления домохозяйств естественно ожидать, что колебания в структуре будут выше для богатых, чем для бедных домохозяйств. В этой ситуации предположение о постоянстве дисперсии случайной ошибки (имеется в виду возможное поведение случайно­го члена до того, как сделана выборка) оказывается не соответствующим дейст­вительности. В случаях, когда дисперсия и одинакова в каждый момент време­ни или для каждого значения X, существуют определенные ограничения (в не­которой полосе) для расположения точек на графике X и Y, согласно которым отчетливой тенденции к увеличению или уменьшению дисперсии по мере роста X не наблюдается.

На рис. 10.1 приводятся примеры гетероскедастичности случайной ошибки регрессии. На рис. 10.1а изображена ситуация, когда значения дисперсии растут по мере увеличения значений регрессора X. На рис. 10.1б дисперсия ошибки достигает максимальной величины при средних значениях X, уменьшаясь по мере приближения к крайним значениям. Наконец, на рис. 10.1в дисперсия ошибки оказывается наибольшей при малых значениях X, быстро уменьшается и становится однородной по мере увеличения независимой переменной X.

Y Y Y

 

X X

а) б) в) X

Рис. 10.1. Примеры гетероскедастичности

 

Гетероскедастичность дисперсии случайного члена означает, что нарушается предположение (5.3) в КЛММР, и мы должны рассматривать ОЛММР с нулевой ковариацией случайных ошибок.

Основные последствия гетероскедастичности проявляются в получении неэффективных оценок МНК и занижении стандартных ошибок коэффициентов регрессии, что завышает t-статистику и дает неправильное представление о точности уравнения регрессии.

Поэтому для оценивания регрессии с гетероскедастичными случайными ошибками применяется ОМНК.

Предположим, что нам известны значения величин σ2, i =1,...,n. Тогда уравнение (10.1) разделим на

i =1, 2,..., n,
и получим регрессию с постоянной (гомоскедастичной) дисперсией случайного члена, действительно V

Для получения оценок неизвестных дисперсий , i=l,...,n будем пред­полагать, что они пропорциональны некоторым числам, т.е.

V() = E() = , i = 1, я , где σ2 - некоторая константа.

Принимая различные гипотезы относительно характера гетероскедастичности, будем иметь соответствующие значения .

Если дисперсия случайного члена пропорциональна квадрату регрессора X, так что Е(иi2)=, i =1,n, то

Если дисперсия случайного члена пропорциональна X, так что i = 1 , . . . ,п. Например, для случая одной объясняющей переменной имеем в этом случае систему уравнений ОМНК вида:

Поскольку значения , i =1,...,n являются фактически весами, которые устраняют неоднородность дисперсии, то ОМНК для системы с гетероскедастичностью часто называют методом взвешенных наименьших квадратов.

Существуют также и другие методы коррекции модели на гетероскедастичность, в частности состоятельное оценивание стандартных ошибок. Из­вестны способы коррекции стандартных ошибок Уайта и Невье-Веста.

10.3 Способы проверки выборки на гомоскедастичность.

Рассмотрим вопрос тестирования выборки на наличие гомоскедастичности. Возможности такой проверки зависят от природы исходных данных.

Если имеется обширная выборка, то можно воспользоваться стандартным критерием однородности дисперсии Бартлетта.

Расчленяя выборку на т независимых групп (каждой из них соответству­ет единственное значение переменной X), вычислим величины:

причем =n, здесь - число наблюдений в i группе, si2 - дисперсия ошибки в i группе. Величина будет приближенно удовлетворять распределению с (т-1) степенями свободы. Если вычисленное по выборке значение χ2 меньше критического, то гипотеза об однородности выборочной дисперсии принимает­ся, в противном случае отклоняется.

В случаях малого количества наблюдений в выборке, когда группировка данных невозможна, используется тест Голдфелда и Куандта. Он предусматри­вает осуществление следующих шагов:

1) Упорядочить наблюдения по убыванию той независимой переменной, относительно которой есть подозрение на гетероскедастичность.

2) Опустить v наблюдений, оказавшихся в центре (v должно быть при­
мерно равно четверти общего количества наблюдений n).

3) Оценить отдельно обыкновенным методом наименьших квадратов регрессии на первых (n-v)/2 наблюдениях и на последних (n-v)/2 наблюдениях при условии, что (n-v)/2 больше числа оцениваемых параметров k.

4) Пусть е1 и e2 - суммы квадратов остатков от первой и второй регрессий соответственно. Тогда статистика Q=e1/e2 будет удовлетворять F- распределению с ((n-v-2k)/2; (n-v-2k)/2) степенями свободы. При Q < Fa гипотеза об одно­родности выборочной дисперсии принимается, в противном случае (с ростом величины Q) отклоняется.

Очевидно, что решающим для этого теста является выбор величины v. Слишком большое значение v уменьшает надежность теста. Экспериментально авторами теста установлено, что для одной объясняющей переменной опти­мальное v=8 при n=30 и v=16 при n=60.

Кроме перечисленных, могут использоваться тесты на гетероскедастичность Уайта, Бреуша-Пагана и др.

Поскольку тесты дают противоположные результаты (что не редкость в эконометрике), то лучше согласиться с наихудшим вариантом, т.е. предположить наличие гетероскедастичности и предпринять соответствующие корректирующие меры. В частности, скорректировать стандартные ошибки по фор­муле Невье-Веста.

 

Список рекомендуемой литературы: /1, 5, 6,7, 8/

 

 

ТЕМА 11 - Динамический ряд

 

План лекции:

1. Специфика динамических рядов

2. Проверка гипотезы о существовании тренда

3. Аналитическое выравнивание динамических рядов, оценка параметров уравнения тренда

4. Аддитивная и мультипликативная модели временного ряда

 

11.1 Специфика динамических рядов

Часто исследователь имеет дело с данными в виде динамических рядов.

Совокупность наблюдений y(t1),y(t2),...,y(tn) анализируемой величины Y(t), произведенных в последовательные моменты времени t1,t2,—,tn, называ­ется динамическим рядом.

Иначе говоря, динамический ряд - это упорядоченная во времени последовательность наблюдений.

Среди динамических рядов выделяют одномерные, полученные в результате наблюдения одной, фиксированной характеристики исследуемого объекта, и, многомерные динамические ряды как результат наблюдений нескольких характеристик одного исследуемого объекта в течение ряда моментов времени.

По времени наблюдения динамические ряды делятся на дискретные и непрерывные. Дискретные ряды, в свою очередь, разделяются на ряды с равноот­стоящими и произвольными моментами наблюдения.

Динамические ряды бывают детерминированными и случайными: первые получены как значения некоторой неслучайной функции, а вторые - как реализации случайной величины.

Стохастические динамические ряды подразделяются на стационарные и нестационарные. Ряд y(t) называется стационарным (в узком смысле), если сред­нее, дисперсия и ковариации y(f) не зависят от t.

В дальнейшем, если не оговорено иначе, будем рассматривать одномерные, дискретные с равноотстоящими моментами наблюдений случайные динамические ряды.

Природа динамических рядов существенно отличается от природы пространственных данных, что проявляется в весьма специфических свойствах динамических рядов. В своей работе исследователь должен учитывать эти особенности, основные из которых отображены в таблице 10.1.

 

Таблица 10.1 - Особенности динамических рядов

 

Характеристики наблюдений Тип данных
    Пространственные данные Динамические ряды
Порядок Не существенен Существенен
Статистическая независимость Независимы Не являются статистически независимыми
Функция распределения Распределены одинаково Распределены неодинаково
Количество Как правило, большое Как правило, небольшое

 

Значения элементов временного ряда формируются под воздействием ряда факторов, среди которых выделяют:

1) долговременные, формирующие в длительной перспективе общую
тенденцию анализируемого признака. Эта тенденция описывается с помощью некоторой функции, называемой трендом (Т);

2) сезонные, формирующие периодически повторяемые в определенное время года колебания анализируемого признака (S);

3) циклические, формирующие изменения анализируемого в результате воздействия циклов экономической, демографической или астрофизической природы (С);

4) случайные, не поддающиеся учету и регистрации, как результат воздействия случайных, внешних факторов (U).

Первые три составляющие часто объединяют в одну детерминированную и рассматривают модель ряда в виде yt=f(t)+ut,. Изменение уровня f(t) со временем называют при этом трендом.

Предметом анализа временного ряда является выделение и изучение указанных компонент ряда, как правило в рамках одной из моделей ряда: либо ад­дитивной Y=T+C+S+U, либо мультипликативной Y=T *С*S* U.

Некоторые составляющие могут отсутствовать в тех или иных рядах.

В результате анализа временного ряда необходимо определить, какие из неслучайных составляющих присутствуют в разложении ряда, построить для них хорошие оценки, подобрать модель, описывающую поведение остатков и оценить ее параметры.

11.2 Проверка гипотезы о существовании тренда

Для выявления факта наличия или отсутствия неслучайной составляющей f(t), то есть для проверки гипотезы о существовании тренда - H0: Ey(t)=a=const, используют следующие критерии.

1) Критерий серий. Упорядочим члены ряда по возрастанию: у1, у2, ..., yt, ..., уп. Определим медиану ряда:

 

 

Образуем последовательность плюсов и минусов, соответствующую исходному ряду, по правилу: если , то yt соответствует плюс, если yt<ymed, то - минус. Под серией понимается последовательность подряд идущих плюсов и подряд идущих минусов. Подсчитаем общее число серий v и протяженность самой длинной серии τ.

Если хотя бы одно из неравенств:

 

τ < [l,431n(n +1)]

окажется нарушенным, то гипотеза Н0 отвергается с вероятностью ошибки а, заключенной между 0,05 и 0,0975.

2) Критерий "восходящих" и "нисходящих" серий. Аналогично предыдущему критерию исследуется последовательность плюсов и минусов. Правило построения последовательности: если yt+1-yt>0, то yt соответствует плюс, если , то - минус (если подряд идут несколько равных наблюдений, то во внимание принимается одно из них).

Если хотя бы одно из неравенств:

 

окажется нарушенным, то гипотеза Н0 отвергается с вероятностью ошибки а, заключенной между 0,05 и 0,0975. Величина Т0 определяется в зависимости от n:

n п<26 26<n<153 153<n<1170
=5 τо =6 =7

3) Критерий квадратов последовательных разностей (критерий Аббе). Если есть основания полагать, что разброс наблюдений yt относительно своих средних значений подчиняется нормальному закону распределения вероятно­стей, то применяется критерий Аббе.

11.3 Аналитическое выравнивание динамических рядов, оценка параметров уравнения тренда

Метод обработки динамических рядов, целями которого является устранение случайных колебаний и построение аналитической функции, характеризующей зависимость уровней ряда от времени - тренда, называется аналитическим выравниванием временного ряда.

Суть метода аналитического выравнивания состоит в том, чтобы заменить фактические уровни временного ряда y(t1),y(t2),...,y(tn) на теоретические y(t1),y(t2),...,y(tn). Расчет y(t1),y(t2),...,y(tn) осуществляется по некоторому формализованному уравнению, принятому за математическую модель тренда. Для построения трендов чаще всего применяют такие функции, как:

- линейная: yt = а + b • t;

- степенная: yt = a • tb;

- гиперболическая:

 

- экспоненциальная:

- полиномы второго и более высоких порядков:

Расчет параметров тренда производится методом МНК. В качестве зави­симой переменной выступают фактические уровни ряда y(t1),y(t2),...,y(tn), a независимой переменной является время t = 1,2,...,n. Заметим, что для нелинейных трендов необходима процедура линеаризации.

Выбор функции тренда может быть осуществлен несколькими способами. Наиболее простым считается тот, в ходе которого анализируют цепные аб­солютные приросты (первые разности уровней ряда) , абсолютные ускорения уровней ряда (вторые разности ряда) и цепные коэффициенты ростам,.

Если примерно одинаковы , то ряд имеет линейный тренд, если же примерно постоянны , то для описания тенденции временного ряда следует выбрать параболу второго порядка, и, если примерно равны Kt, необходимо использовать экспоненциальную или степенную функции.

Интерпретация параметров тренда существенно зависит от его типа. Если тренд имеет линейную форму, то а - начальный уровень временно­го ряда в период времени t=0 и b - средний за период абсолютный прирост уровней ряда. Если же ряд имеет, например, экспоненциальный тренд, то а - началь­ный уровень временного ряда в период времени t=0 и - средний за единицу времени коэффициент роста уровней ряда.

Трактовка параметров степенного тренда аналогична трактовке параметров экспоненциального тренда.

 
 

Метод последовательных разностей

Часто при аналитическом выравнивании ряда используется модель тренда в виде полинома.

Для определения порядка аппроксимирующего полинома в этом случае выделения тренда широко используется метод последовательных разностей, членов анализируемого временного ряда.

Метод основан на следующем математическом факте: если динамический ряд содержит в качестве своей неслучайной составляющей алгебраический полином f(t)=a0+a1t+...+aptp порядка р, то переход к последовательным разностям у(1), у(2), ..., у(п), повторенный р+1 раз (то есть переход к последовательным разностям порядка р+1), исключает неслучайную состав­ляющую (включая константу ), оставляя элементы, выражающиеся только че­рез остаточную случайную компоненту u(t).

11.4 Аддитивная и мультипликативная модели временного ряда

Простейшим подходом к моделированию динамических рядов, содержащих сезонные колебания, является построение аддитивной или мультипликативной моделей временного ряда.

Выбор одной из этих моделей основывается на анализе структуры временного ряда.

Если амплитуда сезонных колебаний примерно постоянна, то строят аддитивную модель. Если же амплитуда колебаний непостоянна, то есть возрас­тает или уменьшается, то строят мультипликативную модель.

Процесс построения модели ряда в этом случае включает следующие этапы:

1) Выравнивание исходного ряда методом скользящей средней. Расчет
значений сезонной компоненты S.

2) Устранение сезонной компоненты из исходных уровней ряда и
получение выровненных данных (T+U) в аддитивной или (Т-U) в мультипликативной модели.

3) Аналитическое выравнивание уровней (T+U) или (Т-U) и расчет
значений Т с использованием полученного уравнения тренда.

4) Расчет полученных по модели значений (T+S) или (Т -S).

5) Расчет абсолютных и/или относительных ошибок.

Рассмотрим процесс построения аддитивной модели на примере.
Модели стационарных и нестационарных динамических рядов и их идентификация

Модели авторегрессии порядка р (AutoRegressive -AR(p) models)

Достаточно часто экономические показатели, представленные в виде временного ряда, имеют сложную структуру. Моделирование таких рядов путем построения модели тренда, сезонности и периодической составляющей не приводит к удовлетворительным результатам. Ряд остатков часто имеет статистические закономерности. Наиболее распространенными моделями стацио­нарных рядов являются модели авторегрессии и модели скользящего среднего.

Будем рассматривать класс стационарных динамических рядов. Задача со­стоит в построении модели остатков временного ряда и, и прогнозирования его значений.

Авторегрессионная модель предназначена для описания стационарных динамических рядов. Стационарный процесс удовлетворяет уравнению авторегрессии бесконечного порядка с достаточно быстро убывающими коэффициентами. В частности, поэтому авторегрессионная модель достаточно высокого по­рядка может хорошо аппроксимировать почти любой стационарный процесс. В связи с этим модель авторегрессии часто применяется для моделирования ос­татков в той или иной параметрической модели, например регрессионной мо­дели или модели тренда.

 

Список рекомендуемой литературы:/2, 4, 5, 9/

 

СПИСОК РЕКОМЕНДУЕМОЙ ЛИТЕРАТУРЫ

 

Основная литература

 

1. Елисеева И.И. Эконометрика. – М.: Финансы и статистика. 2000.

2. Елисеева И.И. Практикум по эконометрике. – М.: Финансы и Статистика. 2001.

3. Карасев А.И., Кремер Н.Ш., Математические методы и методы планирования. – М.: Экономика, 1987.

4. Кремер Н.Ш., Путко Б.А. Эконометрика: Учебник для вузов. – М.: ЮНИТИ-ДАНА, 2003. – 311 с.

5. Кулиныч Е.И. Эконометрия – М.: Финансы и статистика, 2000.

6. Магнус Я.Р. и другие Эконометрика. Начальный курс. – М.: Дело, 2000.

7. Мынбаев К.Т., Лемос А. Эконометрика: Учебник для вузов. - Алматы, 2004. – 316 с.

8. Четыркин Е.М. Статистические методы прогнозирования. М.: Финансы и статистика, 1979.

9. Эконометрика Учебное пособие /И.И. Елисеева. С.В. Курышева, Д.М. Гордиенко и др. - М.: Финансы и статистика, 2001.

 

Дополнительная литература

 

1. Айвазян С.А., и другие Прикладная статистика. Исследование зависимостей. – М: Финансы и статистика, 1985.

2. Айвазян С.А., Мхитарян В.С. Прикладная статистика и основы эконометрики. Учебник для вузов. - М.: ЮНИТИ, 1998.

3. Бородич С.А. Эконометрика: Учебное пособие. – Мн.: Новое знание, 2001.

4. Горчаков А.А., и другие Методы экономико – математического моделирования и прогнозирования в новых условиях хозяйствования. – М: ВЗФЭИ, 1991.

5. Джонсон Д.Ж. Эконометрические методы, - М: Финансы и статистика. 2001.

6. Доугерти К. Введение в эконометрику. - М.: ИНФРА-М, 1997.