Коэффициенты эластичности

Вид функции, у Первая производная, Коэффициент эластичности,
Линейная у = а + bx + ε b
Парабола у = а + bx + cx2 + ε b + 2cx
Гипербола у = а + + ε
Показательная у = а bxε ln b a bx Э = х lnb
Степенная у = а хb ε a b xb-1 Э = b
Экспоненциальная у = еa+bxε b еa+bx Э = b х

 

2.3. Предпосылки МНК (условия Маркова-Гаусса)

Для получения по МНК наилучших результатов необходимо чтобы выполнялись следующие условия (предпосылки) относительно случайного отклонения ε.

1. Математическое ожидание случайного отклонения εi равно нулю: М(εi)=0, для всех наблюдений.

2. Дисперсия случайных отклонений εi постоянна D(εi)=D(εj)=σ2 , для любых наблюдений i и j. Постоянство дисперсии называется гомоскедастичностью, непостоянство дисперсии называется гетероскедастичностью.


На рис.2.3.1, а показано постоянство дисперсии, на рис. 2.3.1, б показано непостоянство дисперсии

 

рис.2.3.1 Постоянство и непостоянство дисперсии отклонений

3. Случайные отклонения εi и εj являются независимыми друг от друга.

4. Случайное отклонение εj должно быть независимо от объясняющих переменных.

5. Ошибки εi подчиняются нормальному распределению.

 

F-тест Фишера на состоятельность регрессии

После того как найдено уравнение линейной регрессии, проводится оценка значимости как уравнения в целом, так и отдельных его параметров.

Оценка значимости уравнения регрессии в целом производится с помощью F – критерия Фишера. При этом выдвигается нулевая гипотеза H0: уравнение регрессии статистически незначимо.

Для этого выполняется сравнение фактического (расчетного) критерия Fр с табличным значением Fтабл.Таблицы критических значений составлены на основе двухпараметрического распределения неотрицательной случайной величины (F-распределения Фишера) в зависимости от численных значений степеней свободы v1 = m и v2 = n - m - 1,при различных уровнях значимости (в приложении 2 дана таблица F-распределения Фишера для трех различных значений уровня значимости 5%, 1%, 0,1%).

(3.7)

Если > Fтабл при заданном уровне значимости α, гипотеза H0 о случайной природе формирования уравнения регрессии отклоняется, то есть уравнение регрессии статистически значимо.

Если <Fтабл при заданном уровне значимости α, гипотеза H0 о случайной природе формирования уравнения регрессии не отклоняется и признается статистическая незначимость и ненадежность уравнения регрессии.

 

Анализ точности определения параметров регрессии

Для оценки статистической значимости параметров регрессии используют t – критерий Стьюдента. При этом выдвигается нулевая гипотеза H0 : параметр b (a) статистически незначим (близок к нулю). При отклонении Н0 параметр b (a) считается статистически значимым, что указывает на наличие определенной линейной зависимости между х и у.

Находится расчетное значение t – критерии для каждого параметра. Для параметра b:

(3.8)

для параметра a:

(3.9)

Полученные расчетные значения сравниваются с табличным (приложение 1) для заданного уровня значимости α и при ν=n-m-1 степенях свободы.

Если , то гипотеза H0 о статистической незначимости параметра b отклоняется, то есть параметра b статистически значим.

Если , то гипотеза H0 о статистической незначимости параметра а отклоняется, то есть параметра а статистически значим.

Если , то гипотеза H0 о статистической незначимости параметра b принимается.

Если , то гипотеза H0 о статистической незначимости параметра а принимается.

Стандартные ошибки параметров и самой линейной регрессии определяются по формулам:

Стандартная ошибка параметра b:

(3.10)

Стандартная ошибка параметра а:

(3.11)

Стандартная ошибка регрессии (мера разброса зависимой переменной вокруг линии регрессии):

(3.12)

Проверка выполнимости предпосылок МНК.
Статистика Дарбин-Уотсона

Статистическая значимость параметров регрессии и близкое к единице значение коэффициента детерминации R2 не гарантирует высокое качество уравнения регрессии. Поэтому следующим этапом проверки качества уравнения регрессии является определение выполнимости предпосылок МНК. Для этого рассмотрим статистику Дарбина-Уотсона.

Оценивая линейное уравнение регрессии, мы предполагаем, что реальная взаимосвязь переменных линейна, а отклонения от регрессионной прямой являются случайными, независимыми друг от друга величинами с нулевым математическим ожиданием и постоянной дисперсией. Если эти предположения не выполняются, то оценки несмещенности, эффективности, состоятельности и анализ их значимости будут неточными.

На практике для анализа коррелированности отклонений вместо коэффициента корреляции используют тесно с ним связанную статистику Дарбина-Уотсо­на DW, рассчитываемую по формуле:

(3.13)

Здесь сделано допущение, что при больших n выполняется соотношение:

(3.14)

Тогда

(3.15)

Нетрудно заметить, что если , то и DW=0. Если , то и DW=4. Во всех других случаях 0<DW<4.

При случайном поведении отклонений можно предположить, что в одной половине случаев знаки последовательных отклонений совпадают, а в другой – противоположны. Так как абсолютная величина отклонений в среднем предполагается одинаковой, то можно считать, что в половине случаев , а в другой – . Тогда

(3.16)

Таким образом, необходимым условием независимости случайных отклонений является близость к двойке значения статистики Дарбина-Уотсона. Тогда, если DW≈2, мы считаем отклонения от регрессии случайными (хотя они в действительности могут и не быть таковыми). Это означает, что построенная линейная регрессия, вероятно, отражает реальную зависимость.

Возникает вопрос, какие значения DW можно считать статистически близкими к двум?

Для ответа на этот вопрос разработаны специальные таблицы критических точек статистики Дарбина-Уотсона (Приложение 3), позволяющие при данном числе наблюдений п, количестве объясняющих переменных т и заданном уровне значимости α определять границы приемлемости (критические точки) наблюдаемой статистики DW.

Для заданных α, п, т в таблице (Приложение 3) указываются два числа: d1нижняя граница и duверхняя граница. Для проверки гипотезы об отсутствии автокорреляции остатков используется числовой отрезок, изображенный на рис. 3.6.1.

 
 

 

 


Выводы осуществляются по следующей схеме.

Если DW < d1, то это свидетельствует о положительной автокорреляции остатков.

Если DW > 4 – d1, то это свидетельствует об отрицательной автокорреляции остатков.

При du < DW < 4 – du гипотеза об отсутствии автокорреляции остатков принимается.

Если d1 < DW < du или 4 – du < DW < 4 – d1, то гипотеза об отсутствии автокорреляции не может быть ни принята, ни отклонена.

 

Модели парной нелинейной регрессии

Во многих практических случаях моделирование экономических зависимостей линейными уравнениями дает вполне удовлетворительный результат и не может использоваться для анализа и прогнозирования. В силу многообразия и сложности экономических процессов ограничиться рассмотрением лишь линейных регрессионных моделей невозможно. Многие экономические зависимости не являются линейными по своей сути, и поэтому их моделирование линейными уравнениями регрессии не даст положительного результата. Например, при рассмотрении спроса у на некоторый товар от цены х данного товара в ряде случаев можно ограничиться линейным уравнением регрессии: у=а+bx, но данная модель справедлива не всегда: при эластичном спросе скорее подойдет гиперболическая модель у=а+b∙1/x. При анализе издержек у от объема выпуска х наиболее обоснованной является полиномиальная (точнее, кубическая) модель.

При рассмотрении производственных функций линейная модель является нереалистичной. В этом случае обычно используются степенные модели. Например, широкую известность имеет производственная функция Кобба-Дугласа (здесь у – объем выпуска; K и L – затарты капитала и труда соответственно; А, α и β – параметры модели).

Различают два класса нелинейных регрессий:

· регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;

· регрессии, нелинейные по оцениваемым параметрам.

Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут служить следующие функции:

– полиномы разных степеней: y = a + b1 x + b2 x2 + e,

y = a + b1 x + b2 x2 + b3 х3 + e;

– равносторонняя гипербола: у = а + + ε.

К нелинейным регрессиям по оцениваемым параметрам относятся функции:

– степенная: у = а хb ε;

– показательная: у = а bxε;

– экспоненциальная: у = еa+bx ε.

Нелинейность по переменным устраняется путем замены переменной. Например, нелинейное уравнение после замены переменной становится линейным: .

Нелинейность по параметру часто устраняется путем логарифмического преобразования уравнения. Например, нелинейные уравнения после ло­гарифмирования сводятся к линейным степенная функция после логарифмирования становится линейной: ;

 

 

Нелинейные однофакторные регрессионные модели. Линеаризация

Что же необходимо сделать, если исследователь пришел к выводу, что анализируемая зависимость нелинейная? В этой ситуации существует два основных варианта действий:

-вначале стоит попытаться подобрать такое преобразование к анализируемым переменным, которое позволило бы представить существующую нелинейную зависимость в виде линейной функции. Этот процесс называется линеаризацией;

-если линеаризация невозможна, то тогда к исследуемой зависимости необходимо применять методы нелинейной регрессии. Рассмотрение этих методов выходит за рамки данного курса.

Если процесс линеаризации возможен, то после его проведения к вновь введенным переменным можно применить МНК.