Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам
Различают два класса нелинейных регрессий:
· регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
· регрессии, нелинейные по оцениваемым параметрам.
Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут служить следующие функции:
· полиномы разных степеней – у = а + bх + сх2 + ε,
у = а + bх + сх2 +dx3+ ε,
· равносторонняя гипербола –
Нелинейная регрессия по включенным переменным определяется, как и в линейной регрессии, методом наименьших квадратов(МНК), ибо эти функции линейны по параметрам. Так, в параболе второй степени
у = а0 + а1 х + а2 х2 + ε,
заменяя переменные х1= х, х2= х2,получим двухфакторное уравнение линейной регрессии:
у = а0 + а1 х1 + а2 х2 + ε,
для оценки параметров которого, как будет показано далее, используется МНК.
Следовательно, полином любого порядка сводится к линейной регрессии с ее методами оценивания параметров и проверки гипотез.
Среди класса нелинейных функций, параметры которых без особых затруднений оцениваются МНК, следует назвать хорошо известную в эконометрике равностороннюю гиперболу
.
Для равносторонней гиперболы такого вида, заменив на z,получим линейное уравнение регрессии y = a +bz+ ε,оценка параметров которого может быть дана МНК.
Классическим ее примером является кривая Филлипса,характеризующая нелинейное соотношение между нормой безработицы х и процентом прироста заработной платы у.