Коэффициент эластичности для линейной модели
В силу того что k-эластичности для линейной регрессии не является постоянной, а зависит от соответствующего значения Х, то рассчитывается средний показатель эластичности по формуле
k-эластичности гиперболической модели:
k-эластичности для экспоненциальной модели:
k-эластичности для обратной модели:
Несмотря на обширное использование в эконометрике коэффициентов эластичности, иногда бывает, когда их расчет не имеет экономического смысла. Это происходит в тех случаях, когда для рассматриваемых признаков бессмысленно определение изменения значений в процентах. Например, вряд ли стоит определять, на сколько процентов может измениться заработная плата с ростом стажа работы на 1 %. В таких случаях степенная функция, даже если она оказывается оптимальной по формальным соображениям (исходя из минимального значения остаточной вариации), не может быть экономически интерпретирована.
Например, изучая соотношение ставок межбанковского кредита у (в % годовых) и срока его предоставления (в днях) было получено степенное уравнение регрессии с очень высоким коэффициентом корреляции (0,98). k-эластичности 0,4% лишен смысла, так как срок предоставления кредита не измеряется в процентах.
В множественной регрессии k-эластичности показывает, на сколько процентов изменяется в среднем результат с изменением соответствующего фактора на 1 % при неизменности действия других факторов. Степенные модели множественной регрессии получили широкое распространение в производственных функциях, при анализе спроса и потребления.
Таблица коэффициентов эластичности
10. Как проводится линеаризация нелинейных моделей?
Для оценки параметров нелинейных моделей, как правило, используют линеаризацию модели, которая заключается в том, что с помощью подходящих преобразований исходных переменных исследуемую зависимость представляют в виде линейного соотношения между преобразованными переменными. Если не удается подобрать соответствующее линеаризующее преобразование, то применяют методы нелинейной оптимизации на основе исходных переменных.
Различают два класса нелинейных регрессионных моделей:
- модели, нелинейные относительно фактора, но линейные по параметрам;
- модели нелинейные по параметрам.
Модели, нелинейные относительно факторов, но линейные по параметрам. Введением новых переменных такую модель можно свести к линейной, для оценки параметров которой используется обычный метод наименьших квадратов.
Рассмотрим примеры линеаризующих преобразований:
1) Полиномиальная модель: .
Соответствующая линейная модель: , где .
2) Гиперболическая модель: .
Соответствующая линейная модель: , где .
3) Логарифмическая модель: .
Соответствующая линейная модель: , где .
Следует отметить и недостаток такой замены переменных, связанный с тем, что вектор оценок получается не из условия минимизации суммы квадратов отклонений для исходных переменных, а из условия минимизации суммы квадратов отклонений для преобразованных переменных, что не одно и то же.
Полиномами второго порядка описывается зависимость урожайности от количества внесенных удобрений. Гиперболическая модель может быть использована для характеристики связей между нормой безработицы и процентом прироста заработной платы (кривая Филлипса). Логарифмическая модель может быть использована для описания доли расходов на товары длительного пользования (кривая Энгеля) в зависимости от общих сумм расходов.
Модели нелинейные по параметрам. Среди таких моделей выделяют нелинейные модели внутренне линейные и нелинейные модели, внутренне нелинейные. Модели внутренне линейные можно привести к линейному виду с помощью соответствующих преобразований.
Примеры внутренне линейных моделей и их линеаризация:
1) Мультипликативная степенная модель: .
Линеаризующее преобразование:
Или
,
где .
2) Экспоненциальная модель: .
Линеаризующее преобразование: .
3) Обратная регрессионная модель: .
Линеаризующее преобразование: .
К моделям, полученным после проведения линеаризующих преобразований можно применять обычные методы исследования линейной регрессии. Но поскольку в них присутствуют не фактические значения изучаемого показателя, то оценки параметров получаются несколько смещенными. При анализе линеаризуемых функций регрессии, следует особенно тщательно проверять выполнение предпосылок метода наименьших квадратов.