Записываем необходимое условие экстремума функции

четырех независимых аргументов:

(10.85)

Определяем частные производные и получаем следующую

систему:

(10.86)

После преобразовании (10.86) получаем систему нормальных

уравнений для определения искомых параметров а1, а2, а3, b.

(10.87)

Систему (10.87) можно легко решить, используя, например,

Метод Гаусса или одну из его модификаций.

Приведем некоторые часто используемые криволинейные

многофакторные модели:

Степенная

; (10.88)

Экспоненциальная

; (10.89)

Гиперболическая

. (10.90)

Модели (10.88) и (10.89) приводятся к линейной многофак-

торной модели логарифмированием:

. (10.91)

,

а так как ln e = 1, то получаем

. (10.92)

Модель (10.90) сводят к линейной с помощью подстановки:

. (10.93)

Модели (10.91), (10.92),(10.93) являются линейным много-

Факторными, которые мы рассматривали в подразд. 10.5.

Кратко коснемся вопроса выбора формы модели. Слож-

Ность и многообразие рассматриваемых природных и об-

Щественных явлений предопределяет большое количество

Моделей, используемых для их анализа. Это значительно ос-

Ложняет выбор оптимальной зависимости. В случае парной

Криволинейной регрессии выбор модели, как правило, осу-

Ществляется по расположению данных наблюдений на поле

Корреляции. Но встречаются случаи, когда расположение

Значений наблюдений на корреляционном поле приближенно

Соответствует нескольким функциональным зависимостям, и

Возникает вопрос выбора из них наилучшей. Еще более слож-

На ситуация для множественной криволинейной регрессии,

Так как исходные данные наблюдений наглядно не представ-

Ляются. Для того чтобы выбрать адекватную модель необхо-

Димо ответить на ряд вопросов, которые возникают при ее

анализе:

_ Каковы признаки “хорошей” модели?

_ Какие ошибки спецификации могут встречаться, и како-

вы их последствия?

_ Как найти ошибку спецификации?

_ Как можно исправить ошибку спецификации и перейти

к более качественной модели?

Для того чтобы построить “хорошую” модель, нужно учи-

Тывать следующие критерии.

Модель должна быть максимально простой (модель уп-

Рощенно описывает изучаемое явление). Поэтому из двух мо-

Делей, приблизительно одинаково описывающих изучаемый

Процесс, выбирают более простую (например, содержащую

Меньшее количество факторных признаков).

Для любого набора данных наблюдений определяемые па-

Раметры должны находиться однозначно.

Уравнение регрессии будет тем лучше, чем большую

Часть разброса результативного признака оно может объяс-

Нить, т. е. коэффициент детерминации должен быть макси-

Мальным.

Никакое уравнение регрессии не может быть признано ка-

Чественным, если оно не соответствует теоретическим предпо-

Сылкам.

Модель можно признать хорошей, если полученные на

Ее основе прогнозы, соответствуют реальной действитель-

Ности.

Ошибки спецификации в данном пособии не рассматрива-

ются. Сведения о них можно почерпнуть, например, в [6].

Теперь приведем конкретный пример расчета криволи-

Нейного уравнения регрессии.

Пример 10.5

Построить показательное уравнение регрессии ,

Если имеются данные наблюдений над двумя случайными ве-

личинами x и y (табл. 10.13, данные условные)

Таблица 10.13

X 4 5 5 6 8 10 8 7 11 6

Y 1,5 2 4,4 2,3 2,7 4 2,3 2,5 6,6 1,7

Используя данные табл. 10.13, построим поле корреляции

для нашего примера (риc. 10.3) Черными точкам на рис. 10.3

Обозначены исходные данные.

y

x

0 1 2 3 4 5 6 7 8 9 10 11

Рис. 10.3

В данном примере вид уравнения регрессии задан (показа-

Тельная функция). С помощью логарифмирования линеаризи-

руем исходную модель. Получаем:

.

Исходные параметры а и b найдем с помощью МНК.

Условие МНК в данном случае имеет вид:

. (10.94)

Записываем необходимые условия экстремума функции F

двух независимых аргументов ln a и ln b.

. (10.95)

Вычисляем чистые производные и получаем следующую

систему уравнений:

(10.96)

После преобразования (10.96) получаем следующую систе-

му нормальных уравнений:

(10.97)

Считая, что искомые параметры a и b отличны от нуля

(a ≠ 0, b ≠ 0), умножаем левую и правую стороны первого урав-

нения системы (10.97) на а, а второго — на b и получаем:

(10.98)

Наши рекомендации