Интерпретация результатов множественной регрессии
Метод наименьших квадратов в случае множественной регрессии работает так же, как двумерная регрессия, в том смысле, что представляет собой проходящую через множество точек, которые представляют значения случаев по нескольким переменным, так чтобы уменьшить до минимума сумму квадратов расстояний от каждой точки до этой линии. Разница в том, что эта “прямая” в случае множественной регрессии есть множество математически обоснованных точек в системе, которая не может быть описана как двумерное множество точек, а, или точка пересечения, обычно представляет мало интереса, поскольку значения независимой переменной редко равны 0. Однако значение а, равное 10, в уравнении можно интерпретировать в том смысле, что, даже если кандидат не вкладывал средств в рекламу, и 0% избирателей в штате принадлежат к ее или его партии, он (или она) получит 10% голосов просто потому, что находится в избирательных списках.
Гораздо более важно понять смысл значений bi. Его обычно называют частным коэффициентом регрессии; он описывает единичный вклад каждой независимой переменной в определение значений ЗП. В нашем примере о выборах значение b1, равное 0,1, можно интерпретировать как означающее, что каждые дополнительные 1000 долларов, вложенные в рекламу, увеличивают долю голосов за кандидата на одну десятую процентной единицы, а значение b2, равное 1, будет означать, что каждому 1% увеличения доли голосов тех, кто принадлежит той же партии, [c.445]соответствует 1% увеличения доли всех голосующих за кандидата. С помощью этих коэффициентов регрессия статистически сводится к постоянному влиянию любой переменной, которая воздействует как на отдельную НП, так и на ЗП через использование следующей формулы:
Такой статистический контроль заменяет тот контроль, который мы могли бы осуществлять при экспериментальном построении; он, таким образом, ценен с двух точек зрения. Во-первых, если говорить коротко, он позволяет нам оценить относительное значение различных НП для определения значений ЗП. Во-вторых, он позволяет нам исключить альтернативную гипотезу о том, что взаимосвязи между ЗП и любой конкретной НП ложны. Если мы допустим, что все значимые причины изменений ЗП включены в нашу модель, а коэффициент частичной регрессии для любой НП при этом отличен от 0 (значим)4, мы можем сделать вывод, что наличие взаимосвязи между НП и ЗП не является ложным. Если же, однако, близок к О или статистически незначим, мы должны заключить, что непосредственной связи между НП и ЗП нет. В таком случае следует исключить НП из модели, с тем чтобы сделать ее более соответствующей изучаемому объекту. Ясно, таким образом, что множественная регрессия может быть ценным инструментом в совершенствовании и улучшении наших теорий, касающихся политических явлений.
Мы можем достичь завершенности своей теории, если обратимся к подсчету коэффициента множественной детерминации, или R2 (нечто, что можно назвать множественным R2) по формуле:
Этот коэффициент показывает, насколько близко расположены точки, обозначающие данные, вокруг “прямой”, предусмотренной нашей моделью; ее обычно называют мерой отклонений ЗП, которые могут быть объяснены колебаниями всех НП. Например, коэффициент R2, равный 0,57, можно определить как показатель того, что [c.446]независимые переменные в модели, по которой он был посчитан, объясняют 57% колебаний зависимой переменной. R2 изменяется в пределах между 0 и 1; чем ближе он к единице, тем более совершенна наша модель. Значение R2 всегда может быть увеличено путем введения в модель добавочных НП, но исследователь должен всегда задаваться вопросом, не сделает ли вновь введенная переменная модель слишком сложной и привнесет ли она что-нибудь ценное в понимание исследуемого явления. В нашем случае с выборами, например, мы, может быть, и могли бы увеличить R2 добавлением в уравнение сведений о количестве букв в фамилии кандидата, но сделать это – значит забыть, что исследование имеет целью более полное и ценное понимание мира, а не состязание в наиболее впечатляющем применении статистики.[c.447]