Справочник от Автор24
Поделись лекцией за скидку на Автор24

Множественная регрессия

  • 👀 382 просмотра
  • 📌 311 загрузок
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Множественная регрессия» pdf
Множественная регрессия Источники 1. Доугерти, К. Введение в эконометрику : учеб. для экон. специальностей вузов / К. Доугерти; пер. с англ. Е. Н. Лукаш [и др.]. – М. : ИНФРА-М, 1997. [Глава 5]. 2. Магнус, Я. Р. Эконометрика. Начальный курс : учеб. / Я. Р. Магнус, П. К. Катышев, А. А. Пересецкий. – 3-е изд., перераб. и доп. – М. : Дело, 2000. [Глава 2, разделы 2.3-2.4] 3. Вербик М., Путеводитель по современной эконометрике. – М.: Научная книга, 2008. [Глава 2, раздел 2.2 – до конца главы]. Эконометрика. Осень 2020. Кеткина О.С. 2 • • • • • • • • Содержание Понятие множественной регрессии …………………………………………7 Интерпретация коэффициентов множественной регрессии ..14 Вывод коэффициентов множественной регрессии методом наименьших квадратов (МНК) ………………………………………………..21 Показатели качества коэффициентов регрессии …………………...29 Качество оценки множественной регрессии …………………….……33 Мультиколлинеарность …………………………………………………………..38 Примеры (интерпретации) множественной линейной регрессии…………………………………………………………………18, 20, 49-50 Проверка гипотез о наличии линейных соотношений между коэффициентами регрессии (F – тест) ….................................... 51 Эконометрика. Осень 2020. Кеткина О.С. 3 При изучении парной линейной регрессии мы рассматривали зависимость расходов на питание - y i от дохода семьи – xi. В этом случае xi - уровень дохода семьи, неслучайная (детерминированная) величина, объясняющая поведение yi yi - уровень расходов на питание, случайная величина. yi – уровень расходов .P 4 .P 2 .P 1 . P3 xi - уровень дохода семьи Т.е. мы брали несколько семей с одинаковым уровнем дохода x1 = 80 тыс. руб. в год и случайным образом выбирали из них одну семью и выясняли сколько в ней тратят средств на питание, т.е. значение y1 => получали пару значений т.P1 =(x1, y1). Аналогично, брали несколько семей с одинаковым уровнем дохода x2 = 140 тыс. руб. в год и случайным образом выбирали из них одну семью и выясняли сколько в ней тратят средств на питание y2 => получали пару значений т.P2 =(x2, y2). … и т.д. 4 Эконометрика. Осень 2020. Кеткина О.С. В результате мы получали парную линейную регрессию: yi = α + βxi + ui где i = 1,…,n xi - неслучайная (детерминированная)величина, yi и ui - случайные величины. yi – зависимая переменная, состоит из (1) неслучайной составляющей α + βxi, где xi – объясняющая (независимая) переменная, а постоянные α и β параметры уравнения; и (2) случайного члена ui (ошибки; расстояние между соответствующими Q и Р; Q – точки на теоретической функции, P – наблюдаемые значения/собранные данные). xi и yi это фактические значения (реально собранные данные/наблюдения, иными словами наблюдаемые значения). yi – уровень расходов u4 u1 u2 u3 xi - уровень дохода семьи Эконометрика. Осень 2020. Кеткина О.С. 5 Конечно это было некоторое упрощение, т.к. yi уровень расходов на питание помимо уровня дохода (xi) также зависит от уровня цен на продукты питания и пр. характеристик. Потому, в экономической теории / жизни чаще встречаются зависимости с более, чем одной объясняющей переменной. Рассмотрим более сложную модель состоящую из трех переменных (как пример множественной регрессионной модели). Эконометрика. Осень 2020. Кеткина О.С. 6 Множественная линейная регрессия yi = α + β1x1i + β2x2i + ui где i = 1,…,n (для временных рядов t=1,…,n ) x1i , x2i - две объясняющие переменные, неслучайные (детерминированные) величины; yi и ui - случайные величины. yi – зависимая переменная, состоит из (1) неслучайной составляющей α + β1x1i + β2x2i , где постоянные α и β1 β2 параметры уравнения; и (2) случайного члена ui (ошибок; расстояние между соответствующими Q и Р; Q – точки на теоретической функции, P – наблюдаемые значения / собранные данные). x1i , x2i и yi это фактические значения (реально собранные данные / наблюдения, иными словами наблюдаемые значения). Эконометрика. Осень 2020. Кеткина О.С. 7 Множественная линейная регрессия yi = α + β1x1i + β2x2i + ui Также как и в парной линейной регрессии α - константа, и ее «техническая» интерпретация (которая не всегда имеет смысл) - это среднее значение y когда x1i и x2i равны нулю. β1 и β2 это частные коэффициенты регрессии (поясним суть «частные» чуть ниже, см. слайд 15). Эконометрика. Осень 2020. Кеткина О.С. 8 Также как и для парной линейной регрессии для случая множественной линейной регрессии должны выполняться условия Гаусса-Маркова Модель множественной линейной регрессии yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n 1) Должна быть правильно специфицирована (т.е. выбрана правильная функциональная форма, включены необходимые объясняющие переменные и нет лишних); 2) Не должно существовать линейной связи между регрессорами /объясняющими переменными (т.е. нет проблемы коллинеарности / строгой мультиколлинеарности); 3) Случайный член должен иметь нулевое математическое ожидание E(ui) = 0; 4) Случайный член должен иметь постоянную дисперсию для всех наблюдений, Var(ui)=D(ui)= σu2 , i= 1,…,n (гомоскедастичность); 5) Случайные члены с разными номерами не должны коррелировать друг с другом, Cov(ui, uj) = 0 (для i ǂ j) => отсутствие автокорреляциии; Если эти условия выполняются, тогда оценки МНК являются наиболее эффективными и несмещенными оценками коэффициентов регрессии [BLUE (Best Linear Unbiased Estimator)]. Эконометрика. Осень 2020. Кеткина О.С. 9 Кратко о коллинеарности / совершенной мультиколлинеарности yi = α + β1x1i + β2x2i + ui (1) Если существует линейная связь между регрессорами/объясняющими переменными x1i и x2i (допустим x2i = 2x1i ), тогда (1) можно записать в виде: yi = α + β1x1i + β2x2i + ui = α + β1x1i + β22x1i + ui = = α + (β1+ 2β2) x1i + ui = (заменим β1+ 2β2 = θ) = = α + θ x1i + ui Оценив полученное уравнение регрессии мы получим оценки для параметров α и θ, но оценить отдельно параметры β1 и β2 мы не сможем. Эконометрика. Осень 2020. Кеткина О.С. 10 Т.е. если мы записываем уравнение yi = α + β1x1i + β2x2i + ui То мы предполагаем, что каждая из переменных x1i и x2i имеет свое независимое от другой переменной влияние на yi Эконометрика. Осень 2020. Кеткина О.С. 11 Подробней о гомоскедастичности Y b1 X1 X2 X3 X4 X5 X Одно из условий теоремы Гаусса – Маркова состоит в том, что случайный член/ошибки ui имеет нулевое математическое ожидание и одинаковую дисперсию (условие 3 и 4). Свойство одинаковой дисперсии случайного члена/ошибки называется гомоскедастичностью (слайд 9, условие 4). Эконометрика. Осень 2020. Кеткина О.С. 12 Гетероскедастичность Y b1 X1 X2 X3 X4 X5 X Если дисперсии случайного члена/ошибки ui различны для разных наблюдений/разных Xi , то это явление называется гетероскедастичностью. Эконометрика. Осень 2020. Кеткина О.С. 13 Интерпретация множественной регрессии Модель множественной линейной регрессии имеет вид: yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n Интерпретация: коэффициент регрессии при переменной x1 выражает предельный прирост (если β1>0 ) / предельное снижение (если β1<0 ) на β1 зависимой переменной y (в единицах измерения y) при изменении переменной x1 на 1 ед. (в единицах измерения x1) при условии постоянства других переменных. Эконометрика. Осень 2020. Кеткина О.С. 14 Понятие частные коэффициенты регрессии. Что означает эффект одной переменной при условии постоянства других переменных? Как нам удается их фиксировать? Рассмотрим случай 2х объясняющих переменных (**) yi = α + β1x1i + β2x2i + ui Пусть yi – объем производства, x1i – труд, x2i – капитал. Рассмотрим как мы контролируем влияние x2i чтобы оценить влияние на yi только переменной x1i Эконометрика. Осень 2020. Кеткина О.С. 15 1 шаг. Оцениваем регрессию yi на x2i (а) yi = b1 + b2 x2i + u1i => получаем оценку регрессии (y^i) и остатки e1i : e1i = yi – y^i , где y^i – оценка yi из регрессии (а) остатки e1i – значения yi после учета влияния на них переменной x2i (т.е. после исключения объясняющего эффекта на yi переменной x2i ) 2 шаг. Оцениваем регрессию x1i на x2i (б) x1i = a1 + a2 x2i + u2i => получаем оценку регрессии (x^1i) и остатки e2i : e2i = x1i – x^1i , где x^1i – оценка x1i из регрессии (б) остатки e2i – это значения x1i после учета влияния на них переменной x2i (т.е. после исключения объясняющего эффекта на x1i переменной x2i ) Эконометрика. Осень 2020. Кеткина О.С. 16 Т.е. e1i и e2i это «чистые» (очищенные от взаимосвязей с x2i ) переменные yi и x1i 3 шаг. Оценим регрессию e1i на e2i (т.е. «чистые» yi на x1i ) (с) e1i = с1 + с2 e2i + u3i тогда с2 и будет являться оценкой параметра β1 в исходной регрессии (**) yi = α + β1x1i + β2x2i + ui коэффициент с2 выражает предельный прирост (если с2 >0 ) / предельное снижение (если с2 <0 ) на величину с2 зависимой переменной y (в единицах измерения y) при изменении переменной x1 на 1 ед. (в единицах измерения x1 ) при условии постоянства других переменных. Эконометрика. Осень 2020. Кеткина О.С. 17 Пример интерпретации множественной регрессии Оценка модели множественной линейной регрессии имеет вид: y^ = 117 + 0,112x1 – 0.739x2 y^ - расходы на питание (в млрд долл. в год) в целом по стране; X1 - располагаемый личный доход (в млрд долл. в год) в целом по стране; X2 – цены продуктов питания (индекс цен (в %), годовой показатель) Интерпретация: При увеличении располагаемого личного дохода (X1) на 1 млрд долл. (при неизменных ценах продуктов питания, т.е. неизменном X2 ) расходы на питание (т.е. y) в среднем увеличатся на 112 млн долл.; При увеличении индекса цен на продукты питания (X2) на 1% (при неизменных располагаемых личных доходах (X1 )) расходы на питание в среднем уменьшатся на 739 млн долл. Эконометрика. Осень 2020. Кеткина О.С. 18 Интерпретация логарифмической модели множественной регрессии Модель множественной линейной логарифмической регрессии имеет вид: Lnyi = Lnα + β1Lnx1i + β2Lnx2i + ...+ βmLnxmi + ui, i = 1,…, n Интерпретация: коэффициент (β1) регрессии при переменной Lnx1 выражает эластичность зависимой переменной y по переменной x1, при условии постоянства других переменных. Эконометрика. Осень 2020. Кеткина О.С. 19 Пример интерпретации логарифмической модели регрессии Модель множественной линейной регрессии имеет вид: Lnyi = α + β1Lnx1i + β2Lnx2i + ui Ее оценка: Ln^yi = 2,82 + 0,64Lnx1i - 0,48Lnx2i y - расходы на питание (в млрд. долл. в год) – аналог спроса на продукты питания X1 - располагаемый личный доход (в млрд. долл. в год) X2 – цены продуктов питания (индекс цен (в %), годовой показатель) Интерпретация: • В среднем эластичность расходов на питание (y) по доходу (X1) составляет 0,64 (при прочих равных); или так при росте располагаемого личного дохода (X1) на 1% расходы на питание (y) в среднем возрастут на 0,64%. • В среднем эластичность расходов на питание (y) по цене (X2) составляет -0,48 (при прочих равных); или так при росте цен на продукты питания (X2) на 1% расходы на питание (y) в среднем снизятся на 0,48%. (т.е. покупатели откажутся от каких-то видов дорогих продуктов / «переключатся» на более экономную продуктовую корзину). 20 Эконометрика. Осень 2020. Кеткина О.С. Вывод коэффициентов множественной регрессии методом наименьших квадратов (МНК) Рассмотрим на примере 2х объясняющих переменных (модель регрессии): yi = α + β1x1i + β2x2i + ui Оценки параметров α, β1 и β2 регрессии это a, b1 и b2: Идея метода наименьших квадратов заключается в минимизации S (суммы квадратов остатков), где S = Σei2= e12 + e22 + e32 + …+ en2 Эконометрика. Осень 2020. Кеткина О.С. 21 Выразим квадрат i-того остатка (ei2) через оценки параметров регрессии - a, b1 и b2 и наблюдаемые значения переменных x1i и x2i и yi. Получим, (суммируем по i = 1,…, n) Возьмем частные производные по трем неизвестным параметрам a и b1 и b2 и приравняем их к нулю (т.к. мы ищем минимум данной функции по этим параметрам): Эконометрика. Осень 2020. Кеткина О.С. 22 Поучаем, Преобразуем и получим: Эконометрика. Осень 2020. Кеткина О.С. 23 Модель множественной линейной регрессии имеет вид (для случая двух объясняющих переменных): y = α + β1x1i + β2x2i + ui, i = 1,…, n Оценка коэффициента регрессии β1: Аналогичное выражение можно получить для оценки коэфф. β2 путем перестановки x1i и x2i. Величина оценки коэффициента регрессии формируется под влиянием не только связи изучаемого фактора с зависимой переменной, но и структуры связей между независимыми переменными (в данном случае x1i и x2i). Эконометрика. Осень 2020. Кеткина О.С. 24 Более детально вывод коэффициентов множественной регрессии можно посмотреть на стр. 137 – 138 Доугерти, К. Введение в эконометрику : учеб. для экон. специальностей вузов / К. Доугерти; пер. с англ. Е. Н. Лукаш [и др.]. – М. : ИНФРА-М, 1997. [Глава 5] Эконометрика. Осень 2020. Кеткина О.С. 25 Сложности множественной модели 1) Спецификация модели (тип модели, какие переменные включать в модель, а какие нет), ошибка спецификации модели 2) Мультиколлинеарность Эконометрика. Осень 2020. Кеткина О.С. 26 Структура связей в множественной регрессии Проявление множественных связей в парной регрессии если переменную x2 не включили в уравнение регрессии. Эконометрика. Осень 2020. Кеткина О.С. 27 Система показателей качества множественной регрессии • Показатели качества коэффициентов регрессии • Показатели качества уравнения регрессии в целом Эконометрика. Осень 2020. Кеткина О.С. 28 Показатели качества коэффициентов регрессии (аналогичны парной регрессии) 1) Стандартные ошибки коэффициентов (S.e.) 2) Значения t-статистик 3) Вспомогательные показатели (P-значение) Эконометрика. Осень 2020. Кеткина О.С. 29 Стандартные ошибки коэффициентов регрессии Расчет стандартной ошибки коэффициента β1 (для β2 формула аналогична) для случая двух объясняющих переменных: yi = α + β1x1i + β2x2i + ui, i = 1,…, n rx1x2 - частный коэффициент корреляции между объясняющими переменными x2 и x1. σu2 - теоретическая дисперсия случайного члена ui (см. слайд 31). Чем теснее связь между переменными x1 и x2 (т.е. чем ближе rx1x2 к +/- единице, тем больше значение стандартной ошибки SE коэффициента регрессии). В случае когда rx1x2 = +/-1 связь между переменными x1 и x2 линейная и мы имеем строгую мультиколлинеарность, и SE коэффициента регрессии -->∞, т.е. оценить точность коэффициента регрессии мы не можем. Эконометрика. Осень 2020. Кеткина О.С. 30 σu2 - теоретическая дисперсия случайного члена ui Замечание: величина σu неизвестна (основана на данных генеральной совокупности), одна из задач регрессионного анализа состоит в том чтобы оценить σu (найти оценку для этого параметра). Оценкой для дисперсии случайного члена (σu2 )является величина: Т.е. оценкой для дисперсии случайного члена/ошибок ui является сумма квадратов остатков деленная на (n-2). Эконометрика. Осень 2020. Кеткина О.С. 31 t-статистики • t-тесты обеспечивают проверку значимости предельного вклада каждой переменной при допущении, что все остальные переменные уже включены в модель. • Незначимость коэффициента регрессии не всегда может служить основанием для исключения соответствующей переменной из модели. Эконометрика. Осень 2020. Кеткина О.С. 32 Показатели качества уравнения регрессии в целом, аналогично парной регрессии • Показатель R2 (коэффициент детерминации) - всегда увеличивается с включением новой переменной; • Скорректированный R2 --> - возрастает при включении в регрессию объясняющей переменной с t-статистикой больше 1 (или меньше -1), т.е. переменной которая не обязательно значимо отличается от нуля; • Сумма квадратов остатков (ESS) - Показатели ESS в разных моделях с разным числом наблюдений и (или переменных) несравнимы; • Средняя ошибка аппроксимации (А) - значения А в моделях с разным количеством переменных не сравнимы; • Стандартная ошибка регрессии (SEE); Эконометрика. Осень 2020. Кеткина О.С. 33 Стандартная ошибка уравнения регрессии Стандартная ошибка регрессии (SEE) – «Стандартная ошибка» • Используется в качестве основной величины для измерения качества оценивания модели (чем она меньше, тем лучше). n – количество наблюдений, по которым оценена регрессия; k – количество параметров в оцененной регрессии; Σei2 – сумма квадратов остатков оцененной регрессии. Показатели SEE в однотипных моделях (с одинаковой зависимой переменной) с разным числом наблюдений (и переменных) сравнимы. Эконометрика. Осень 2020. Кеткина О.С. 34 ВЫВОД ИТОГОВ в Excel Регрессионная статистика Множественный R 0,9699 R-квадрат 0,9407 Нормированный Rквадрат 0,9237 Стандартная ошибка Наблюдения =|rxy| =коэффициент детерминации =Скорректированный коэффициент детерминации =Стандартная ошибка уравнения регрессии (SEE) 169,8699 10 Сумма квадратов остатков (ESS) Дисперсионный анализ df SS Регрессия 2 3203259,59 Остаток Итого 7 9 201990,41 3405250,00 Y-пересечение Переменная X 1 Переменная X 2 Коэффициент ы 819,40387 72,30277 -165,12424 Стандартная ошибка 341,58327 9,11302 26,78907 MS 1601629,7 9571 28855,772 65 tстатисти ка 2,39884 7,93400 -6,16387 Эконометрика. Осень 2020. Кеткина О.С. F-тест на качество оценивания F Значимость F 55,50466 0,00005 P-Значение 0,04755 0,00010 0,00046 Нижние 95% Верхние 95% 11,68777 1627,11996 50,75389 93,85165 -228,47032 -101,77817 35 F-тест на качество оценивания • Модель множественной линейной регрессии имеет вид: yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n (4) F-тест на качество оценивания сводится к проверке гипотезы H0: β1 = β2 = ..=βm =0 (все коэффициенты при объясняющих переменных одновременно = 0) H1: не все коэффициенты при объясняющих переменных одновременно =0 (хотя бы один не равен нулю) Проверка проводится с помощью F-статистики Фишера с числом степеней свободы (k-1, n-k), где k – количество оцененных в регрессии (4) параметров (вкл. константу, т.е. α, β1, β2, ... βm), n – число наблюдений. ESS – сумма квадратов остатков; RSS = – объясненная регрессией вариация уi относительно (regression sum of squares). Эконометрика. Осень 2020. Кеткина О.С. 36 F-тест на качество оценивания Затем рассчитанная F статистика сравнивается с табличным критическим значением при выбранном уровне значимости α (обычно 1% или 5%), и степенями свободы числителя df =k-1 и знаменателя df= n-k т.е. с • При этом , если рассчитанное значение F- статистики превышает критическое (табличное) тогда гипотеза H0: β1 = β2 = ...= βm = 0 отклоняется в пользу альтернативной (H1) при выбранном уровне значимости α, и мы заключаем, что регрессия (4) является значимой (или адекватной). • Если рассчитанное значение F- статистики оказывается меньше критического тогда гипотеза H0: β1 = β2 = ...= βm =0 не отклоняется при выбранном уровне значимости α, и мы заключаем, что регрессия (4) является незначимой (или неадекватной). Эконометрика. Осень 2020. Кеткина О.С. 37 Мультиколлинеарность Эконометрика. Осень 2020. Кеткина О.С. 38 Смысл мультиколлинеарности Для множественной регрессии yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n имеет место проблема мультиколлинеарности, если между факторами Х1,…,Хm существует линейная или близкая к линейной зависимость. Эконометрика. Осень 2020. Кеткина О.С. 39 Смысл мультиколлинеарности • Слово “коллинеарность” описывает линейную связь между двумя независимыми переменными, тогда как “мультиколлинеарность” – между более, чем двумя переменными. • В эконометрике на практике всегда используется один термин – мультиколлинеарность. Термин «мультиколлинеарность» введен Рагнаром Фришем Эконометрика. Осень 2020. Кеткина О.С. 40 Виды мультиколлинеарности 1. Строгая (perfect) мультиколлинеарность наличие линейной функциональной связи между независимыми переменными (иногда также и зависимой). 2. Нестрогая (imperfect) мультиколлинеарность наличие сильной линейной корреляционной связи между независимыми переменными (иногда также и зависимой). Эконометрика. Осень 2020. Кеткина О.С. 41 Признаки мультиколлинеарности: • Адекватность регрессии в целом (т.е. F-тест , слайды 36-37, говорит о значимости / адекватности регрессии в целом) при незначимости коэффициентов при многих факторах; • неадекватные знаки и величина коэффициентов; • неустойчивость оценок коэффициентов по отношению к увеличению объема выборки или добавлению новых регрессоров / объясняющих переменных. Эконометрика. Осень 2020. Кеткина О.С. 42 Механизм действия мультиколлинеарности Мультиколлинеарность проявляется в совместном действии факторов 1. Построить модель - означает определить вклад каждого фактора 2. Если два или более факторов изменяются только совместно, различить их вклад по отдельности становится невозможно. 3. Чем более сильно коррелированы переменные (т.е. чем ближе к +/- единице rx1x2), тем труднее различить их вклад по отдельности Эконометрика. Осень 2020. Кеткина О.С. 43 Влияние мультиколлинеарности на стандартные ошибки • Для уравнения с объясняющими переменными X1 и X2 σu2 - теоретическая дисперсия случайного члена ui Т.е. стандартные ошибки коэффициентов увеличиваются с ростом частных коэффициентов корреляции между объясняющими переменными (rx1x2), что ведет к снижению t-статистик коэффициентов (t(b1) = b1/ S.e.(b1)) И получаем, что для коэффициентов, которые являются (по сути) значимыми из-за мультиколлинеарности их t-статистики так малы, что мы заключаем, что коэффициент незначим (см. пример на слайде 63, переменная SM. Больше примеров мультиколлинеарности рассмотрим на семинарах). Эконометрика. Осень 2020. Кеткина О.С. 44 Последствия мультиколлинеарности: • высокие стандартные ошибки оценок коэффициентов регрессии (и следовательно низкие t-статистики коэффициентов); • как результат, возможная незначимость коэффициентов регрессии; • и невозможность оценить влияние регрессоров по отдельности. Эконометрика. Осень 2020. Кеткина О.С. 45 Некоторые способы устранения мультиколлинеарности: • добавление новых наблюдений; • исключение некоторых регрессоров; • или можно, например, учесть в модели (ввести в модель) существующую и известную взаимосвязь между переменными; • выбор другой функциональной формы модели (например, Ln). Эконометрика. Осень 2020. Кеткина О.С. 46 Пример (интерпретация) множественной линейной регрессии . reg EARNINGS S EXP Source | SS df MS -------------+-----------------------------Model | 22513.6473 2 11256.8237 Residual | 89496.5838 537 166.660305 -------------+-----------------------------Total | 112010.231 539 207.811189 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 67.54 0.0000 0.2010 0.1980 12.91 -----------------------------------------------------------------------------EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------S | 2.678125 .2336497 11.46 0.000 2.219146 3.137105 EXP | .5624326 .1285136 4.38 0.000 .3099816 .8148837 _cons | -26.48501 4.27251 -6.20 0.000 -34.87789 -18.09213 ------------------------------------------------------------------------------ Пример оцененной множественной регрессии в STATA. Описание переменных: EARNINGS – почасовая заработная плата (в $), S – количество лет обучения (в годах), EXP – трудовой стаж (в годах). * Здесь P означает Probit; 47 Пример множественной линейной регрессии . reg EARNINGS S EXP Source | SS df MS -------------+-----------------------------Model | 22513.6473 2 11256.8237 Residual | 89496.5838 537 166.660305 -------------+-----------------------------Total | 112010.231 539 207.811189 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 67.54 0.0000 0.2010 0.1980 12.91 -----------------------------------------------------------------------------EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------S | 2.678125 .2336497 11.46 0.000 2.219146 3.137105 EXP | .5624326 .1285136 4.38 0.000 .3099816 .8148837 _cons | -26.48501 4.27251 -6.20 0.000 -34.87789 -18.09213 ------------------------------------------------------------------------------ Так как P>|t| (P-значение, она же Probit) каждого из коэффициентов регрессии < α =0,01 = 1% => каждый из коэффициентов значим на α =0,01 =1% уровне значимости. Так как «Prob>F=0.0000» (P-значение, она же Probit ) для нашего теста на значимость уравнения в целом / F-тест на качество оценивания (слайд 36-37) < α = 0,01 => наша регрессия в целом значима/адекватна => имеет смысл ее интерпретировать. 48 Множественная линейная регрессия . reg EARNINGS S EXP Source | SS df MS -------------+-----------------------------Model | 22513.6473 2 11256.8237 Residual | 89496.5838 537 166.660305 -------------+-----------------------------Total | 112010.231 539 207.811189 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 67.54 0.0000 0.2010 0.1980 12.91 -----------------------------------------------------------------------------EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------S | 2.678125 .2336497 11.46 0.000 2.219146 3.137105 EXP | .5624326 .1285136 4.38 0.000 .3099816 .8148837 _cons | -26.48501 4.27251 -6.20 0.000 -34.87789 -18.09213 ------------------------------------------------------------------------------ Интерпретация: Каждый дополнительный год обучения (S) в среднем увеличивает почасовую з/п (EARNING) на $2.68 (при неизменных прочих факторах), а каждый дополнительный год трудового стажа (EXP) увеличивает почасовую з/п (EARNING) в среднем на $0.56 (при неизменных 49 прочих факторах). Множественная линейная регрессия . reg EARNINGS S EXP Source | SS df MS -------------+-----------------------------Model | 22513.6473 2 11256.8237 Residual | 89496.5838 537 166.660305 -------------+-----------------------------Total | 112010.231 539 207.811189 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 67.54 0.0000 0.2010 0.1980 12.91 -----------------------------------------------------------------------------EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------S | 2.678125 .2336497 11.46 0.000 2.219146 3.137105 EXP | .5624326 .1285136 4.38 0.000 .3099816 .8148837 _cons | -26.48501 4.27251 -6.20 0.000 -34.87789 -18.09213 ------------------------------------------------------------------------------ В данном случае константа не имеет содержательной экономической интерпретации (иначе бы мы сказали, для сотрудников без стажа работы {EXP} и без образования {S} уровень почасовой з/п составит -26,49 $. Что абсурдно. Кто станет доплачивать чтоб работать?) 50 Проверка линейных гипотез о наличии линейных соотношений между коэффициентами регрессии. F – тест Эконометрика. Осень 2020. Кеткина О.С. 51 Проверка линейных ограничений в общем случае Модель множественной линейной регрессии имеет вид: yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n H0: Имеют место q конкретных линейных ограничений на коэффициенты регрессии (например, β1 = β2 => β1 - β2 = 0. Или β3 + β4 = 2) H1: Эти ограничения не имеют места Чтобы проверить выполнение линейных ограничений, необходимо 1)Оценить регрессию без ограничений и найти ESSUR (ESSUR сумма квадратов остатков исходной регрессии); 1) Оценить регрессию с ограничениями и найти ESSR ; 2) Вычислить соответствующую F – статистику. Эконометрика. Осень 2020. Кеткина О.С. 52 F – тест для проверки линейных ограничений в общем случае Модель множественной линейной регрессии имеет вид: yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n H0: Имеют место q конкретных линейных ограничений на коэффициенты регрессии H1: Эти ограничения не имеют места Тестовая статистика: k – количество параметров оцененных в исходной модели (в модели без ограничений) Если значение тестовой F - статистики > критической Fcr(q,n-k) для заданного уровня значимости α, то гипотеза H0 отклоняется в пользу альтернативной гипотезы H1 и мы заключаем, что протестированные нами q ограничений не имеют место . Эконометрика. Осень 2020. Кеткина О.С. 53 F – тест для проверки линейных ограничений в общем случае Модель множественной линейной регрессии имеет вид: yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n H0: Имеют место q конкретных линейных ограничений на коэффициенты регрессии H1: Это ограничения не имеют места Тестовая статистика может быть вычислена следующим образом: k – количество параметров оцененных в исходной модели (в модели без ограничений). Если значение тестовой F - статистики < критической Fcr(q,n-k) для заданного уровня значимости α, то гипотеза H0 НЕ отклоняется и мы заключаем, что протестированные нами q ограничений имеют место. Эконометрика. Осень 2020. Кеткина О.С. 54 Проверка линейных гипотез Пример зависимости длительности обучения S от способностей индивида, характеризуемых обобщенной переменной Abil (abilities) и длительности обучения мамы индивида SM и папы SF. yi = α + β1x1i + β2x2i + ...+ βmxmi + ui, i = 1,…, n S = α + β1Abil + β2SM + β3SF + ui, (UR) 55 Проверка линейных гипотез S = α + β1Abil + β2SM + β3SF + ui (UR) β3 = β2 (β2 – β3 = 0) H0 : β3 = β2 , H1 : β3 ǂ β2 Проверим гипотезу об одинаковом влиянии обоих родителей на длительность обучения детей, т.е. о равенстве коэффициентов при переменных SM и SF (т.е. b 3 = b 2). 56 Проверка линейных гипотез S = α + β1Abil + β2SM + β3SF + ui, β3 = β2 (β2 – β3 = 0) H0 : β3 = β2 , H1 : β3 ǂ β2 S = α + β1Abil + β2SM + β3SF + ui = = α + β1Abil + β2(SM + SF) + ui = = α + β1Abil + β2SP + ui (R) Для этого инкорпорируем ограничение (b3 = b 2) в уравнение регрессии, введя дополнительную переменную SP = SM + SF. 57 Проверка линейных гипотез . generate SP = SM + SF . reg S Abil SP Source | SS df MS -------------+-----------------------------Model | 1177.98338 2 588.991689 Residual | 2026.99996 537 3.77467403 -------------+-----------------------------Total | 3204.98333 539 5.94616574 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 156.04 0.0000 0.3675 0.3652 1.9429 -----------------------------------------------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------Abil | .1253106 .0098434 12.73 0.000 .1059743 .1446469 SP | .0828368 .0164247 5.04 0.000 .0505722 .1151014 _cons | 5.29617 .4817972 10.99 0.000 4.349731 6.242608 ------------------------------------------------------------------------------ Оцениваем вспомогательную регрессию (регрессию с ограничением, т.е. R – restricted regression). Сумма квадратов остатков данной регрессии с ограничением получилась равной ESSR = 2026,99996 ≈ 2027,00. 58 Проверка линейных гипотез (в STATA) . reg S Abil SM SF Source | SS df MS -------------+-----------------------------Model | 1181.36981 3 393.789935 Residual | 2023.61353 536 3.77539837 -------------+-----------------------------Total | 3204.98333 539 5.94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = 540 = 104.30 = 0.0000 = 0.3686 = 0.3651 = 1.943 -----------------------------------------------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------Abil| .1257087 .0098533 12.76 0.000 .1063528 .1450646 SM | .0492424 .0390901 1.26 0.208 -.027546 .1260309 SF | .1076825 .0309522 3.48 0.001 .04688 .1684851 _cons | 5.370631 .4882155 11.00 0.000 4.41158 6.329681 ------------------------------------------------------------------------------ Оценим основную регрессию (без ограничений, UR – unrestricted regression) Сумма квадратов остатков данной регрессии без ограничений получилась равной ESSUR =2023,61353 ≈ 2023,61. 59 Проверка линейных гипотез . reg S Abil SM SF Source | SS df MS -------------+-----------------------------Model | 1181.36981 3 393.789935 Residual | 2023.61353 536 3.77539837 -------------+-----------------------------Total | 3204.98333 539 5.94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 104.30 0.0000 0.3686 0.3651 1.943 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = = = = 540 156.04 0.0000 0.3675 0.3652 1.9429 . reg S Abil SP Source | SS df MS -------------+-----------------------------Model | 1177.98338 2 588.991689 Residual | 2026.99996 537 3.77467403 -------------+-----------------------------Total | 3204.98333 539 5.94616574 Сравним результаты оценивания двух регрессий. Если проверяемое ограничение имеет место, то сумма квадратов остатков ESS должна увеличиться незначительно. 60 Проверка линейных гипотез S = α + β1Abil + β2SM + β3SF + ui, (UR) H0 : β3 = β2 S = α + β1Abil + β2SM + β3SF + ui = = α + β1Abil + β2(SM + SF) + ui = = α + β1Abil + β2SP + ui (R) H0 : β3 = β2 (q=1, одно ограничение), H1 : β3 ǂ β2 Рассчитаем значение тестовой F- статистики. В нашем случае количество ограничений равно 1, мы тестируем 61 только одно ограничение β3 = β2. Значит q = 1. Проверка линейных гипотез S = α + β1Abil + β2SM + β3SF + ui, (UR) H0 : β3 = β2 S = α + β1Abil + β2SM + β3SF + ui = α + β1Abil + β2(SM + SF) + ui = α + β1Abil + β2SP + ui (R) H0 : β3 = β2 , H1 : β3 ǂ β2 Полученное значение F – статистики равно 0.90, что меньше критического (табличного) значения Fcr для уровня значимости α =0,05=5% Fcr(q,n-k)= Fcr(1, 536) = 3,84. (F =0,9 < Fcr=3,84) следовательно, нулевая гипотеза не отклоняется и значит β3 = β2 и оба родителя одинаково влияют на наш выбор продолжительности обучения. k = 4 (количество параметров оцененных в регрессии UR, а именно α, β1, β2, и β3). 62 Заметим . reg S Abil SM SF Source | SS df MS -------------+-----------------------------Model | 1181.36981 3 393.789935 Residual | 2023.61353 536 3.77539837 -------------+-----------------------------Total | 3204.98333 539 5.94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = 540 = 104.30 = 0.0000 = 0.3686 = 0.3651 = 1.943 -----------------------------------------------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------Abil| .1257087 .0098533 12.76 0.000 .1063528 .1450646 SM | .0492424 .0390901 1.26 0.208 -.027546 .1260309 SF | .1076825 .0309522 3.48 0.001 .04688 .1684851 _cons | 5.370631 .4882155 11.00 0.000 4.41158 6.329681 ------------------------------------------------------------------------------ Коэффициент при переменной SM незначим. Но это может быть следствием мультиколлинеарности. Подробней поговорим об этом на семинарах. 63
«Множественная регрессия» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти

Тебе могут подойти лекции

Смотреть все 207 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot