Справочник от Автор24
Поделись лекцией за скидку на Автор24

Парный регрессионный анализ

  • ⌛ 2021 год
  • 👀 724 просмотра
  • 📌 685 загрузок
  • 🏢️ СГЭУ
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Парный регрессионный анализ» pdf
Каждая наука лишь тогда достигает своего совершенства, когда породнится с математикой. И. Кант ЛЕКЦИЯ №2. ПАРНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ Автор-составитель: к.ф.-м.н., доцент каф. статистики и эконометрики СГЭУ, Ширяева Л.К. E-mail: Shiryeva_LK@mail.ru 01.02.2021 ПЛАН • 2.1. Нахождение эмпирических коэффициентов регрессии методом наименьших квадратов • 2.2. Предпосылки МНК. Теорема Гаусса-Маркова • 2.3. Стандартные ошибки МНК-оценок коэффициентов регрессии • 2.4. Проверка статистической значимости эмпирических коэффициентов регрессии • 2.5.Показатели качества регрессии. Коэффициент детерминации и его свойства. Проверка качества уравнения парной линейной регрессии 2 Постановка задачи Будем полагать, что в генеральной совокупности зависимость между переменными Y и X имеет вид: Y  b0  b1 X   (2.1) 3 Замечание. 4 Об интерпретации коэффициентов регрессии 5 Метод наименьших квадратов (МНК). 6 Замечание 7 МНК 8 Цель МНК – выполнить наилучшую ”подгонку” прямой под данные наблюдений Метод наименьших квадратов (МНК) решает задачу «наилучшей» аппроксимации данных наблюдений линейной зависимостью : yˆ  bˆ0  bˆ1x (2) 9 Суть МНК: • следует найти такие коэффициенты уравнения (2), чтобы сумма квадратов отклонений эмпирических значений результативного признака от расчетных была бы минимальной, т.е. S  n   yi i 1 ˆi    y 2  y n i 1 i  bˆ0  bˆ1 xi  2  min • где yi –эмпирическое (наблюдаемое по выборке) значение результативного признака в i - ом наблюдении; • yˆ i  bˆ0  bˆ1 xi – расчетное значение результативного признака в i - ом наблюдении, вычисляемое по уравнению регрессии 10 11 О нахождении МНКпараметров модели 12 О системе нормальных уравнений 13 14 Формулы для вычисления эмпирических коэффициентов регрессии полученные по МНК •  ˆ côv x, y  b  ; 1  2 ˆ  x   bˆ0  y  xbˆ1.   (3) 15 16 Замечание 17 Почему оценки параметров регрессии не могут совпадать с оцениваемыми параметрами? 18 19 2.2. Предпосылки МНК. 20 Условия Гаусса-Маркова, или предпосылки МНК 21 Замечание 22 Теорема Гаусса-Маркова 23 24 25 2.3. Стандартные ошибки МНК-оценок коэффициентов регрессии 26 27 Понятие исправленной выборочной дисперсии остатков 28 29 О стандартных ошибках оценок параметров регрессии 30 2.4. Проверка статистической значимости эмпирических коэффициентов регрессии 31 t-тест 32 О статистике t-критерия 33 Схема проверки 34 35 Проверка значимости коэффициентов регрессии 36 37 38 2.5.Показатели качества регрессии. Коэффициент детерминации и его свойства. Проверка качества уравнения парной линейной регрессии 39 40 ESS 41 RSS 42 TSS 43 Основное эконометрическое тождество 44 О коэффициенте детерминации модели 45 Свойства коэффициента детерминации модели 46 Проверка качества построенной модели 47 F-тест для проверки качества модели 48
«Парный регрессионный анализ» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ
Получи помощь с рефератом от ИИ-шки
ИИ ответит за 2 минуты

Тебе могут подойти лекции

Смотреть все 207 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot