Регрессия в статистике
Регрессия – это математическая зависимость, используемая для установления соответствия между случайными величинами.
Статистика широко применяется в экономическом анализе для исследования больших массивов данных и их динамического изменения. Кроме того, она позволяет отслеживать определенные тренды с помощью выборок.
Регрессия представляет собой одностороннюю зависимость, то есть она показывает связь между одной зависимой переменной от некоторого количества независимых. Основным условием исследования такой связи является понимание, что она будет иметь статистическую значимость. Статистическая значимость появляется тогда, когда вероятность ее возникновения является маловероятной.
Отличительной особенностью регрессионной связи является тот факт, что одному и тому же значению может соответствовать разные значения других величин, от которых она зависит.
Термин «регрессия» был впервые использован Френсисом Гальтоном. Он исследовал вопросы наследования физических характеристик человеком и установил, что дети не обязательно наследуют все признаки своих родителей. Кроме того, было отмечено постепенное усреднение параметров наследования, то есть общий «регресс».
Регрессия используется в теории вероятности. Здесь она представляется условным математическим ожиданием и имеет двумерное нормальное распределение. В этом случае регрессия будет линейной. Если же зависимость будет отличной от линейной, то она будет приближаться к линейной для упрощения ее восприятия.
Таким образом, регрессия является одним из основных методов статистического и математического анализа различных величин. В экономике регрессия применяется для изучения зависимости одной величины от множества факторов. Различные статистические методы позволяют выявлять степень влияния тех или иных параметров на результат.
Классическая модель линейной регрессии
Линейная регрессия представляет собой зависимость одной величины от другой величины. Самая простая модель линейной регрессии имеет следующие допущения:
- Все значения зависимой переменной определяются без ошибки.
- У модели задано два параметра.
- Ошибка распределения стремится к нулю и имеет постоянное отклонение.
- Значения параметров заранее не известны, но их можно подобрать.
Если данные подбираются экспериментально, то чаще всего применяются программные продукты. Они предназначены специально для обработки статистических данных. Но существуют специальные формулы для расчета параметров, поэтому есть возможность рассчитать их вручную.
Метод наименьших квадратов применяется для того, чтобы минимизировать отклонения статистической выборки. Именно этот метод используется для выявления неизвестных параметров в регрессионной модели. Суть метода заключается в том, чтобы подобрать такие значения, которые будут максимально близки к независимым переменным. То есть, по сути, исследователь пытается уравнять правую и левую сторону уравнения путем подбора наиболее подходящих величин.
Этот метод широко применяется для решения системы линейных уравнений. В некоторых случаях, когда уравнение не имеет решения с общей точки зрения, метод квадратов позволяет подобрать наиболее подходящие варианты. Здесь может применяться метод минимизации суммы квадратов, внедряться псевдоинверсия и другое. Существует метод взвешенного квадрата, когда разные уравнения присваивают себе разный вес с точки зрения теоретических вычислений.
Если функция регрессии линейная, то и регрессия называется линейной. Вычисление линейной регрессии заключается в том, чтобы по результатам наблюдений подобрать выборку, данные которой будут отвечать следующим требованиям:
- Оптимальные точечные и интервальные оценки.
- Статистические гипотезы в параметрах модели.
- Адекватность результатам.
Однофакторная линейная модель описывает простую зависимость между двумя величинами. Расчетные значения располагаются на линии регрессии, а фактические в некоторой области, которые прилегают к ней. Уравнение регрессии состоит в том, чтобы на основе наблюдений найти пары, которые будут расположены на двух этих плоскостях максимально близко друг к другу. Здесь и применяется метод наименьших квадратов. Он заключается в том, что ищет коэффициенты, при которых сумма квадратов разностей минимальна.
Коэффициенты регрессии показывают тенденцию в изменении одного из признаков. С помощью линейной регрессии можно отслеживать, как изменение признака на единицу сказывается на зависимой переменной. Такой подход широко используется в экономическом планировании. Например, при исследовании влияния увеличения капитала компании на результат работы за период.
Надежность уравнения регрессии проверяют F-критерием Фишера-Снедекора. Он показывает тесноту связи. Это необходимо для того, чтобы выявить значимость уравнения в целом. Изначально выдвигается две гипотезы – уравнение значимо и уравнение не значимо. Далее с помощью дисперсионного анализа рассчитывается вероятность критерия. В зависимости от уровня значимости определяют случайно используемое значение или нет. Если величина значима, то это означает, что она появилась под влиянием значимых факторов, а значит, имеет влияние на статистическую выборку в целом.
Применение классических линейных регрессий актуально для решения большинства экономических задач. Они отличаются простотой расчетов, эффективным подходом к выбору информации для анализа. Здесь же есть возможность оценить отклонения и значимость переменных для анализа, что позволяет отмести неинформативные данные и сосредоточиться на тех, которые значимы для результата.
Таким образом, линейная регрессия является универсальным методом экономического анализа, который широко применяется для решения различных хозяйственных задач в рамках работы микро и макроэкономических систем.