Фрагмент для ознакомления
2
Задание 1
Мультиколлинеарность и проблема выбора регрессоров в линейной модели множественной регресϲᴎи
Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой, и нельзя оценить воздействие каждого фактора в отдельности.
Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК).
Включение в модель мультиколлинеарных факторов нежелательно по следующим причинам:
• затрудняется интерпретация параметров множественной регрессии;
• параметры линейной регрессии теряют экономический смысл;
• оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюде¬ний, что делает модель непригодной для анализа и прогнозирования
Симптомы:
а) резкое изменение значений оценок модели при незначительной вариации состава обучающей выборки;
б) наличие в оцененной модели небольших по модулю значений при достаточно высоком значении коэф-та детерминации;
в) большое значение коэфициента детерминации между каждой объясняющей переменной линейной модели и ее остальными объясняющими переменными.
Поэтому, если в модели возникла ситуация мултиколлинеарности, то из состава объясняющих переменных модели следует вывести дублирующие друг друга переменные.
Решению проблемы устранения мультиколлинеарности факторов может помочь и переход к уравнениям приведенной формы. С этой целью в уравнение регрессии производится подстановка рассматриваемого фактора через выражение его из другого уравнения.
Метод главных компонент применяется для исключения или уменьшения мультиколлинеарности объясняющих переменных регрессии. Основная идея заключается в сокращении числа объясняющих переменных до наиболее существенно влияющих факторов. Это достигается путем линейного преобразования всех объясняющих переменных xi (i=0,..,n) в новые переменные, так называемые главные компоненты. При этом требуется, чтобы выделению первой главной компоненты соответствовал максимум общей дисперсии всех объясняющих переменных xi (i=0,..,n). Второй компоненте — максимум оставшейся дисперсии, после того как влияние первой главной компоненты исключается и т. д.
Еще один момент, тесно связанный с правильностью выбора регрессоров, который условно тоже можно отнести к задаче анализа качества спецификации, это проблема мультиколлинеарности в линейных регрессионных моделях. Эта проблема подходит к задаче правильности выбора экзогенных переменных для включения их в уравнение регрессии с позиции корректности применения процедуры метода наименьших квадратов для оценки параметров линейного уравнения множественной регрессии.
Процедура метода наименьших квадратов требует неколлинеарности матрицы коэффициентов уравнений наблюдений X. Это означает, что все столбцы матрицы X должны быть взаимно независимыми. Число независимых столбцов матрицы равно ее рангу. Если число столбцов в матрице X равно к, то и ранг матрицы X тоже должен быть равным к. Ранг матрицы равен размерности не равного нулю определителя, который можно вырезать из матрицы (ХТХ). Математически это условие можно записать следующим образом:
Если матрица X неколлинеарная, то она имеет полный ранг равный k. В случае, когда в матрице X присутствуют линейно зависимые столбцы, то ее ранг будет меньше k, а определитель матрицы (ХТХ) будет равен нулю. Это в свою очередь приводит к тому, что процедура МНК становится не реализуемой,так как в этом случае не существует обратная матрица .
Рассматриваются два вида мультиколлинеарности: совершенная (полная) и частичная мультиколлинеарность.
Если регрессоры в модели жестко связаны между собой линейной зависимостью, то такую мулътиколлинеарностъ называют совершенной или полной.
На практике регрессоры модели связаны некоторой стохастической зависимостью, которая характеризуется коэфициентами корреляции между ними.
При полной мультиколлинсарности пропадает возможность однозначного определения оценок параметров модели. В этом легко убедиться на простом примере. Пусть спецификация модели имеет вид:
Предположим, что между регрессорами и существует жесткая функциональная связь вида
Получим:
После замены переменных:
Показать больше
Фрагмент для ознакомления
3
1. Многомерный статистический анализ в экономических задачах: Компьютерное моделирование в SPSS: учебное пособие / под ред. И.В. Орловой. – М.: Вузовский учебник, 2009–2011.
2. Орлова И.В., Половников В.А.Экономико-математические методы и модели: Компьютерное моделирование: учебное пособие. –
М.: Вузовский учебник, 2008–2012.
Дополнительная литература
1. Кремер Н.Ш., Путко Б.А.Электронный бизнес: учебник / под ред. Н.Ш. Кремера. – 3-е изд., перераб. и доп. – М.: ЮНИТИ-ДАНА, 2010.
2. Практикум по эконометрике: учебное пособие / под ред. И.И. Елисеевой. – М.: Финансы и статистика, 2001–2004.
3. Электронный бизнес: учебник / под ред. И.И. Елисеевой. – М.: Фи-нансы и статистика, 2001–2004.
Электронные ресурсы
1. Компьютерная обучающая программа по дисциплине «Эконометрика» / А.Н. Романов, В.С. Торопцов, Д.Б. Григорович, Л.А. Галкина, В.Л. Иванов, И.В. Орлова, В.А. Половников, А.И. Пилипенко, В.Я. Габескирия, А.Н. Гармаш, В.Н. Концевая, В.Н. Уродовских, В.В. Федосеев. – М.: ВЗФЭИ, 2005. Дата обновления: 15.10.2010. – URL: http://repository.vzfei.ru. Доступ по логину и паролю.