Реферат на тему:


Воспользуйтесь поиском к примеру Реферат        Грубый поиск Точный поиск






Загрузка...

Реферат на тему:

Метод наименьших квадратов

Основные предположения

Применение метода наименьших квадратов к общей линейной многофакторной модели (3.1) предусматривает наличие следующих предпосылок:

1) каждое значение случайной составляющей уравнения ч, i = 1,2, ..., п, является случайной величиной и математическое ожидание остатков ч к-ривнюе нулю:

М (и) = 0;

2) компоненты вектора остатков некоррелированные (линейно неза-лежаки) между собой и имеют постоянную дисперсию:

3) объясняющие переменные (регрессоров, факторы модели) некоррелированные с остатками;

4) объясняющие переменные некоррелированы между собой.

Нарушение первой предпосылки означает, что существует систематическое воздействие на зависимую переменную который не учтены в модели. Такую ситуацию можно трактовать как ошибку спецификации, однако наличие свободно-го члена модели дает возможность скорректировать модель так, чтобы обеспечить выполнение первой предпосылки.

Вторая предпосылка означает, что остатки модели есть ошибками вы-мирювання. Если между компонентами вектора остатков существует Кореля-ная зависимость, такое явление называется автокорреляцией. Наличие автокорреляции в модели свидетельствует о существовании корреляции между последовательными значениями некоторой независимой переменной или о неврахо-ный существенный фактор, влияющий на зависимую переменную и не может быть отстранен за счет свободного члена модели. Общее влияние пояс-нюючих переменных, не учтенных в модели, может оказаться и в том что дисперсия остатков для отдельных групп наблюдений изменю-ватиметься. Такое явление называется Гетероскедастичность. В любом случае нарушения второй предпосылки влияет на методы оценю ния параметров модели.

Наличие зависимости между остатками и независимыми переменными чаще всего эт связана с тем, что в модели присутствуют лаговые (задержанные во времени) переменные или она строится на базе одновременных структурных

уравнений. Для оценки параметров и в этом случае применяют другие методы.

Зависимость между независимыми переменными может в значительной мерй влиять на качество оценок, полученных по МНК. Если между независимыми переменными модели существуют тесные линейные связи, это явление называют мультиколинеарнистю. Модели, в которых наблюдается мульти-колинеарность, становятся чрезвычайно чувствительными к конкретному набору данных, спецификации модели и имеют значительные отклонения от истинных значений параметров обобщенной модели.

Кроме рассмотренных четырех предпосылок важное значение имеет предположение о нормальном распределении остатков модели. Это предположение обеспечивает нормальное распределение коэффициентов регрессии и позволяет использовать известные критерии для проверки статистических гипотез относительно полученных оценок, а также определять их доверительные интервалы.

МНК-оценки параметров линейной регрессии и их основные свойства

Из теории вероятностей известно (доказано в теореме Гаусса Маркова), что когда выполняются перечисленные предпосылки, то полученные с помощью МНК оценки параметров регрессионного уравнения является незмище-ными, обоснованными, эффективными и инвариантными.

Наличие таких свойств оценок гарантирует, что последние не имеют систематической погрешности (Несмещенность), надежность их повышается с увеличением объема выборки (обоснованность), они являются лучшими среди других оценок параметров, линейных относительно эндогенной переменной (эффективность). Кроме того, оценка преобразованных параметров (оценка функции от параметра) может быть получена в результате аналогичного преобразования оценки параметра (инвариантность).

В частности, если нарушается вторая предпосылка МНК (при наличии автокорреляции или гетероскедастичности), то полученные по этому методу оценки теряют свойство эффективности, хотя остаются никак смещенными и обоснованными. Если нарушается четвертая предпосылка, т.е. между сменными существуют мультиколинеарни связи, это приводит к смещению МНК-оценок. Применение моделей, имеющих смещены или неэффективные оценки, теряет смысл.

Оценка по методу наименьших квадратов и интерпретация результатов

Нехай известно n наблюдений независимых переменных x1, x2, ..., xm и n наблюдений зависимой переменной y. Необходимо по МНК оценить пара-метры a0, a1, a2, ..., am линейной модели (3.1).

Если выполняются указанные ранее предпосылки, то оценки пара-метров можно получить по следующему алгоритму.

1. Независимые переменные записать в виде матрицы

где x0 - вектор, составленный из n единиц; x1, x2, ..., xm - векторы спо-охранял независимых переменных.

2. Вычислить матрицу XTX и вектор XTy, где XT - транспоно-вана матрица X, y - вектор наблюдений зависимой переменной.

Замечания. Транспонированная матрица образуется из исходной пе-преобразованию строк в столбце.

3. Вычислить обратную матрицу (X TX) 1.

Замечания. Матрица A -1 называется обратной к A, если вы-конуеться соотношение A-1 A = AA 1 = E, где E единичная мат-риця.

4. Вычислить параметры модели по формуле

где a вектор параметров, a = (a0, a1, a2, ..., am).

Замечания. Для определения оценок параметров можно воспользуемся ваться любым методом развязку Обязательства системы линейных уравнений относительно вектора неизвестных переменных:

Пример. Предприятие, состоит из многих филиалов, дос-лиджуе зависимость своего годового товарооборота y (млн в о.) От торго-вой площади своих филиалов x1 (тыс. Кв. М) и среднедневной интенсивности потока покупателей (тыс. Чел. / День) . Пространственные данные по филиалам приве-дено в табл. 3.1.

Для отображения зависимости между этими показателями выбирают линейную регрессионную модель

В результате оценки параметров по методу наименьших квадратов получены следующие оценки: а0 = -0,832; а1 = 4,743; а2 = 0,175.

Оценки интерпретируются следующим образом. Коэффициент ч = 4,743 озна-чает, что при прочих неизменных условиях переменная х1 увеличится (уменьшится) на единицу, зависимая переменная в увеличится (уменьшится) соответственно на 4,743 единицы. В частности, в приведенном примере увеличение (уменьшение) торговой площади на 1 тыс. Кв. м увеличит (уменьшит) годовой товарооборот на 4,743 млн у о. Аналогично, увеличение (умень шение) среднедневной интенсивности покупателей на 1 тыс. Чел. / День увеличит (уменьшит) годовой товарооборот на 0175000 в о.

Список использованной литературы

Айвазян С. А., Мхитарян В. С. Прикладная статистика и основы эконометрики: Учебник для вузов. - М .: ЮНИТИ, 1998. - 1022 с.

Бородин С. А. Эконометрика: Учеб. пособие. & Mdash; Минск: Новое знание, 2001. - 408 с.

Грубер И. Эконометрика: Введение в множественной регрессии и эконометрии: В 2 т. - М: Началова, 1998-1999.

Джонстон Дж. Эконометрические методы. & Mdash; М .: Статистика, 1980. 444 с.

Доугерти К. Введение в эконометрику: Пер. с англ. & Mdash; М .: ИНФРА-М, 1997. - 402 с.

Дрейпер П., Смит Г. Прикладной регрессионный анализ. & Mdash; М .: Финансы и статистика, 1986. Т. 1 365 с; Т. 2 379 с.

Емельянов А. С. Эконометрия и прогнозирование. & Mdash; М .: Экономика, 1985. - С. 82-89.

Елейко В. Основы эконометрики. & Mdash; Львов: "Марка Лтд", 1995. 191с.

Кейн Э. Экономическая статистика и эконометрия. Введение в количественный экономический анализ. & Mdash; М .: Статистика, 1977. 254с.

Королев А. А. Эконометрика: Учеб. пособие. & Mdash; К Европейский ун-т, 2002. - 660 с.

Ланге О. Введение в эконометрию. & Mdash; М .: Прогресс, 1964. 360 с.

Лукьяненко I. Г., Красникова Л. И. Эконометрика: Учебник. & Mdash; М .: Т-во "Знание", КОО, 1998. - 494 с

Магнус Я. Г., Катышев П.К., Пересецкий А. А. Эконометрика: Учеб. курс. - М .: Дело, 1997. - 248 с.

Маленво Э. Статистические методы эконометриы. & Mdash; М .: Статистика, 1975. - 423 с.

Загрузка...