Меню сайта
Категории раздела
Друзья сайта
Статистика
Онлайн всего: 2
Гостей: 2
Пользователей: 0
Главная » Статьи » Реферати » Економічна теорія, Політекономіка |
Реферат на тему: Верифікація моделі
Реферат на тему: Верифікація моделі. Показники якості моделі У класичному регресійному аналізі вважається, що функція регресії відома до оцінювання параметрів, тобто регресійна модель специфікована правильно. Однак в емпіричних економічних і соціальних дослідженнях не завжди відомо, скільки факторів має бути введено в модель і яка форма залежності краще описує реальні зв’язки. Щоб забезпечити найбільш адекватне відтворення досліджуваного явища чи процесу необхідно вибрати регресійну функцію серед багатьох варіантів, використовуючи спеціальні критерії якості моделі. Для перевірки коректності побудови моделі визначають насамперед: . стандартну похибку рівняння; . коефіцієнт детермінації; . коефіцієнт множинної кореляції; . стандартну похибку параметрів. Зауважимо, що зазначені показники отримують на підставі конкретних статистичних даних, тобто кожна з цих характеристик є вибірковою характеристикою і тому мас бути перевірена на значущість за допомогою спеціальних статистичних критеріїв. Стандартна похибка рівняння (точкова оцінка емпіричної дисперсії залишків) характеризує абсолютну величину розкиду випадкової складової рівняння і обчислюється за формулою Поправка на число ступенів свободи дає незміщену оцінку дисперсії залишків: Зрозуміло, що перевага віддається моделям, у яких стандартна похибка рівняння менша порівняно з іншими моделями. Однак така оцінка якості має суттєвий недолік: через те що для неї не визначено верхню межу, порівняння різних моделей за цим критерієм досить проблематичне. Коефіцієнт детермінації R2 показує, яка частина руху залежної змінної описується даним регресійним рівнянням, і обчислюється за формулою ; у — середнє значення залежної змінної, На значення коефіцієнта детермінації впливає кількість факторів, що враховано в моделі. Уведення в модель кожної нової змінної збільшує значення коефіцієнта детермінації. Тому щоб запобігти невиправданому розширенню моделі й мати змогу порівнювати моделі з різною кількістю факторів, уводять спеціальний оцінений коефіцієнт детермінації де а2и - незміщена оцінка дисперсії залишків; а2у - незміщена оцінка дисперсії залежної змінної, а2 =------Y (уі - у)2. п-1 і=1 Неважко помітити, що обидва коефіцієнти пов’язані такою залеж-ністю: Обчислений у такий спосіб коефіцієнт детермінації називається скоригованим за Тейлом і позначається RT. Крім того застосовують також коригування за Амемією, яке виконується за формулою " Обчислений у такий спосіб коефіцієнт детермінації називається скоригованим за Амемією і позначається RA. Обидва коефіцієнти RT2 і R2A враховують той факт, що уведення в модель кожного нового регресора зменшує число ступенів свободи. А для застосування статистичних критеріїв перевірки якості отриманих результатів ступенів свободи бажано мати якомога більше. Очевидно, для кожного RT2 і R2A виконується нерівність R2 < R2, тобто зі збільшенням кількості факторів моделі оцінені коефіцієнти детермінації зростають повільніше, ніж R2. Крім того, якщо R2 =1, то і R2 = 1. Якщо R2 прямує до нуля, оцінені коефіцієнти стають від’ємними. Така властивість скоригованих коефіцієнтів детермінації дає змогу більш об’єктивно оцінювати якість моделей з різною кількістю факторів, причому в разі застосування коефіцієнта R2A (скоригованого за Амемією) перевага однозначно віддається рівнянню з меншою кількістю регресорів. Зауваження. Коефіцієнт детермінації має ще два рівноцінних означення. За першим, коефіцієнт детермінації R2 дорівнює квадрату емпіричного коефіцієнта кореляції між двома рядами спостережень (теоретичними значеннями регресанда Уі та його розрахунковими значеннями уі, і = 1, 2,..., п) і обчислюється за формулою За другим, коефіцієнт детермінації R2 дорівнює відношенню суми квадратів відхилень розрахункових значень регресанда від його середнього значення до суми квадратів відхилень спостережених зна-чень регресанда від того самого середнього значення: В обох випадках сума ? обчислюється за всіма спостереженнями і = 1, 2,..., п. Коефіцієнт множинної кореляції R ® визначає міру зв’язку залежної змінної з усіма незалежними факторами і є коренем квадратним з відповідного коефіцієнта детермінації: R = \R (R = yR ). Стандартна похибка рівняння, коефіцієнт детермінації та множинної кореляції є характеристиками, за якими перевіряється правильність вибору незалежних змінних моделі. При порівнянні регресійних рівнянь з різною кількістю незалежних змінних вирішальними критеріями є стандартна похибка рівняння (найменша) та коефіцієнт детермінації (якомога ближчий до одиниці і з більшим числом ступенів свободи). Перевірка значущості та довірчі інтервали Розглянуті показники якості моделі побудовані за даними спостережень, тобто є деякими вибірковими характеристиками генеральної сукупності. З математичної статистики відомо, що будь-яка статистика (функція від елементів вибірки) має бути перевірена на значущість. Іншими словами, за допомогою спеціальних критеріїв необхідно встановити, чи зумовлено значення цієї функції лише похибками вимірювання, чи вона відображає якусь суттєву (значущу) інформацію. Неперевірений статистичний результат є лише деякою гіпотезою, яка може бути прийнята чи відхилена. Нагадаємо, що перевірка гіпотез у загальному випадку виконується в такому порядку: для кожної задачі добирається деяка випадкова величина, що має відомий чи близький до відомого закон розподілу. Функція від елементів вибірки є конкретною реалізацією цієї випадкової величини. Зауваження. У задачах регресійного аналізу важливе значення має припущення про нормальний розподіл випадкових величин, що задіяні в даній моделі. Певні перетворення нормально розподілених величин забезпечують їх розподіл за законом Стьюдента чи за законом Фішера: на підставі першого з них визначаються довірчі інтервали, а другий дає змогу оцінювати відношення двох випадкових величин. Стосовно кожного статистичного результату висувається так звана нульова гіпотеза (про рівність нулю деякої випадкової величини) і альтернативна до неї гіпотеза (про її суттєву відмінність від нуля). У нульовій гіпотезі формулюють результат, який бажано відхилити, а в альтернативній, яка інакше називається експериментальною, — той, що його необхідно підтвердити. Зауваження. Рівність двох величин у загальному випадку може розглядатися як рівність нулю їх різниці. За заданим рівнем значущості множина допустимих значень розбивається на дві неперетинні множини: одна містить значення випадкової величини, імовірність досягнення яких перевищує заданий рівень значущості, а інша — критична область — визначає ті значення, що досягаються рідко (імовірність потрапити до такої області нижча від заданого рівня), і розташована вона, як правило, на "хвостах розподілу". Залежно від альтернативної гіпотези критична область може складатися з одного чи двох проміжків на числовій осі. Це буде один проміжок (правий чи лівий "хвіст" розподілу), якщо зазначається напрямок нерівності (більше або менше деякої величини), і два проміжки (обидва "хвости" розподілу), якщо встановлюється нерівність (не дорівнює певній величині). За даними спостережень обчислюється значення відповідної статистики — функції від елементів вибірки. Якщо ця величина потрапляє до критичної області, це означає, що сталася практично неможлива подія, тобто подія, що має дуже малу ймовірність, а отже, від нульової гіпотези слід відмовитися і віддати перевагу альтернативній. Якщо обчислене значення статистики не потрапило до критичної області, роблять висновок, що дана вибірка не суперечить нульовій гіпотезі, тобто неправильною є експериментальна гіпотеза. При перевірці гіпотез може бути допущена помилка, наприклад може бути відхилена нульова гіпотеза, хоча насправді вона правильна (помилка першого роду), або ж, навпаки, нульова гіпотеза може бути прийнята, хоча вона неправильна (помилка другого роду). На це слід зважати при формулюванні статистичного висновку. Якщо значення R "близьке" до одиниці, вважається, що регресійне рівняння досить правильно відбиває наявний зв'язок між залежною та незалежними змінними моделі. Якщо значення R "близьке" до нуля, регресійна модель неправильна. Постає питання, як визначити цю "близькість"? Для цього необхідно застосувати відповідний статистичний критерій, який дасть змогу встановити, чи суттєво відрізняється R від нуля, чи ця відмінність пов'язана з особливостями конкретних даних, тобто зумовлена лише похибками вимірювань. Для перевірки статистичної значущості коефіцієнта детермінації R висувається нульова гіпотеза Н0 : R = 0. Це означає, що досліджуване рівняння не пояснює змінювання регресанда під впливом відповідних регресорів. У такому разі всі коефіцієнти при незалежних змінних мають дорівнювати нулю. При цьому нульову гіпотезу можна подати у вигляді ах=а2 =... = ап = 0. Альтернативною до неї є і тд: значення хоча б одного параметра моделі відмінне від нуля, тобто хоча б один із факторів впливає на змінювання залежної змінної. Для перевірки цих гіпотез застосовують критерій Фішера з т і п - т - 1 ступенями свободи. За отриманими в моделі значеннями коефіцієнта детермінації R2 обчислюють експериментальне значення ^-статистики: яке порівнюють з табличним значенням розподілу Фішера при заданому рівні значущості б (як правило, б = 0,05 або б = 0,01). Якщо нульова гіпотеза відхиляється, тобто існує такий коефіцієнт у регресійному рівнянні, який суттєво відрізняється від нуля, а відповідний фактор впливає на досліджувану змінну. Відхилення нуль-гіпотези свідчить про адекватність побудованої моделі. У протилежному випадку модель вважається неадекватною. Коефіцієнт кореляції, як вибіркова характеристика, перевіряється на значущість за допомогою t-критерію Стьюдента. Фактичне значення t-статистики обчислюється за формулою і порівнюється з табличним значенням t-розподілу з n - m - 1 ступенями свободи та при заданому рівні значущості б/2 (такий рівень зумовлений тим, що критична область складається з двох проміжків). Якщо абсолютна величина експериментального значення t-статистики перевищує табличне, тобто можна зробити висновок, що коефіцієнт кореляції достовірний (значущий), а зв’язок між залежною змінною та всіма незалежними факторами суттєвий. Окрім загальних показників адекватності моделі існують також оцінки, що дають змогу встановити якість окремих частин рівняння, зокрема одного чи кількох коефіцієнтів регресії. Як і в попередніх випадках, рішення відносно якості коефіцієнтів приймають на основі відповідних статистичних критеріїв. На підставі одного з найважливіших припущень МНК - припущення про нормальний розподіл випадкової складової рівняння з нульовим математичним сподіванням і сталою дисперсією - доведено, що кожний параметр лінійної регресії також має нормальний розподіл. Причому математичне сподівання параметра дорівнює значенню параметра узагальненої регресії, а дисперсія - незміщеній дисперсії випадкової складової рівняння, помноженій на відповідний діатональний елемент оберненої матриці (XTX)-1 . Статистичну значущість кожного параметра моделі можна перевірити за допомогою t-критерію. При цьому нульова гіпотеза має вигляд aj=0, альтернативна aj ? 0. Експериментальне значення t-статистики для кожного параметра моделі обчислюється за формулою де cjj - діагональний елемент матриці (XTX)-1; Saj -стандартизована похибка оцінки параметра моделі. Експериментальне значення t j-критерію порівнюється з табличним значенням t^ з n-m-1 ступенями свободи при заданому рівні значущості б/2 (критична область розбивається на два фрагменти, межі яких задаються квантилем б/2). Якщо значення tj-статистики потрапляє до критичної області (за абсолютним значенням перевищує табл ), приймається альтернативна гіпотеза про значущість відповідного параметра. Інакше робиться висновок про статистичну незначущість параметра aj, а це означає, що відповідна незалежна змінна не впливає суттєво на змінювання регресанда. Зауваження. Оскільки t j-статистика є відношенням відповідного параметра моделі до його стандартної похибки (середньоквадратично-го відхилення), то на практиці частіше застосовують грубішу оцінку, а саме допускають, щоб стандартні похибки становили 45-50 % значен-ня параметра, аби стверджувати про його статистичну значущість. Довірчі інтервали для кожного окремого параметра aj обчислюються на основі його стандартної похибки та критерію Стьюдента: Табличне значення tтабл, як і раніше, має n - m - 1 ступенів свободи і рівень значущості б/2 (tтабл = tб/2 (n-m-1)). Обчислені значення t j-статистик застосовують також для розрахунку часткових коефіцієнтів детермінації ?Rj, які визначають граничний внесок j-то регресора в загальний коефіцієнт детермінації. Коефіцієнт ?Rj показує, на яку величину зменшиться коефіцієнт детермінації R2, якщо j-й регресор (і лише він!) буде вилучений з групи регресорів. Формула для розрахунку часткового коефіцієнта детермінації має вигляд де R2 - коефіцієнт детермінації, обчислений для моделі з m регресо-рами; t2j - квадрат обчисленого значення t-статистики для j-ro рег-ресійного коефіцієнта; n - кількість спостережень, m - кількість рег-ресорів. Зауваження. Часткові коефіцієнти детермінації ?R2 і ?R2A, обчислені за відповідними значеннями RT та RA, можуть бути як додатними, так і від’ємними, що дає змогу більш об’єктивно оцінювати моделі з різною кількістю регресорів. Список використаної літератури Грубер Й. Економетрія: Вступ до множинної регресії та економетрії: У 2 т. - К: Нічлава, 1998-1999. Джонстон Дж. Эконометрические методы. — М.: Статистика, 1980. — 444 с. Доугерти К. Введение в эконометрику: Пер. с англ. — М.: ИНФРА-М, 1997. - 402 с. Дрейпер П., Смит Г. Прикладной регрессионный анализ. — М.: Финансы и статистика, 1986. — Т. 1 — 365 с; Т. 2 — 379 с. Емельянов А. С. Эконометрия и прогнозирование. — М.: Экономика, 1985. - С. 82-89. Єлейко В. Основи економетрії. — Львів: "Марка Лтд", 1995. — 191с. Кейн Э. Экономическая статистика и эконометрия. Введение в количественный экономический анализ. — М.: Статистика, 1977. — 254с. Корольов О. А. Економетрія: Навч. посіб. — К: Європейський ун-т,2002. - 660 с. Ланге О. Введение в эконометрию. — М.: Прогресс, 1964. — 360 с. Лук'яненко I. Г., Краснікова Л. І. Економетрика: Підручник. — К.: Т-во "Знання", КОО, 1998. - 494 с Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика: Навч. курс. - М.: Дело, 1997. - 248 с. Маленво Э. Статистические методы эконометрии. — М.: Статистика, 1975. - 423 с. Наконечний С. I., Терещенко Т .О., Романюк Т. П. Економетрія: Навч. посіб. - К: КНЕУ, 1997. - 352 с. Тинтнер Г. Введение в эконометрию. — М.: Статистика, 1965. — 368 с. Толбатое Ю. А. Економетрика: Підруч. для студ. екон. спец. вищ. навч. закл. — К.: Четверта хвиля, 1997. — 320 с. | |
Просмотров: 537 | Рейтинг: 0.0/0 |
Всего комментариев: 0 | |