Що таке множинна лінійна регресія - MLR?
Множинна лінійна регресія (MLR), також відома також як множинна регресія, є статистичною методикою, яка використовує кілька пояснювальних змінних для прогнозування результату змінної відповіді. Метою множинної лінійної регресії (MLR) є моделювання лінійної залежності між пояснювальною (незалежною) змінною та змінною реакції (залежною).
По суті, множинна регресія - це розширення звичайної регресії найменших квадратів (OLS), яка включає більш ніж одну пояснювальну змінну.
Формула для множинної лінійної регресії є
Сігналы абмеркавання Yi = β0 + β1 xi1 + β2 xi2 +… + βp xip + ϵ, де i = n спостережень: yi = залежна зміннаxi = експансивні змінніβ0 = y-перехоплення (константа термін) βp = коефіцієнти нахилу для кожної пояснювальної змінноїϵ = термін помилки моделі (також відомий як залишки)
Пояснення множинної лінійної регресії
Проста лінійна регресія - це функція, яка дозволяє аналітику чи статистику робити прогнози щодо однієї змінної на основі інформації, яка відома про іншу змінну. Лінійна регресія може використовуватися лише тоді, коли є дві безперервні змінні - незалежна змінна та залежна змінна. Незалежна змінна - це параметр, який використовується для обчислення залежної змінної чи результату. Модель множинної регресії поширюється на кілька пояснювальних змінних.
Модель множинної регресії базується на таких припущеннях:
- Існує лінійна залежність між залежними змінними та незалежними змінними. Незалежні змінні не надто сильно співвідносяться між собою. Мої спостереження вибираються незалежно та випадковим чином від сукупності. Залишки повинні бути зазвичай розподілені із середнім значенням 0 та дисперсією σ.
Коефіцієнт детермінації (R-квадрат) - це статистична метрика, яка використовується для вимірювання того, яка частина варіації результату може бути пояснена варіацією незалежних змінних. R 2 завжди збільшується, оскільки до моделі MLR додається більше предикторів, хоча прогнози можуть не бути пов'язані зі змінною результату.
Таким чином, R 2 сам по собі не може бути використаний для визначення того, які предиктори повинні бути включені до моделі, а які слід виключити. R 2 може бути лише між 0 і 1, де 0 означає, що результат не може бути передбачений жодною з незалежних змінних, а 1 означає, що результат можна передбачити без помилок незалежних змінних.
При інтерпретації результатів множинної регресії бета-коефіцієнти є дійсними, зберігаючи всі інші змінні постійними ("всі інші рівні"). Вихід з множинної регресії може відображатися горизонтально у вигляді рівняння або вертикально у вигляді таблиці.
Приклад використання декількох лінійних регресій
Наприклад, аналітик може захотіти знати, як рух на ринку впливає на ціну Exxon Mobil (XOM). У цьому випадку його лінійне рівняння матиме значення індексу S&P 500 як незалежної змінної чи прогноктора, а ціна XOM як залежної змінної.
Насправді існує декілька факторів, які прогнозують результат події. Наприклад, рух цін Exxon Mobil залежить не тільки від продуктивності загального ринку. Інші прогнози, такі як ціна нафти, процентні ставки та рух цін на ф'ючерси на нафту, можуть вплинути на ціну XOM та ціни акцій інших нафтових компаній. Для розуміння взаємозв'язку, в якому присутні більше двох змінних, використовується множинна лінійна регресія.
Множинна лінійна регресія (MLR) використовується для визначення математичної залежності між низкою випадкових змінних. Іншими словами, MLR вивчає, як кілька незалежних змінних пов'язані з однією залежною змінною. Після того, як кожен із незалежних факторів буде визначений для прогнозування залежної змінної, інформація про декілька змінних може бути використана для створення точного прогнозу на рівень впливу, який вони мають на змінну результату. Модель створює співвідношення у вигляді прямої (лінійної), яка найкраще наближає всі окремі точки даних.
Посилаючись на рівняння MLR вище, у нашому прикладі:
- y i = залежна змінна: ціна XOMx i1 = процентні ставкиx i2 = ціна нафтиx i3 = значення S&P 500 індексx i4 = ціна ф'ючерсів на нафтуB 0 = у-перехоплення в момент нульового рівня 1 1 = коефіцієнт регресії, який вимірює зміну одиниці залежної змінна, коли x i1 змінюється - зміна ціни XOM при зміні процентних ставокB 2 = значення коефіцієнта, що вимірює зміну одиниці залежної змінної при зміні x i2 - зміна ціни XOM при зміні цін на нафту
Оцінки найменших квадратів, B 0, B 1, B 2 … B p, зазвичай обчислюються статистичним програмним забезпеченням. У регресійну модель може бути включено стільки змінних, в яких кожна незалежна змінна диференційована числом - 1, 2, 3, 4… p. Модель множинної регресії дозволяє аналітику прогнозувати результат, грунтуючись на інформації, що надається на кількох пояснювальних змінних.
Проте модель не завжди є абсолютно точною, оскільки кожна точка даних може дещо відрізнятися від результатів, передбачених моделлю. Залишкове значення E, яке є різницею між фактичним результатом та передбачуваним результатом, включається в модель для врахування таких незначних змін.
Припускаючи, що ми запускаємо нашу модель регресії цін XOM через програмне забезпечення для обчислення статистики, яке повертає цей вихід:
Аналітик би інтерпретував цей вихід таким чином, якщо інші змінні триматимуться постійними, ціна XOM зросте на 7, 8%, якщо ціна нафти на ринках зросте на 1%. Модель також показує, що ціна XOM знизиться на 1, 5% після підвищення процентних ставок на 1%. R 2 вказує, що 86, 5% коливань ціни акцій Exxon Mobil можна пояснити зміною процентної ставки, ціни на нафту, ф'ючерсів на нафту та індексу S&P 500.
Ключові вивезення
- Множинна лінійна регресія (MLR), відома також як множинна регресія, є статистичною методикою, яка використовує кілька пояснювальних змінних для прогнозування результату змінної відповіді. Багаторазова регресія - це розширення лінійної (OLS) регресії, яка використовує лише одну пояснювальну змінну. MLR широко використовується в економетрії та фінансових висновках.
Різниця між лінійною та множинною регресією
Лінійна (OLS) регресія порівнює відповідь залежної змінної з урахуванням зміни деякої пояснювальної змінної. Однак рідко буває, що залежна змінна пояснюється лише однією змінною. У цьому випадку аналітик використовує множину регресії, яка намагається пояснити залежну змінну, використовуючи більш ніж одну незалежну змінну. Множинні регресії можуть бути лінійними та нелінійними.
Множинні регресії засновані на припущенні, що існує лінійна залежність як залежної, так і незалежної змінних. Він також не передбачає значної кореляції між незалежними змінними.
