Регресійний аналіз

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

Регресі́йний ана́ліз — розділ математичної статистики, присвячений методам аналізу залежності однієї величини від іншої. На відміну від кореляційного аналізу не з'ясовує чи істотний зв'язок, а займається пошуком моделі цього зв'язку, вираженої у функції регресії.

Регресійний аналіз використовується в тому випадку, якщо відношення між змінними можуть бути виражені кількісно у виді деякої комбінації цих змінних. Отримана комбінація використовується для передбачення значення, що може приймати цільова (залежна) змінна, яка обчислюється на заданому наборі значень вхідних (незалежних) змінних. У найпростішому випадку для цього використовуються стандартні статистичні методи, такі як лінійна регресія. На жаль, більшість реальних моделей не вкладаються в рамки лінійної регресії. Наприклад, розміри продажів чи фондові ціни дуже складні для передбачення, оскільки можуть залежати від комплексу взаємозв'язків множин змінних. Таким чином, необхідні комплексні методи для передбачення майбутніх значень.

Мета регресійного аналізу[ред.ред. код]

  1. Визначення ступеня детермінованості варіації критеріальної (залежної) змінної предикторами (незалежними змінними).
  2. Прогнозування значення залежної змінної за допомогою незалежної.
  3. Визначення внеску окремих незалежних змінних у варіацію залежної.

Регресійний аналіз не можна використовувати для визначення наявності зв'язку між змінними, оскільки наявність такого зв'язку і є передумова для застосування аналізу.

Алгоритм регресійного аналізу[ред.ред. код]

Нехай у точках xn незалежної змінної x отримані виміри Yn. Потрібно знайти залежність середнього значення величини від величини х, тобто , де a — вектор невідомих параметрів . Функцію називають функцією регресії. Звичайно припускають, що є лінійною функцією параметрів а, тобто має вигляд:

(1),

де  — задані функції.

У цьому випадку матрицю називається регресійною матрицею.

Для визначення параметрів звичайно використовують метод найменших квадратів, тобто оцінки визначають із умови мінімуму функціонала:

і з мінімуму функціоналу: для корельованих вимірів з кореляційною матрицею R.

Як функції при невеликих звичайно служать степеневі функції . Часто використовують ортогональні й нормовані поліноми на множині :

.

У цьому випадку легко знайти оцінку :

.

Звідси випливає, що обчислення не залежить від обчислення інших .

Популярне використання як сплайнів , які мають дві основні властивості:

  1.  — поліном заданого степеня;
  2. відмінний від нуля в околі точки .

При пошуку функції регресії у вигляді (1) природно виникає питання про кількість членів I у сумі (1). При малому значенні I не можна досягти гарного опису , а при великому — великі статистичні помилки функції регресії.

Регресійний аналіз в Excel/Calc[ред.ред. код]

MS Excel має можливості для розрахунку коефіцієнту регресії. Для цього потрібно доінсталювати «Пакет аналізу» в надбудовах.

Див. також[ред.ред. код]

Статистика Це незавершена стаття зі статистики.
Ви можете допомогти проекту, виправивши або дописавши її.