Коваріація

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

У теорії ймовірності та статистиці, коваріа́ція (англ. covariance) — це міра спільної мінливості двох випадкових змінних.[1] Якщо більші значення однієї змінної здебільшого відповідають більшим значенням іншої, й те саме виконується для менших значень, тобто змінні схильні демонструвати подібну поведінку, то коваріація є додатною.[2] В протилежному випадку, коли більші значення однієї змінної здебільшого відповідають меншим значенням іншої, тобто змінні схильні демонструвати протилежну поведінку, коваріація є від'ємною. Отже, знак коваріації показує тенденцію в лінійному взаємозв'язку між цими змінними. Величину ж коваріації інтерпретувати непросто. Проте унормована версія коваріації, коефіцієнт кореляції, показує своєю величиною силу цього лінійного взаємозв'язку.

Слід розрізняти (1) коваріацію двох випадкових змінних, яка є параметром сукупності, що можна розглядати як властивість спільного розподілу ймовірності, та (2) вибіркову коваріацію, яка на додачу до того, що вона слугує описом вибірки, слугує також і оцінкою значення параметру сукупності.

Визначення[ред.ред. код]

Коваріацію між двома спільно розподіленими дійснозначними випадковими змінними X та Y зі скінченними другими моментами визначають як математичне сподівання добутку їхніх відхилень від їхніх особистих математичних сподівань:[3]

де E[X] є математичним сподіванням X, відомим також як середнє значення X. Коваріацію також іноді позначують через “σ”, за аналогією з дисперсією. Використовуючи властивість лінійності математичних сподівань, це можна спростити до математичного сподівання їхнього добутку мінус добуток їхніх математичних сподівань:

Проте коли , це крайнє рівняння схильне до катастрофічного анулювання[en], якщо його обчислюють за допомогою арифметики з рухомою комою, і відтак його слід уникати в комп'ютерних програмах, якщо дані не було попередньо відцентровано.[4] В такому разі слід віддавати перевагу чисельно стійким алгоритмам[en].

Для випадкових векторів[en] та взаємно-коваріаційна матриця[en] m × n (відома також як дисперсі́йна ма́триця, англ. dispersion matrix, або дисперсі́йно-коваріаці́йна ма́триця, англ. variance–covariance matrix,[5] або просто коваріаційна матриця) дорівнює

де mT є транспонуванням вектору (або матриці) m.

(i, j)-тий елемент цієї матриці дорівнює коваріації cov(Xi, Yj) між i-тою скалярною складовою X та j-тою скалярною складовою Y. Зокрема, cov(Y, X) є транспонуванням cov(X, Y).

Для вектору з m спільно розподілених випадкових змінних зі скінченними другими моментами, його коваріаційну матрицю визначають як

Випадкові змінні, чия коваріація є нульовою, називають некорельованими[en]. Аналогічно, випадкові вектори, чия коваріаційна матриця є нульовою в усіх елементах за межами головної діагоналі, називають некорельованими.

Одиницями вимірювання коваріації cov(X, Y) є добуток одиниць X та Y. На противагу цьому, коефіцієнти кореляції, які залежать від коваріації, є безрозмірнісною мірою лінійної залежності. (Насправді, коефіцієнти кореляції можна розуміти як просто унормовану версію коваріації.)

Дискретні змінні[ред.ред. код]

Якщо кожна зі змінних має скінченний набір рівноймовірних значень, та відповідно для та , то коваріацію може бути рівнозначно записано в термінах середніх значень та як

Якщо , то її також може бути рівнозначно виражено без прямого посилання на середні як[6]

Приклад для дискретних випадкових змінних[7]

Припустімо, що X та Y мають наступну спільну функцію маси ймовірності:

y
f(x,y) 1 2 3 fX(x)
1 0.25 0.25 0 0.5
x 2 0 0.25 0.25 0.5
fY(y) 0.25 0.5 0.25 1

Тоді , , , а

Додаткові приклади можна знайти тут.

Властивості[ред.ред. код]

  • Дисперсія (англ. variance) є окремим випадком коваріації, в якому обидві змінні є ідентичними (тобто в якому одна зі змінних завжди набуває такого ж значення, як і інша):
  • Якщо X, Y, W та V є дійснозначними випадковими змінними, а a, b, c, d є сталими («стала» в цьому контексті означає не випадкова), то наступні факти є наслідком визначення коваріації:
Неможливо розібрати вираз (MathML з переходом на SVG чи PNG (рекомендовано для сучасних браузерів та інструментів покращення доступу): Недійсна відповідь («Math extension cannot connect to Restbase.») від сервера «/mathoid/local/v1/»:): {\displaystyle \begin{align} \sigma(X, a) &= 0 \\ \sigma(X, X) &= \sigma^2(X) \\ \sigma(X, Y) &= \sigma(Y, X) \\ \sigma(aX, bY) &= ab\, \sigma(X, Y) \\ \sigma(X+a, Y+b) &= \sigma(X, Y) \\ \sigma(aX+bY, cW+dV) &= ac\,\sigma(X,W)+ad\,\sigma(X,V)+bc\,\sigma(Y,W)+bd\,\sigma(Y,V) \end{align} }
Для послідовності випадкових змінних X1, ..., Xn та сталих a1, ..., an маємо
  • Корисною тотожністю для обчислення коваріації між двома випадковими змінними є коваріаційна тотожність Хьофдинга (англ. Hoeffding's Covariance Identity):[8]
де є функцією спільного розподілу випадкового вектора , а є відособленими.

Загальніша тотожність для коваріаційних матриць[ред.ред. код]

Нехай X буде випадковим вектором[en] з коваріаційною матрицею Σ(X), і нехай A буде матрицею, яка може діяти на X. Коваріаційною матрицею матрично-векторного добутку A X є

Це є прямим результатом лінійності математичного сподівання, та є корисним при застосуванні до вектора лінійного перетворення, такого як перетворення вибілювання[en].

Некорельованість та незалежність[ред.ред. код]

Якщо X та Y є незалежними, то їхня коваріація є нульовою.[9] Це випливає з того, що за незалежності

Обернене, проте, в загальному випадку не є вірним. Наприклад, нехай X буде рівномірно розподіленою на [−1, 1], і нехай Y = X2. Зрозуміло, що X та Y є залежними, але

В цьому випадку взаємозв'язок між Y та X є нелінійним, тоді як кореляція та коваріація є мірами лінійної залежності між двома змінними. Цей приклад показує, що, якщо дві змінні є некорельованими, це в загальному випадку не означає, що вони є незалежними. Проте, якщо дві змінні є спільно нормально розподіленими (але не якщо вони є просто відособлено нормально розподіленими[en]), то некорельованість дійсно означає незалежність.

Зв'язок із внутрішніми добутками[ред.ред. код]

Багато властивостей коваріації можна елегантно здобути, звернувши увагу на те, що вона задовольняє властивості, подібні до властивостей внутрішнього добутку[en]:

  1. білінійність: для сталих a та b, та випадкових змінних X, Y, Z, σ(aX + bYZ) = a σ(XZ) + b σ(YZ);
  2. симетричність: σ(XY) = σ(YX);
  3. додатна напівозначеність[en]: σ2(X) = σ(XX) ≥ 0 для всіх випадкових змінних X, а σ(XX) = 0 означає, що X є сталою випадковою змінною (K).

Насправді ці властивості означають, що коваріація визначає внутрішній добуток над векторним фактор-простором[en], отримуваним взяттям підпростору випадкових змінних зі скінченним другим моментом, та визначенням будь-яких двох, які відрізняються на сталу. (Це визначення перетворює згадану вище додатну напівозначеність на додатноозначеність.) Цей векторний фактор-простір є ізоморфним до підпростору випадкових змінних зі скінченним другим моментом та нульовим середнім значенням; на цьому підпросторі коваріація в точності дорівнює внутрішньому добуткові L2 дійснозначних функцій на вибірковому просторі.

В результаті, для випадкових змінних зі скінченною дисперсією нерівність

виконується через нерівність Коші — Буняковського.

Доведення: Якщо σ2(Y) = 0, то вона виконується тривіально. Інакше, нехай випадкова змінна

Тоді ми маємо

Обчислення вибіркової коваріації[ред.ред. код]

Детальніші відомості з цієї теми Ви можете знайти в статті Вибіркове середнє та вибіркова коваріація[en].

Вибіркова коваріація N спостережень K змінних — це матриця розміру K-на-K з елементами

що є оцінкою коваріації між змінною j та змінною k.

Матриці вибіркового середнього та вибіркової коваріації є незміщеними оцінками середнього значення та коваріаційної матриці випадкового вектора[en] , рядкового вектора, чий j-тий елемент (j = 1, ..., K) є однією з випадкових змінних. Причиною того, що коваріаційна матриця має в знаменнику , а не , по суті є те, що середнє значення сукупності не відоме, і замінене вибірковим середнім значенням . Якщо середнє значення сукупності є відомим, то аналогічна незміщена оцінка задається як

Коментарі[ред.ред. код]

Коваріацію іноді називають мірою «лінійної залежності» між двома випадковими змінними. Це не означає те ж саме, що й у контексті лінійної алгебри (див. лінійну залежність). Коли коваріацію унормовано, отримують коефіцієнт кореляції[en]. З нього можливо отримати коефіцієнт Пірсона, який дає пристосованість для найкращої з можливих лінійних функцій, що описують взаємозв'язок між змінними. В цьому сенсі коваріація є лінійним мірилом залежності.

Застосування[ред.ред. код]

В генетиці та молекулярній біології[ред.ред. код]

Коваріація є важливою мірою в біології. Деякі послідовності ДНК є консервативнішими за інші серед різних видів, і відтак для дослідження вторинних та третинних структур білків, або структур РНК, порівнюють послідовності близько споріднених видів. Якщо знайдено зміни послідовностей, або взагалі не знайдено змін у некодувальній РНК (такій як мікроРНК), то послідовності вважають потрібними для загальних структурних лейтмотивів, таких як цикл РНК.

У фінансовій економіці[ред.ред. код]

Коваріації відіграють важливу роль у фінансовій економіці[en], особливо в портфельному аналізі та в моделі ціноутворення капітальних активів. Коваріації серед виручок різних активів використовують для визначення, за деяких припущень, відносних сум різних активів, які інвестор повинен (в нормативному аналізі[en]) або, як передбачається, буде (в позитивному аналізі[en]) обирати для тримання в контексті диверсифікації.

В опрацьовуванні метеорологічних та океанографічних даних[ред.ред. код]

Коваріаційна матриця є важливою в оцінюванні початкових умов, необхідних для запуску моделей прогнозу погоди. «Коваріаційну матрицю похибки прогнозу» (англ. forecast error covariance matrix) зазвичай будують між збуреннями навколо середнього стану (чи то кліматологічного, чи то ансамблевого середнього). «Коваріаційну матрицю похибки спостереження» (англ. observation error covariance matrix) будують для представлення величини об'єднаних похибок спостереження (на діагоналі) та корельованих похибок між вимірюваннями (поза діагоналлю).

У виділянні ознак[ред.ред. код]

Коваріаційну матрицю застосовують для збирання даних про спектральну мінливість сигналу.[10]

Див. також[ред.ред. код]

Примітки[ред.ред. код]

  1. Rice, John (2007). Mathematical Statistics and Data Analysis. Belmont, CA: Brooks/Cole Cengage Learning. с. 138. ISBN 978-0534-39942-9.  (англ.)
  2. Weisstein, Eric W. Covariance(англ.) на сайті Wolfram MathWorld.
  3. Oxford Dictionary of Statistics, Oxford University Press, 2002, p. 104. (англ.)
  4. Donald E. Knuth (1998). The Art of Computer Programming, volume 2: Seminumerical Algorithms, 3rd edn., p. 232. Boston: Addison-Wesley. (англ.)
  5. W. J. Krzanowski, Principles of Multivariate Analysis, Chap. 7.1, Oxford University Press, New York, 1988 (англ.)
  6. Yuli Zhang,Huaiyu Wu,Lei Cheng (June 2012). Some new deformation formulas about variance and covariance Proceedings of 4th International Conference on Modelling, Identification and Control(ICMIC2012). с. 987–992.  (англ.)
  7. Covariance of X and Y | STAT 414/415. The Pennsylvania State University. 12/9/2016. Процитовано 12/9/2016.  (англ.)
  8. Papoulis (1991). Probability, Random Variables and Stochastic Processes. McGraw-Hill.  (англ.)
  9. Siegrist, Kyle. Covariance and Correlation. University of Alabama in Huntsville. Процитовано 12/9/2016.  (англ.)
  10. Sahidullah, Md.; Kinnunen, Tomi (March 2016). Local spectral variability features for speaker verification. Digital Signal Processing 50. с. 1–11. doi:10.1016/j.dsp.2015.10.011.  (англ.)

Література[ред.ред. код]

Посилання[ред.ред. код]