Марковська властивість

Матеріал з Вікіпедії — вільної енциклопедії.
Jump to navigation Jump to search
Одиночна реалізація тривимірного броунівського руху для часу 0 ≤ t ≤ 2. Броунівський рух має марковську властивість, оскільки зміщення частинки не залежить від її попередніх зміщень.

У теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості відсутності пам'яті[en] в стохастичного процесу. Його названо на честь російського математика Андрія Маркова.[1]

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (англ. Markov process). Термін си́льна ма́рковська власти́вість (англ. strong Markov property) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу.[2]

Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі.

Марковське випадкове поле (англ. Markov random field)[3] розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга.

Стохастичний процес дискретного часу[en], який задовольняє марковську властивість, відомий як марковський ланцюг.

Введення[ред.ред. код]

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану; тобто, з огляду на теперішнє, майбутнє не залежить від минулого. Процес із цією властивістю називають марковіа́ном (англ. Markovian), або ма́рковським проце́сом (англ. Markov process). Найвідомішим марковським процесом є марковський ланцюг. Також добре відомим марковським процесом є броунівський рух.

Історія[ред.ред. код]

Визначення[ред.ред. код]

Нехай є ймовірнісним простором з фільтрацією для деякої (лінійно впорядкованої) індексної множини , і нехай є вимірним простором. Про -значний стохастичний процес , пристосований до цієї фільтрації, кажуть, що він володіє марковською властивістю, якщо для будь-якої та будь-яких з

[4]

В разі, коли є дискретною множиною з дискретною сигма-алгеброю, а , це може бути переформульовано наступним чином:

.

Альтернативні формулювання[ред.ред. код]

Марковська властивість може мати наступне альтернативне формулювання.

для всіх та обмежених і вимірних .[5]

Сильна марковська властивість[ред.ред. код]

Припустімо, що є стохастичним процесом на ймовірнісному просторі з природною фільтрацією . Для будь-якого ми можемо визначити паросткову сигма-алгебру як перетин усіх для . Тоді для будь-якого моменту зупину на ми можемо визначити

.

Тоді про кажуть, що він має сильну марковську властивість, якщо для кожного моменту зупину , обумовленого подією , ми маємо, що для кожного , є незалежним від за заданого .

Сильна марковська властивість передбачає звичайну марковську властивість, оскільки сильну марковську властивість може бути зведено до неї взяттям моменту зупину .

Приклади[ред.ред. код]

Припустімо, що урна містить дві червоні кулі й одну зелену. Одну кулю витягли вчора, одну кулю витягли сьогодні, й останню кулю витягнуть завтра. Всі витягування є «без повернення».

Припустімо, що вам відомо, що сьогоднішня куля була червоною, але ви не маєте інформації про вчорашню кулю. Шанс того, що завтрашня куля буде червоною, складає 1/2. Це тому, що для цього випадкового експерименту лишилося лише два результати:

День Результат 1 Результат 2
Вчора Червона Зелена
Сьогодні Червона Червона
Завтра Зелена Червона

З іншого боку, якщо ви знаєте, що як сьогоднішня, так і вчорашня кулі були червоними, тоді вам гарантовано отримати завтра зелену кулю.

Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле. Цей стохастичний процес спостережуваних кольорів не має марковської властивості. При використанні такого ж експерименту, як наведено вище, якщо «вибірку без повернення» замінено «вибіркою з поверненням», процес спостережуваних кольорів марковську властивість матиме.[6]

Застосуванням марковської властивості в узагальненому вигляді є обчислення Монте-Карло марковських ланцюгів у контексті баєсової статистики.

Див. також[ред.ред. код]

Примітки[ред.ред. код]

  1. Марков, А. А. (1954). Теория алгорифмов. Тр. МИАН СССР (М.–Л.: Изд-во АН СССР) 42: 3–375.  (рос.)
  2. Feller, W.[en] (1971) Introduction to Probability Theory and Its Applications, Vol II (2nd edition),Wiley. ISBN 0-471-25709-5 (pages 9 and 20) (англ.)
  3. Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. ISBN 0-19-850994-4 (англ.)
  4. Durrett, Rick. Probability: Theory and Examples. Fourth Edition. Cambridge: Cambridge University Press, 2010. (англ.)
  5. Øksendal, Bernt K. (2003). Stochastic Differential Equations: An Introduction with Applications. Springer, Berlin. ISBN 3-540-04758-1.  (англ.)
  6. Example of a stochastic process which does not have the Markov property. Mathematics Stack Exchange.  (англ.)