Ланцюги Маркова з неперервним часом

Матеріал з Вікіпедії — вільної енциклопедії.
Версія від 08:04, 22 березня 2013, створена RLutsBot (обговорення | внесок) (Перенесено 3 інтервікі-посилань до Вікіданих (Q176720))
Перейти до навігації Перейти до пошуку

У теорії ймовірностей ланцюгом Маркова з неперервним часом називається випадковий процес { X(t) : t ≥ 0 } визначений у неперервному часовому проміжку, що приймає значення у деякій скінченній чи зліченній множині і задовольняє властивість Маркова. Відмінність цього виду ланцюгів Маркова від дискретних ланцюгів Маркова полягає в тому, що переходи між станами можуть відбуватися в будь-які моменти часу і час наступного переходу теж є випадковою величиною.


Формальне означення

Випадковий процес , що приймає значення в деякій скінченній чи зліченній множині називається ланцюгом Маркова (з неперервним часом), якщо

.

Ланцюг Маркова з неперервним часом називається однорідним якщо:

.

Матриця перехідних функцій і рівняння Колмогорова — Чепмена

Як і у дискретному випадку Ланцюги Маркова з неперервним часом повністю визначаються заданням початкового розподілу

іматрицею перехідних функцій (перехідних ймовірностей)

.

Матриця перехідних ймовірностей задовільняє рівнянню Колмогорова — Чепмена: або

.

Матриця інтенсивностей

За визначенням , матриця інтенсивностей

чи еквівалентно:

.

Із рівняння Колмогорова-Чепмена випливають:

  • Пряме рівняння Колмогорова
  • Обернене рівняння Колмогорова

Для обох рівнянь початковим наближенням є . Відповідний розв'язок рівний:

Див. також


Література

  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6.
  • J. R. Norris. Markov Chains. Cambridge University Press, 1997. ISBN ISBN 0-521-48181-3