Ланцюги Маркова з неперервним часом

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

У теорії ймовірностей ланцюгом Маркова з неперервним часом називається випадковий процес { X(t) : t ≥ 0 } визначений у неперервному часовому проміжку, що приймає значення у деякій скінченній чи зліченній множині і задовольняє властивість Маркова. Відмінність цього виду ланцюгів Маркова від дискретних ланцюгів Маркова полягає в тому, що переходи між станами можуть відбуватися в будь-які моменти часу і час наступного переходу теж є випадковою величиною.


Формальне означення[ред.ред. код]

Випадковий процес , що приймає значення в деякій скінченній чи зліченній множині називається ланцюгом Маркова (з неперервним часом), якщо

.

Ланцюг Маркова з неперервним часом називається однорідним якщо:

.

Матриця перехідних функцій і рівняння Колмогорова — Чепмена[ред.ред. код]

Як і у дискретному випадку Ланцюги Маркова з неперервним часом повністю визначаються заданням початкового розподілу

іматрицею перехідних функцій (перехідних ймовірностей)

.

Матриця перехідних ймовірностей задовільняє рівнянню Колмогорова — Чепмена: або

.

Матриця інтенсивностей[ред.ред. код]

За визначенням , матриця інтенсивностей

чи еквівалентно:

.

Із рівняння Колмогорова-Чепмена випливають:

  • Пряме рівняння Колмогорова
  • Обернене рівняння Колмогорова

Для обох рівнянь початковим наближенням є . Відповідний розв'язок рівний:

Див. також[ред.ред. код]


Література[ред.ред. код]

  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6.
  • J. R. Norris. Markov Chains. Cambridge University Press, 1997. ISBN ISBN 0-521-48181-3