|
|
Markov-Prozeß
stochastischer Prozeß (Xt) 0 < t < 00 mit abzählbarem Zustandsraum (Wertemenge) E, bei dem für alle n S {0, 1, ...} und alle t > s > sn > .. > s0 bzgl. der bedingten Wahrscheinlichkeiten gilt:
mit j, i, i0, ..., in E. - P {Xt = j | Xs = i} heißt Übergangswahrscheinlichkeit (Wahrscheinlichkeit, daß der Prozeß zum Zeitpunkt s den Zustand i hat, wenn er zum Zeitpunkt t den Zustand j hatte). - Ist der Zustandsraum endlich, so wird der M.-P. endlich genannt. - Bedeutung: Die "Markov-Eigenschaft" eines stochastischen Prozesses besagt also, daß die Wahrscheinlichkeit des Übergangs von einem Zustand in den nächstfolgenden von der "Vorgeschichte" unabhängig ist.
<< vorheriger Begriff |
|
nächster Begriff>> |
|
|
|
Diese Seite bookmarken :
|
|