| 
                | 
              
                Markov-Prozeß
                 stochastischer Prozeß (Xt) 0 < t < 00 mit abzählbarem Zustandsraum (Wertemenge) E, bei dem für alle n S {0, 1, ...} und alle t > s > sn > .. > s0 bzgl. der bedingten Wahrscheinlichkeiten gilt: 
 
 
mit j, i, i0, ..., in  E. - P {Xt = j | Xs = i} heißt Übergangswahrscheinlichkeit (Wahrscheinlichkeit, daß der Prozeß zum Zeitpunkt s den Zustand i hat, wenn er zum Zeitpunkt t den Zustand j hatte). - Ist der Zustandsraum endlich, so wird der M.-P. endlich genannt. - Bedeutung: Die "Markov-Eigenschaft" eines stochastischen Prozesses besagt also, daß die Wahrscheinlichkeit des Übergangs von einem Zustand in den nächstfolgenden von der "Vorgeschichte" unabhängig ist.  
                  
                
                  
                    << vorheriger Begriff | 
                     | 
                    nächster Begriff>> | 
                   
                  
                     | 
                     | 
                     | 
                   
                 
				
                      
                      
                      
                      
               
                  
                Diese Seite bookmarken : 
                | 
                |