ergodic markov process 中文意思是什麼
ergodic markov process
解釋
遍歷馬爾可夫過程-
Markov chain : discret - time markov chains, classification of states, ergodic, stationary distribution. continuous - time markov chains, birth and death process
馬爾可夫鏈:離散時間的馬爾可夫鏈,狀態的分類,遍歷性,平穩分佈。連續時間的馬爾可夫鏈,生滅過程。
分享友人