ergodic markov process 中文意思是什麼

ergodic markov process 解釋
遍歷馬爾可夫過程
  • ergodic : theorem
  • markov : 馬爾科夫
  • process : n 1 進行,經過;過程,歷程;作用。 2 處置,方法,步驟;加工處理,工藝程序,工序;製作法。3 【攝影...
  1. Markov chain : discret - time markov chains, classification of states, ergodic, stationary distribution. continuous - time markov chains, birth and death process

    馬爾可夫鏈:離散時間的馬爾可夫鏈,狀態的分類,遍歷性,平穩分佈。連續時間的馬爾可夫鏈,生滅過程。
分享友人