Chuyển bộ gõ


Từ điển Oxford Learners Wordfinder Dictionary
Markov chain


noun
a Markov process for which the parameter is discrete time values
Syn:
Markoff chain
Hypernyms:
Markov process, Markoff process


Giới thiệu VNDIC.net | Plugin từ diển cho Firefox | Từ điển cho Toolbar IE | Tra cứu nhanh cho IE | Vndic bookmarklet | Học từ vựng | Vndic trên web của bạn

© Copyright 2006-2024 VNDIC.NET & VDICT.CO all rights reserved.