Définition de chaine de Markov | Babel Free
\ʃɛn də maʁ.kɔf\Définitions
- Représentation de la prédiction du futur grâce à l’état présent du processus.
-
Variante orthographique de chaîne de Markov. alt-of
Équivalents
العربية
سِلْسِلَةُ مَارْكُوف
Čeština
Markovův řetězec
Deutsch
Markow-Kette
English
Markov chain
Español
cadena de Márkov
Suomi
Markovin ketju
Magyar
Markov-lánc
日本語
マルコフ連鎖
Nederlands
markovketen
Русский
цепь Ма́ркова
Niveau CECR
C1
Avancé
Ce mot fait partie du vocabulaire CECR C1 — niveau avancé.
Ce mot fait partie du vocabulaire CECR C1 — niveau avancé.
Voir aussi
Know this word better than we do? Language is a living thing — help us keep it growing. Collaborate with Babel Free