Viterbiho algoritmus

Viterbiho algoritmus je algoritmus dynamického programování pro hledání/nalezení nejpravděpodobnější posloupnosti skrytých stavů – nazývané Viterbiho cesta – jehož výsledkem je posloupnost pozorovaných událostí, především v kontextu Markovových informačních zdrojů a skrytých Markovových modelů.

Pojmy „Viterbiho cesta“ a „Viterbiho algoritmus“ se používají i pro další podobné algoritmy dynamického programování, které hledají nejpravděpodobnější vysvětlení určitého pozorování. Například algoritmus dynamického programování pro statistické parsování lze použít na hledání nejpravděpodobnějšího bezkontextového odvození (parse) řetězce, který se někdy nazývá „Viterbiho odvození“.

Algoritmus navrhl Andrew Viterbi v roce 1967 pro dekódování konvolučních kódů na digitálních komunikačních linkách se šumem[1]. Od té doby se používá při dekódování konvolučních kódů používaných v mobilních sítích CDMA a GSM i v běžných telefonních modemech, pro komunikaci se satelity a kosmickými sondami do vzdáleného vesmíru, i v bezdrátových sítích podle standardu 802.11. Často se používá i při rozpoznávání a syntéze řeči, v počítačové lingvistice, pro vyhledávání klíčových slov a v bioinformatice. Například při rozpoznávání řeči se zvukový signál považuje za pozorovanou posloupnost událostí, a textový řetězec za „skrytou příčinu“ zvukového signálu. Viterbiho algoritmus hledá nejpravděpodobnější řetězec textu k danému zvukovému signálu.

Algoritmus

Předpokládejme, že je dán skrytý Markovův model (HMM) se stavovým prostorem , pravděpodobnostmi začátku ve stavu (počáteční pravděpodobnosti), pravděpodobnostmi pro přechod ze stavu do stavu (přechodové pravděpodobnosti). Pokud pozorujeme výstupní posloupnost , pak nejpravděpodobnější posloupnost stavů , která produkuje pozorovaný výstup, je dána rekurentními vztahy:[2]

kde je pravděpodobnost nejpravděpodobnější posloupnosti stavů odpovědné za prvních pozorování, jejíž koncový stav je . Pro získání Viterbiho cesty lze používat zpětné ukazatele, které zachycují, jaký stav byl použit ve druhé rovnici. Nechť je funkce, která vrací hodnotu použitou pro výpočet pokud , nebo pokud . Pak:

(používáme standardní definici arg max).

Složitost tohoto algoritmu je .

Pseudokód

Pokud je dán prostor pozorování , stavový prostor , posloupnost pozorování , matice přechodů velikosti tak, že obsahuje přechodovou pravděpodobnost přechodu ze stavu do stavu , výstupní matice velikosti taková, že obsahuje pravděpodobnosti pozorování ze stavu , pole počátečních pravděpodobností velikosti takové, že obsahuje pravděpodobnost, že . Nechť posloupnost je cestou, která generuje pozorování .

V tomto problému dynamického programování vytváříme dvě dvourozměrné tabulky velikosti . Každý prvek , , obsahuje pravděpodobnost zatím nejpravděpodobnější cesty s , která generuje . Každý prvek , , obsahuje zatím nejpravděpodobnější cesty pro každé

Naplníme položky dvou tabulek rostoucí posloupností .

, a
   VSTUP:  Prostor pozorování , 
           stavový prostor , 
           posloupnost pozorování   taková, že  pokud 
             pozorování v čase  je ,
           matice přechodů  velikosti  tak, že  obsahuje přechodovou
             pravděpodobnost přechodu ze stavu  do stavu ,
           emission matrix  velikosti  tak, že  obsahuje pravděpodobnost
             pozorování  ze stavu , 
           pole počátečních pravděpodobností  velikosti  takové, že  obsahuje pravděpodobnost, že
             
   VÝSTUP: Nejpravděpodobnější skrytá posloupnost stavů 
A01 function VITERBI(O, S, π, Y, A, B): X
A02     for each state si do
A03         T1[i,1]πiBi
A04         T2[i,1]←0
A05     end for
A06     for i2,3,...,T do
A07         for each state sj do
A08             T1[j,i]
A09             T2[j,i]
A10         end for
A11     end for
A12     zT
A13     xT←szT
A14     for iT,T-1,...,2 do
A15         zi-1←T2[zi,i]
A16         xi-1szi-1
A17     end for
A18     return X
A19 end function

Příklad

Představte si lékaře, který má pečovat o ženu císaře trpící neustále se vracející nemocí. Projevy nemoci lze léčit; tato léčba je nepříjemná, ale nemocné uleví. Problém je, že lékař císařovnu nemůže sám vyšetřit, dostává pouze každý třetí den lísteček s informací, jak se císařovna cítí (výborně, slabě, na umření). Na základě těchto informací má lékař posoudit, zda je císařovna zdravá nebo nemocná a má být podrobena léčbě.

Lékař se domnívá, že zdravotní stav císařovny se chová jako diskrétní Markovův řetězec. Situaci, kdy lékař nemůže přímo zkoumat zdravotní stav císařovny, lze popsat jako skrytý Markovův model (HMM).

Lékař ví, jaká je pravděpodobnost nemoci císařovny a jak pravděpodobně se cítí, když je zdravá nebo nemocná. Jinak řečeno parametry HMM jsou známé. Mohou být reprezentovány následujícím programem v jazyce Python:

states = ('Zdravá', 'Nemocná')
 
observations = ('výborně', 'slabě', 'na umření')
 
start_probability = {'Zdravá': 0.6, 'Nemocná': 0.4}
 
transition_probability = {
   'Zdravá' : {'Zdravá': 0.7, 'Nemocná': 0.3},
   'Nemocná' : {'Zdravá': 0.4, 'Nemocná': 0.6},
   }
 
emission_probability = {
   'Zdravá' : {'výborně': 0.5, 'slabě': 0.4, 'na umření': 0.1},
   'Nemocná' : {'výborně': 0.1, 'slabě': 0.3, 'na umření': 0.6},
   }

V tomto kusu kódu start_probability reprezentuje lékařovo přesvědčení, v jakém stavu je HMM, když dostal první zprávu o tom, jak se císařovna cítí (jediné, co ví, je, že je častěji zdravá). Zde použité rozložení pravděpodobnosti není vyvážené; podle přechodové pravděpodobnosti by bylo přibližně {'Zdravá': 0.57, 'Nemocná': 0.43}. transition_probability reprezentuje změnu zdravotního stavu ve skrytém Markovově řetězci. V tomto příkladě je jenom 30% pravděpodobnost, že za tři dny bude císařovna nemocná, když je dnes zdravá. emission_probability reprezentuje pravděpodobnosti jednotlivých informací. Pokud je císařovna zdravá, je 50% pravděpodobnost, že se cítí výborně; pokud je nemocná, je 60% pravděpodobnost, že se cítí na umření.

Na obrázcích jsou použity názvy z původního anglického příkladu (skryté zdravotní stavy jsou Healthy = Zdravá, Fever = Nemocná; oznámené pocity jsou Dizzy = na umření, Cold = slabě, Normal = výborně)

Grafická reprezentace zadaného HMM

Lékař dostal s postupně tři zprávy o tom, jak se císařovna cítí, první zpráva byla výborně, druhá slabě, třetí na umření a chce zjistit, jaká je nejpravděpodobnější posloupnost zdravotních stavů císařovny, která by vysvětlila tato pozorování? Odpověď poskytne Viterbiho algoritmus:

# Vizualizace Viterbiho algoritmu.
def print_dptable(V):
    print "    ",
    for i in range(len(V)): print "%7d" % i,
    print

    for y in V[0].keys():
        print "%.5s: " % y,
        for t in range(len(V)):
            print "%.7s" % ("%f" % V[t][y]),
        print

def viterbi(obs, states, start_p, trans_p, emit_p):
    V = [{}]
    path = {}

    # Initialize base cases (t == 0)
    for y in states:
        V[0][y] = start_p[y] * emit_p[y][obs[0]]
        path[y] = [y]

    # Run Viterbi for t > 0
    for t in range(1,len(obs)):
        V.append({})
        newpath = {}

        for y in states:
            (prob, state) = max([(V[t-1][y0] * trans_p[y0][y] * emit_p[y][obs[t]], y0) for y0 in states])
            V[t][y] = prob
            newpath[y] = path[state] + [y]

        # Don't need to remember the old paths
        path = newpath

    print_dptable(V)
    (prob, state) = max([(V[len(obs) - 1][y], y) for y in states])
    return (prob, path[state])

Argumenty funkce viterbi jsou: obs je posloupnost pozorování, např. ['výborně', 'slabě', 'na umření']; states je množina skrytých stavů; start_p je start pravděpodobnost; trans_p jsou přechodové pravděpodobnosti; a emit_p jsou výstupní pravděpodobnosti. Pro jednoduchost kódu předpokládáme, že posloupnost pozorování obs je neprázdná a že trans_p[i][j] a emit_p[i][j] jsou definované pro všechny stavy i,j.

V našem příkladě se dopředný Viterbiho algoritmus používá takto:

def example():
    return viterbi(observations,
                   states,
                   start_probability,
                   transition_probability,
                   emission_probability)
print example()

To ukazuje, že pozorování ['výborně', 'slabě', 'na umření'] byla s největší pravděpodobností generována posloupností stavů ['Zdravá', 'Zdravá', 'Nemocná']. Jinými slovy, na základě pozorovaných dat byla císařovna s největší pravděpodobností při odeslání první a druhé zprávy zdravá (poprvé se cítila výborně, podruhé slabě), a při odeslání třetí byla nemocná.

Funkci Viterbiho algoritmu lze vizualizovat pomocí trellis diagramu. Viterbiho cesta je v zásadě nejkratší cesta tímto trellisem. Trellis pro příklad s císařovnou je níže; odpovídající Viterbiho cesta je tučně:

Animace trellis diagramu Viterbiho algoritmu. Po třetí informaci o stavu je nejpravděpodobnější cesta ['Zdravá', 'Zdravá', 'Nemocná']

Při implementaci Viterbiho algoritmu je nutné zmínit, že mnoho jazyků používá aritmetiku s pohyblivou řádovou čárkou – pokud jsou hodnoty pravděpodobností malé, může dojít k podtečení výsledku. Obvyklá technika, jak se tomu vyhnout, je používat během celého výpočtu logaritmus pravděpodobnosti, tatáž technika použitá v Logarithmic Number System. Po skončení algoritmu lze získat správnou hodnotu pomocí exponenciální funkce.

Rozšíření

Zobecnění Viterbiho algoritmu nazývané max-sum algoritmus (nebo max-product algoritmus) lze použít pro nalezení nejpravděpodobnějšího přiřazení všech nebo určitých podmnožinách skrytých proměnných ve velkém množství grafických modelů, např. Bayesovské sítě, Markov náhodná pole a podmíněná náhodná pole. Skryté proměnné musí být obecně propojeny nějakým způsobem na HMM, s omezeným počtem spojení mezi proměnnými a určitým typem lineární struktury mezi proměnnými. Obecný algoritmus využívá mechanismus předávání zpráv a v zásadě se podobá algoritmu belief propagation (který je zobecněním forward-backward algoritmu).

Pomocí algoritmu nazývaného iterativní Viterbiho dekódování lze najít podposloupnost pozorování, která vyhovuje nejlépe (v průměru) dané HMM. Tento algoritmus navrhl Qi Wang, etc.[3] pro zpracování turbo kódů. Iterativní Viterbi dekódování pracuje iterativně vyvoláním modifikovaného Viterbiho algoritmu, znovu odhadnutím skóre pro výplňku při konvergenci.

Nedávno byl navržen alternativní algoritmus, líný Viterbiho algoritmus[4]. Pro mnoho kódů používaných v praxi, při rozumném šumu, je dekodér používající líný Viterbiho algoritmus mnohem rychlejší než tradiční Viterbiho dekodér[5]. Líný Viterbiho algoritmus neexpanduje uzly, dokud to není opravdu nutné, a obvykle vyžaduje mnohem méně výpočtů, aby došel ke stejnému výsledku jako normální Viterbiho algoritmus – není ho však snadné hardwarově paralelizovat.

Existuje rozšíření Viterbiho algoritmu, aby pracoval s deterministickým konečným automatem pro zlepšení rychlosti při stochastické konverzi písmen na fonémy[6].

Související články

  • Baum–Welchův algoritmus
  • Forward-backward algoritmus
  • Forward algoritmus
  • Samoopravný kód
  • Viterbiho algoritmus s měkkým výstupem
  • Viterbiho dekodér
  • Markovův model i Skrytý Markovův model
  • Part-of-speech tagging

Literatura

  • Viterbi AJ. Error bounds for convolutional codes a an asymptotically optimum decoding algorithm. IEEE Transactions on Information Theory. 1967, s. 260–269. Dostupné online. DOI 10.1109/TIT.1967.1054010. (anglicky)  (note: the Viterbi decoding algoritmus je described in section IV.) Subscription required.
  • Feldman J, Abou-Faycal I, Frigo M. A Fast Maximum-Likelihood Decoder for Convolutional Codes. Vehicular Technology Conference. 2002, s. 371–375. DOI 10.1109/VETECF.2002.1040367. (anglicky) 
  • Forney GD. The Viterbi algorithm. Proceedings of the IEEE. 1973, s. 268–278. Dostupné online. DOI 10.1109/PROC.1973.9030. (anglicky)  Subscription required.
  • PRESS, WH; TEUKOLSKY, SA; VETTERLING, WT; FLANNERY, BP. Numerical Recipes: The Art of Scientific Computing. 3rd. vyd. [s.l.]: Cambridge University Press, 2007. ISBN 978-0-521-88068-8. Kapitola Section 16.2. Viterbi Decoding. (anglicky) 
  • Rabiner LR. A tutorial on hidden Markov models and selected applications in speech recognition. Proceedings of the IEEE. 1989, s. 257–286. DOI 10.1109/5.18626. (anglicky)  (Describes the forward algoritmus and Viterbi algorithm for HMMs).
  • Shinghal, R. a Godfried T. Toussaint, "Experiments in text recognition with the modified Viterbi algoritmus," IEEE Transactions on Pattern Analysis a Machine Intelligence, Vol. PAMI-l, April 1979, pp. 184–193.
  • Shinghal, R. a Godfried T. Toussaint, "The sensitivity of the modified Viterbi algoritmus to the source statistics," IEEE Transactions on Pattern Analysis a Machine Intelligence, vol. PAMI-2, March 1980, pp. 181–185.

Reference

V tomto článku byl použit překlad textu z článku Viterbi algorithm na anglické Wikipedii.

  1. 29 Apr 2005, G. David Forney Jr: The Viterbi Algorithm: A Personal History
  2. Xing E, slide 11
  3. Qi Wang, Lei Wei; Rodney A. Kennedy. Iterative Viterbi Decoding, Trellis Shaping,a Multilevel Structure for High-Rate Parity-Concatenated TCM. IEEE TRANSACTIONS ON COMMUNICATIONS. 2002, s. 48–55. (anglicky) 
  4. (December 2002) "A fast maximum-likelihood decoder for convolutional codes" (PDF) in Vehicular Technology Conference.: 371–375. doi:10.1109/VETECF.2002.1040367. 
  5. (December 2002) "A fast maximum-likelihood decoder for convolutional codes" (PDF) in Vehicular Technology Conference.. doi:10.1109/VETECF.2002.1040367. 
  6. Luk, R.W.P., R.I. Damper. Computational complexity of a fast Viterbi decoding algoritmus for stochastic letter-phoneme transduction. IEEE Trans. Speech a Audio Processing. 1998, s. 217–225. DOI 10.1109/89.668816. (anglicky) 

Implementace

Externí odkazy

Média použitá na této stránce

An example of HMM.png
Autor: Reelsun, Licence: CC BY-SA 3.0
An example of HMM model
Viterbi animated demo.gif
Autor: Schiessl, Licence: CC BY-SA 3.0
An animated demonstration of the Viterbi algorithm, based on the HMM model: File:An_example_of_HMM.png