Entropy-mutual-information-relative-entropy-relation-diagram
Relevantní články
Vzájemná informaceVzájemná informace nebo (dříve) transinformace dvou náhodných proměnných je v teorii pravděpodobnosti a teorii informace míra vzájemné závislosti proměnných. Obvyklou jednotkou pro měření vzájemné informace je jeden bit. .. pokračovat ve čtení
Podmíněná entropiePodmíněná entropie v teorii informace kvantifikuje množství informace potřebné pro popsání výsledku náhodného pokusu , pokud je známá hodnota jiné náhodné proměnné . Měří se stejně jako informační entropie v bitech, někdy v „přirozených jednotkách“ (natech) nebo v desítkových číslicích. Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie. .. pokračovat ve čtení