Entropy-mutual-information-relative-entropy-relation-diagram


Autor:
Formát:
744 x 524 Pixel (18497 Bytes)
Popis:
This diagram shows the relation between the entropies of two random variables X and Y and their mutual information, joint entropy and relative (conditional) entropies.
Licence:
Public domain
Credit:
Vlastní dílo
Sdílet obrázek:
Facebook   Twitter   Pinterest   WhatsApp   Telegram   E-Mail
Více informací o licenci na obrázek naleznete zde. Poslední aktualizace: Fri, 22 Dec 2023 08:02:30 GMT


Relevantní články

Vzájemná informace

Vzájemná informace nebo (dříve) transinformace dvou náhodných proměnných je v teorii pravděpodobnosti a teorii informace míra vzájemné závislosti proměnných. Obvyklou jednotkou pro měření vzájemné informace je jeden bit. .. pokračovat ve čtení

Podmíněná entropie

Podmíněná entropie v teorii informace kvantifikuje množství informace potřebné pro popsání výsledku náhodného pokusu , pokud je známá hodnota jiné náhodné proměnné . Měří se stejně jako informační entropie v bitech, někdy v „přirozených jednotkách“ (natech) nebo v desítkových číslicích. Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie. .. pokračovat ve čtení