Hírérték

A Wikipédiából, a szabad lexikonból.

A hírérték fogalmát Shannon a nevéhez fűződő logaritmikus formulával fogalmazta meg. Erről később így ír: Rájöttünk, hogy egy üzenet értéke nem annak hosszával, hanem inkább a váratlanságával hozható kapcsolatba (Shannon-Weaver: A kommunikáció matematikai elmélete).


Tartalomjegyzék

[szerkesztés] Definíció

Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az értéke:

I (h)= k\cdot  \log _{a}(1/p)

[szerkesztés] Magyarázat

A definíció a Shannon-féle kommunikációs modellre hivatkozik. A formulában szereplő k és a (a logaritmus alapja) szabadon választható, a mértékegységet meghatározó paraméterek. A p valószínűség reciproka a megfelelő esemény bekövetkezésének váratlansága: a kis valószínűségű esemény nagyon „meglepő”, a nagy valószínűségű viszont „banális”. Szokás a formulát a paraméterek elhagyásával és a tört kiküszöbölésével idézni:

I(h) = − logp

A logaritmus biztosítja, hogy a mérték additív legyen, azaz egy összetett hír értékét a részek értékének összege adja: -\log (p_{1}\cdot p_{2})=-\log (p_{1})-\log (p_{2}). Feltesszük a modellben, hogy az összetett hír komponensei független valószínűségű eseményekről tudósítanak. (V.ö.: valószínűségszámítás)

A formula a hőtanban használt egyik mennyiség, az entrópia formulájára emlékeztet, s a hírforrás (kibernetikai rendszer) átlagos hírértéke is rokonítható azzal.

[szerkesztés] Példa

A magyar kártya 32 lapjából egyet p=1/32 valószínűséggel húzunk ki. Az eseményről tudósító hír (bináris) értéke log2(32) = 5bit. Ha külön közlik a kihúzott kártya színét és értékét, akkor e részletek értéke log2(4) = 2bit illetve log2(8) = 3bit, s ezzek összege adja a teljes hír értékét.

[szerkesztés] Lásd még