Entropie
Z Wikipedie, otevřené encyklopedie
Entropie je obecně veličina udávající míru neuspořádanosti zkoumaného systému nebo také míru neurčitosti daného procesu.
[editovat] Termodynamická entropie
Termodynamická entropie, nebo v kontextu termodynamiky jen krátce entropie, představuje míru neuspořádanosti systému (např. molekul plynu). Název entropie pochází ze složení řeckých slov en (teplo) a trop (měnit), tedy energie přeměněná na nevyužitelnou (=teplo). V tomto smyslu ji definoval Ludwig Boltzmann v roce 1887 a entropie se tak stala jedním ze základních konceptů nového oboru statistické mechaniky.
Pokud se entropie procesu zvyšuje, je tento proces nevratný (ireverzibilní). Pokud zůstává konstantní, je tento proces vratný (reverzibilní), jako např. u ideálního Carnotova kruhového děje.
Celková entropie uzavřeného systému se nemůže nikdy zmenšit. V přírodě tedy všechny děje směřují do více neuspořádaného stavu. Stejně tak roste entropie ve vesmíru. Dle předpokladů L. Boltzmana se jeví jako nejpravděpodobnější konečný stav vyrovnání pohybových energií molekul. To znamená, že by se konečné hodnoty entropie ve vesmíru dosáhlo tehdy, kdyby se vyrovnaly veškeré teplotní rozdíly (tepelná smrt).
Jiný přístup k entropii nabídl dříve Rudolf Clausius v kontextu klasické termodynamiky. Podle něj je entropie měřítkem „kvality“ tepla. Například teplo získané z horkého tělesa (například páry v parním stroji) může vykonat více užitečné práce než teplo získané z méně teplého tělesa (například ochlazováním kostky ledu). Entropie v tomto pojetí vyjadřuje vztah mezi množstvím přestupujícího tepla a teplotou.
Jednotkou entropie v soustavě SI je J/K, tedy Joule na Kelvin, což je zároveň jednotka tepelné kapacity.
[editovat] Informační entropie
Informační entropie velmi úzce souvisí s termodynamickou entropií, ačkoliv toto spojení se ukázalo být zřejmé až po mnoha letech nezávislého studia termodynamické entropie a informační entropie. Často je také nazývana Shannonovou entropií po Claude E. Shannonovi, který zformuloval mnoho klíčových poznatků teoretické informatiky. Obecně pro systém s konečným počtem možných stavů
a pravděpodobnostní distribucí P(si) je informační entropie definována jako střední hodnota:
Zde formálně definujeme, že
.
Entropie je maximální pro rovnoměrné rozložení
:
,
a minimální pro zcela deterministický systém
:
.
[editovat] Externí odkazy
- CoJeCo, výsledky vyhledávání, Entropie: http://cojeco.cz/index.php?s_term=entropie
- ABZ.cz, slovník cizáích slov, Entropie: http://slovnik-cizich-slov.abz.cz/web.php/slovo/entropie


