Ентропия на Шанън: Разлика между версии

от Уикипедия, свободната енциклопедия
Изтрито е съдържание Добавено е съдържание
RedBot (беседа | приноси)
м Робот Добавяне: cy, fa, pt, ro, su, uk Промяна: en
Ред 50: Ред 50:
[[Категория:Дискретна математика]]
[[Категория:Дискретна математика]]


[[cy:Entropi gwybodaeth]]
[[de:Entropie (Informationstheorie)]]
[[de:Entropie (Informationstheorie)]]
[[el:Εντροπία πληροφοριών]]
[[el:Εντροπία πληροφοριών]]
[[en:Entropy (information theory)]]
[[es:Entropía (información)]]
[[es:Entropía (información)]]
[[fa:آنتروپی اطلاعات]]
[[en:Information entropy]]
[[fr:Entropie de Shannon]]
[[fr:Entropie de Shannon]]
[[ko:정보 엔트로피]]
[[it:Entropia (teoria dell'informazione)]]
[[he:אנטרופיה (סטטיסטיקה)]]
[[he:אנטרופיה (סטטיסטיקה)]]
[[hu:Shannon-entrópiafüggvény]]
[[hu:Shannon-entrópiafüggvény]]
[[it:Entropia (teoria dell'informazione)]]
[[ja:情報量]]
[[ja:情報量]]
[[ko:정보 엔트로피]]
[[nl:Entropie (informatietheorie)]]
[[nl:Entropie (informatietheorie)]]
[[pl:Entropia (teoria informacji)]]
[[pl:Entropia (teoria informacji)]]
[[pt:Entropia da informação]]
[[ro:Entropie informaţională]]
[[ru:Информационная энтропия]]
[[ru:Информационная энтропия]]
[[simple:Information entropy]]
[[simple:Information entropy]]
[[su:Éntropi informasi]]
[[sv:Entropi (informationsteori)]]
[[sv:Entropi (informationsteori)]]
[[th:เอนโทรปีของข้อมูล]]
[[th:เอนโทรปีของข้อมูล]]
[[uk:Інформаційна ентропія]]
[[vi:Entropy thông tin]]
[[vi:Entropy thông tin]]
[[zh:熵 (信息论)]]
[[zh:熵 (信息论)]]

Версия от 09:02, 2 март 2009

В рамките на теорията на информацията, централен обект на изследване е функцията ентропия на Шанън или липса на информация, която ще обозначаваме с .

Нека обозначим вероятностите за различните събития от дадено вероятностно пространство с . Ентропията на Шанън, която понякога се нарича и „липса на информация“, в статистическата механика е еквивалентна на ентропията. Функцията е дефинирана по следния начин:

, където C е константа, чиито смисъл ще стане ясен по-късно, а N е броят на възможните резултати (в статистическата механика - броят на възможните микросъстояния)

Нека например разгледаме ситуацията залагане на зарове. Притежателят на зара е измамник, който е обработил зара така, че да пада на определено число. Познаването на това число намалява стойността на функцията липса на информация, която понякога, за по-кратко се нарича и ентропия.

Минимум и максимум на ентропията (липсата на информация)

Ако зарът винаги пада на една страна, да кажем 4, то тогава вероятността е равна на 1, а всички други вероятности са 0. В този случай, функцията липса на информация става равна на:

и тъй като всички членове на това уравнение са равни на нула (заб. ), имаме:

.

Тоест, липсата на информация е нулева, когато със сигурност знаем изхода от даден опит, което, както виждаме, може да се изрази математически с така дефинираната функция липса на информация. Обратно, функцията липса на информация има максимум, когато отделните вероятности са равни. За да докажем това твърдение ще използваме метода с множителите на Лагранж:

От условието за нормировка следва: (сборът на всички вероятности е единица). Следователно, прибавянето на тази сума към ентропията и изваждането на единица не променя нищо:

Търсим точките, в частната производна по се анулира:

или

тоест, виждаме, че стойността на кое да е зависи само от константи, т.е. самото то е константа, която може да обозначим, например, с . Следователно, от условието за нормировка следва:

или

Видяхме, че когато липсата на информация е в максимум, вероятностите за различните изходи са равни помежду си. В рамките на статистическата механика това се интерпретира по следния начин: когато системата е в равновесие, ентропията е в максимум. След повторно изкарване от равновесие, съгласно втория принцип на термодинамиката, ентропията ще нарастне, докато отново не достигне максимум.

Връзка с ентропията

Както видяхме, когато ентропията (липса на информация) е максимална, всички -та са равни на . Тогава:

Ако заместим C с kB получаваме формулата на Болцман за ентропията, която показва връзката между ентропията и липсата на информация и оправдава наименованието „ентропия на Шанън“ за функцията „липса на информация“.

Смисъл на константата C

Този път измамникът играе не на зарове, а на ези-тура. Ако нямаме информация за системата, вероятността монетата на падне на ези е равна на вероятността монетата да падне на тура, . Ако знаем на коя страна ще падне монетата, липсата на информация е нулева. В теорията на информацията, Константата С е дефинирана така, че разликата в информацията за тези два случая да е 1, т.е.:

Виждаме, че C играе ролята на „бит информация“, т.е. в теорията на информацията един бит е . Както видяхме, в статистическата механика, ролята на С се играе от , така че един „бит ентропия“ в статистическата механика е константата на Болцман,

Източници

  • Mouhanna, D; Sator, N., Cours et TDs de Mécanique statistique, Université Pierre et Marie Curie, 2008

Външни препратки