Slide9

Predavanje Saturn - gospodar prstenova

Predavanje „Najvišu planetu vidim trostruko ili Saturn - gospodar prstenova" biće održano u četvrtak 4. marta od 19:00 h. Predavač će biti prof. dr Dragan Gajić.Predavanje možete pratiti na sajtu i YouTube kanalu AD Alfa, kao i na ...
Slide8

Predavanje “Da Jupitera nije bilo, ni nas ne bi bilo!”

Predavanje „Da Jupitera nije bilo, ni nas ne bi bilo!“ biće održano u četvrtak 18. februara od 19:00 h. Predavač će biti prof. dr Dragan Gajić.Predavanje možete pratiti na sajtu i YouTube kanalu AD ...
Slide7

Predavanje: “Mars – Mirna planeta boga rata”

Predavanje „Mars – Mirna planeta boga rata“ biće održano u četvrtak 11. februara od 19:00 h. Predavač će biti prof. dr Dragan Gajić.Predavanje možete pratiti na sajtu i YouTube kanalu Astronomskog društva “Alfa” iz Niša, kao ...
earth-sun

Svet nauke u 2020. godini

Stigao je kraj još jedne i to prilično "lude" godine. Godine u kojoj ništa nije bilo isto kao pre, godine u kojoj se mnogo toga promenilo, godine u kojoj mnogo ...
predavanje-02

Predavanje “Sunce – zvezda Sunčevog sistema”

U četvrtak 24. decembra od 19 h biće održano online predavanjeSunce – zvezda Sunčevog sistemapredavač će biti dr Milan Milošević. Predavanje možete pratiti na sajtu AD Alfa i na našem YouTube kanalu, kao i na ...
Jupiter-and-Saturn-777x466-1

Velika konjunkcija Jupitera i Saturna

Sutra, u ponedeljak 21. decembra 2020. godine dve najveće planete Sunčevog sistema. Jupiter i Saturn, na nebu će izgledati vrlo blizu. Kad padne mrak, na zapadu, nisko na horizontu sijaće ...

Entropija i teorija informacija 1

Primena entropije na teoriju informacija u stvari predstavlja statistički opis informacija, izvora informacija i operacija sa njima (kompresovanje itd.).

Teorija informacija je grana primenjene matematike nastala u 20 veku. Osnovu ove teorije čine radovi „Prenos informacija“ koji je objavio Ralf Hartli 1928 zatim možda i najvažniji „Matematička teorija komunikacije“ Kloda Šenona iz 1948 i „Kibernetika“ koju je takođe 1948 godne objavio Norbert Viner. Hartli je prvi definisaoizraz za količinu informacije , Šenon je uz pomoć matematičara Von Njumana definsao entropiju izvora informacija proučavajući izgubljene signale u telefonskim žicama a Viner je dao svoju teoriju po kojoj je informacija mera uređenosti dok je neodređenost mera neorganizovanosti i po količinama su iste pa važi

(информација) = (неодређеност).

U matematici je svaki iskaz ili tačan (T) ili netačan (┴) i to je osnova binarne logike (o ili 1). Međutim problem nastaje kada se postavi pitanje čiji odgovor je neodređen odnosno nije samo T ili ┴.

Na primer pitanje: „koje je boje zid?“. Ako imamo 6 ponuđenih boja i vervatnoć da je svaka od njih tačan odgovor jednaka kako da postavljamo pitanja da dobijamo tačan odgovor?

U teoriji se pokazuje da ako imamo 2n mogućih i isto verovatnih odgovora ( p(n)═1/n) treba da postavimo n binarnih pitanja da pi sigurno znali odgovora. Zbog toga je Hartli predložio da se količina informacija računa kao negativan logaritam verovatnoće njenog pojavljivanja.Jedinica za količinu informacija je 1 bit mada postoje i Šenon po simbolu (shanon/symbol) a koristi se i Hartli po  simbolu (Hartley/symbol)

I(p) = −log2 (n) = log2n za p(n) ═ 1/n

Logaritam verovatnoće je negativan broj!!!! Takođe mogu da se koriste i druger osnove za logaritam

npr. 10, e – Ojlerov broj, ali i dualni logaritam ld I=l_d \frac {1} {P(S_i)}

Međutim, nakon ovoga javlja se problem u slučaju kada nije verovatnoća svih mogućih odgovora ista. Ovaj problem rešili su Šenon i Viver i to nezavisno jedan od drugog ali su dobili isto rešenje.

Na primer ako imamo dva moguća rešenja verovatnoće P1 i P2 tada je količina informacija za prvi slučaj I1 ═ -log2 P1 a za drugi I2 ═ -log2 P2. Srednja vrednost tj. matematičko očekivanje za ova dva broja je I = − P1I1 − P2I2.

U opštem slučaju za n ═ 2,3,4,5………. i za P1, P2, P3……..Pn važi

I = − P1log2P1 − P2log2P2 − … − PnlognPn.

Ovako definisana srednja vrednost količine informacija predstavlja entropiju odnosno neodređenost.

Ovu definiciju dao je Šenon koji je bio inžinjer i matematičar uz pomoć još von Njumana koji mu je pomogao i u davanju imena veličini jer je Šenon upotrebljavao izraz neodređenost ali mu je von Njuman rekao da je nazove entropija zbog sličnosti sa ovom veličinom u termodinamici a izbog togo što kako je rekao entropiju niko ne razume pa će mu to pomoći eventualnim debatama.

Za razliku od Šenona, Viver je do svog rešenja došao koristeći termodinamiku odnosno Bolcmanove radove. On je entropiju označio sa H i došao do formule

H(P1, P2, P3,…) = − P1log2P1 − P2log2P2 − P3log2P3 − ….

I = H

Series NavigationEntropija i teorija informacija 2Čovek i entropija

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d bloggers like this: