Entropi Rate Dari Suatu Sumber


Entropy rate dari suatu sumber adalah suatu bilangan yang bergantung hanya pada statistik alami sumber. Jika sumber mempunyai suatu model sederhana, maka nilai tersebut dapat dengan mudah dikalkulasi. Berikut ini, contoh dari sumber yang berubah-ubah:
Dimana X merupakan teks dalam bahasa Inggris. Maka model statistik sumber di atas adalah sebagai berikut:
A.        Zero-Order Model. Karakter-karakter secara statistik bersifat bebas untuk setiap alphabet  A dan secara bersamaan muncul. Misalkan m merupakan ukuran dari alphabet. Dalam kasus ini, entropy rate dapat dinyatakan dengan persamaan:
                                                                  ................................................... (2.3)
Untuk teks dalam bahasa Inggris, ukuran alphabet m = 27. Jadi, jika ini merupakan model akurat untuk teks dalam bahasa Inggris, maka entropy rate akan bernilai H = log2 27 = 4,75 bits/character.
B.         First-Order Model. Karakter-karakter secara statistik bersifat bebas. Misalkan m adalah ukuran dari alphabet dan misalkan Pi merupakan probabilitas dari huruf ke-i dalam alphabet. Entropy ratenya adalah:
                                                                  ................................................... (2.4)

Dengan menggunakan first-order distribution, entropy rate dari teks Inggris sebesar 4,07 bits/character.
C.        Second-Order Model. Misalkan Pj½i adalah probabilitas yang berkondisi untuk karakter yang berlaku saat ini dan merupakan huruf ke-j dalam alphabet yang merupakan karakter sebelumnya yaitu huruf ke-i. maka entropy ratenya adalah:
                                                                                  .................................... (2.5)
Dengan menggunakan second-order distribution, entropy rate dengan model di atas adalah 3,36 bits/character.
D.        Third-Order Model. Misalkan Pk½j,i  adalah probabilitas berkondisi yang berlaku untuk karakter saat ini dan merupakan karakter ke-k dalam alphabet yang didapat dari karakter sebelumnya yaitu huruf ke-j dan satu karakter sebelum huruf ke-i. Entropy rate untuk model tersebut adalah:
                                                                                                    ................. (2.6)

Dengan menggunakan third-order distribution, entropy rate dari teks Inggris dengan model di atas adalah 2,77 bits/character.
E.         General Model. Misalkan Bn merepresentasikan karakter n pertama. Entropy rate dalam kasus yang umum dinyatakan dengan persamaan berikut ini:
                                                                                            ......................... (2.7)

Dimana seluruh jumlah dari semua mn merupakan kemungkinan nilai dari Bn. Adalah tidak mungkin untuk menghitung entropy rate menurut persamaan di atas. Dengan menghitung metoda prediksi, Shannon mampu memperkirakan entropy rate dari ke-27 teks Inggris adalah 2,3 bits/character.
            Hanya terdapat satu entropy rate untuk suatu sumber yang diberikan. Semua definisi di atas untuk entropy rate saling bersesuaian satu sama lainnya.

Popular posts from this blog

Kode Singkatan Komponen Listrik Dan Elektronik

Cara Mengatasi E31 Canon MP258

Cara Mengukur Trimpot