【情報理論】情報源の情報量とエントロピーの計算問題

問題1

生起確率P(0)=0.9,P(1)=0.1の2元情報源s1がある。以下の問に答えよ。
なお、log20.9=0.15,log20.1=3.3を用いて良い。

(1)s1の情報量とエントロピーを求めよ。
(2)3次の拡大情報源s3のエントロピーHs3を求めよ。

問題2

4つの記号S0,S1,S2,S3の情報源がある。発生確率がそれぞれp0,p1,p2,p3とする。発生確率が

(1)p0+p1+p2+p3=1

とするとき、情報源のエントロピー(2)H(S)=p0log2p0p1log2p1p2log2p2p3log2p3を最大化する確率p0,p1,p2,p3を求めよ。

情報量とは

情報の珍しさを示しています。

確率Pの情報源に対する情報量は以下で表されます。

(3)i(P)=log2P

確率Pが小さければ小さいほど、その情報は珍しい=情報量が大きいという解釈になります。

院試では、情報量の計算より下記のエントロピーの計算が問われることが多いです。

背景知識として持っておきましょう。

エントロピーとは

情報の乱雑さを表しています。

確率Pの情報源があったとすると、下記の式で表されます。

(4)H(P)=Plog2P

問題を解くうえでの留意点

最終着地点は(1)式です。各問題で求められている確率Pを求めます。

ただ、問題で提示されているP(0)=0.9のエントロピーだけを求めても、事象全てのエントロピーを求めたことになりません。

P(1)=0.1のエントロピーも求め、足し合わせることで初めて事象全体のエントロピーが分かります。

よって、ある事象を二つの構成要素P(0),P(1)で表されている時、全体のエントロピーは以下になります。(2値エントロピー関数と言います。)

(5)H(P)=P(0)log2P(0)P(1)log2P(1)

P(0)=0.5すなわち、確率50%の事象を考える時、事象全体のエントロピーは1となり、最大となります。

一方で、P(0)=0,1のとき、0で最小となります。

今ある確率が0.5以下のとき、確率が大きくなるとエントロピーは増加傾向。0.5以上の時は減少傾向であるイメージを持っておきましょう。

また、確率0.1のエントロピーと確率0.9の2値エントロピー関数は等しいです。

0.5を境に対称な点は、片方のエントロピーを求めるだけで良いことと覚えましょう。

拡大情報源のエントロピーの計算方法

拡大情報源とは

情報源Sの記号から重複を許してN個を取る順列を作り、それぞれを集合族として表したものです。

例えば、2次の拡大情報源S2は、S200,01,10,11で表されます。

それぞれの発生確率を求め、エントロピーを足し合わせても良いのですが、下記の式でも求めることができます。

(6)H(sN)=NH(s1)

1次の情報源のエントロピーに対しN倍することで求めることができます。

知っていれば、すぐに解けますので暗記をオススメします。問題1 (3)でやります。

エントロピーの最大化条件について

ラグランジュの未定乗数法を用います。

以前の記事で類似の説明をしました。

目的の関数をH(S)、制約条件g

(7)g(p0,p1,p2,p3)=p0+p1+p2+p31=0とし、ラグランジュ関数

(8)F(p0,p1,p2,p3)=H(S)λ(p0+p1+p2+p31)

とします。

Fp0=Fp1=Fp2=Fp3=Fλ=0のとき、与えられた制約条件下でのH(S)の極大値になります。

補足

厳密には、ラグランジュの未定乗数法は”極値”を与える際に実施する計算です。関数の素性が不明な場合、極小値を求める可能性もありますが、今回のエントロピー関数は上に凸です。

そのため、求めた極値は極大値にあたります。また、限られた範囲における極大値は、その範囲における最大値を意味しています。

よって、本問の条件下において最大値を求めることができます。

実際に問題を解いて、どのような時に最大値を取るか確認しましょう。

解答例(問題1)

(1)情報量とエントロピー

情報量

P(0)=0.9のとき、H(P(0))=0.15[bit]

P(1)=0.1のとき、H(P(1))=3.3[bit]

エントロピー

(3)式より

(9)H(s)=(0.9log20.9+0.1log20.1)=0.465[bit]

(2)3次の拡大情報源のエントロピー

(4)式の関係より、(5)式の結果を用いれば

(10)H(s3)=3H(s)=1.395[bit]

補足

(3)式を用いれば簡単に求められますが、直接計算することでも結果が一致することを確認します。

3次拡大情報源の組み合わせとして、(000,001,010,011,100,101,110,111)の8通りある。

(2)より、1が出る回数が等しければ、0,1が出る順番に依らず発生確率は同じ。発生確率が同じ組み合わせのエントロピーは同じなので、1が出る回数ごとにグループ分けをする。

1の出る回数確率エントロピー
0回0.93=0.7290.332
1回0.920.1=0.0810.881
2回0.90.12=0.0090.183
3回0.13=0.0010.010
合計1.406

面倒なので、上記の表はエクセルで計算しました。小数点第2,3位に誤差はありますが、同じであることが確認できました。

解答例(問題2)

まず、p0について考える。(8)式をp0で偏微分すると

(11)Fp0=log2p0log2eλ=0

p1,p2,p3についても同様の計算が成り立つので

(12)p0=p1=p2=p3

Fλの計算結果は(1)式と一致する。

(1)式と(6)式を連立することにより

(13)p0=p1=p2=p3=0.25

のとき、エントロピー関数H(S)は最大化する。

解釈

上記のように全ての事象の発生確率が等しいとき、エントロピーが最大化することが分かりました。

もし、情報源の数がn個だとすると、それぞれの事象pii=0,1,,nの確率が全て1/nの時、エントロピー最大になります。

(14)H(S)=i=1nlog21n=log2n

上記の原則は、エントロピーの最大原理と呼ばれています。

最後に

エントロピーの最大化条件に関する問題は、意外と院試で出題されます。

本問のように、微分でしっかり計算することも重要ですが、2値エントロピー関数の場合、確率0.5で最大になることも合わせて覚えておくと良いでしょう。

タイトルとURLをコピーしました