生起確率
なお、
(1)
(2)3次の拡大情報源
4つの記号
とするとき、情報源のエントロピー

情報量とは
情報の珍しさを示しています。
確率
確率Pが小さければ小さいほど、その情報は珍しい=情報量が大きいという解釈になります。
院試では、情報量の計算より下記のエントロピーの計算が問われることが多いです。
背景知識として持っておきましょう。
エントロピーとは
情報の乱雑さを表しています。
確率
問題を解くうえでの留意点
最終着地点は(1)式です。各問題で求められている確率
ただ、問題で提示されている
よって、ある事象を二つの構成要素
一方で、
今ある確率が0.5以下のとき、確率が大きくなるとエントロピーは増加傾向。0.5以上の時は減少傾向であるイメージを持っておきましょう。
また、確率0.1のエントロピーと確率0.9の2値エントロピー関数は等しいです。
0.5を境に対称な点は、片方のエントロピーを求めるだけで良いことと覚えましょう。
拡大情報源のエントロピーの計算方法
拡大情報源とは
情報源Sの記号から重複を許してN個を取る順列を作り、それぞれを集合族として表したものです。
例えば、2次の拡大情報源
それぞれの発生確率を求め、エントロピーを足し合わせても良いのですが、下記の式でも求めることができます。
1次の情報源のエントロピーに対しN倍することで求めることができます。
知っていれば、すぐに解けますので暗記をオススメします。問題1 (3)でやります。
エントロピーの最大化条件について
ラグランジュの未定乗数法を用います。
以前の記事で類似の説明をしました。
目的の関数を
とします。
補足
厳密には、ラグランジュの未定乗数法は”極値”を与える際に実施する計算です。関数の素性が不明な場合、極小値を求める可能性もありますが、今回のエントロピー関数は上に凸です。
そのため、求めた極値は極大値にあたります。また、限られた範囲における極大値は、その範囲における最大値を意味しています。
よって、本問の条件下において最大値を求めることができます。
実際に問題を解いて、どのような時に最大値を取るか確認しましょう。
解答例(問題1)
(1)情報量とエントロピー
情報量
エントロピー
(3)式より
(2)3次の拡大情報源のエントロピー
(4)式の関係より、(5)式の結果を用いれば
補足
(3)式を用いれば簡単に求められますが、直接計算することでも結果が一致することを確認します。
3次拡大情報源の組み合わせとして、(000,001,010,011,100,101,110,111)の8通りある。
(2)より、1が出る回数が等しければ、0,1が出る順番に依らず発生確率は同じ。発生確率が同じ組み合わせのエントロピーは同じなので、1が出る回数ごとにグループ分けをする。
1の出る回数 | 確率 | エントロピー |
0回 | 0.332 | |
1回 | 0.881 | |
2回 | 0.183 | |
3回 | 0.010 | |
合計 | 1.406 |
面倒なので、上記の表はエクセルで計算しました。小数点第2,3位に誤差はありますが、同じであることが確認できました。
解答例(問題2)
まず、
(1)式と(6)式を連立することにより
のとき、エントロピー関数
解釈

上記のように全ての事象の発生確率が等しいとき、エントロピーが最大化することが分かりました。
もし、情報源の数がn個だとすると、それぞれの事象
上記の原則は、エントロピーの最大原理と呼ばれています。
最後に
エントロピーの最大化条件に関する問題は、意外と院試で出題されます。
本問のように、微分でしっかり計算することも重要ですが、2値エントロピー関数の場合、確率0.5で最大になることも合わせて覚えておくと良いでしょう。