「情報」とは何か。1948年、クロード・シャノンはこの問いに数学的な答えを与えた。予測困難なほど情報量が多い。コイントスは1ビット、サイコロは約2.6ビット。この「不確実性の量」がエントロピーであり、データ圧縮から機械学習の損失関数まで、あらゆる場所に現れる。

エントロピー 情報量 シャノン ビット 不確実性

情報量

自己情報量(Self-Information)

I(x) = -log₂ P(x)

確率 P(x) の事象が起きたときの「驚き」の量。

単位:ビット(底が2の場合)

確率が低いほど、情報量が多い。

事象 確率 情報量
コインで表 1/2 1 ビット
サイコロで1 1/6 約 2.58 ビット
確実な事象 1 0 ビット

シャノンエントロピー

シャノンエントロピー(Shannon Entropy)

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)

情報量の期待値。

確率分布の「不確実性」の総量。

エントロピーの性質

状況 エントロピー
結果が確定(確率1) 0(不確実性なし)
すべて等確率 最大(最も不確実)
偏った分布 低い(予測しやすい)

データ圧縮との関係

エントロピーはデータ圧縮の理論的限界を表す。エントロピーがHビットなら、平均してH ビット未満には圧縮できない(シャノンの符号化定理)。

例:英語のテキストはエントロピーが低い(文字の出現頻度が偏っている)ため、効率的に圧縮できる。

実務での応用

WEB開発での応用

データ圧縮:gzip, Brotli などの圧縮アルゴリズムの理論的基盤。

パスワード強度:ランダムなパスワードのエントロピーで強度を測定。

ログ分析:異常検知でエントロピーの変化を監視。

AI/MLでの応用

決定木:情報利得(エントロピーの減少)で分割基準を決定。

交差エントロピー損失:分類タスクの標準的な損失関数。

探索と活用:方策のエントロピーを正則化に使用(SAC など)。

生成モデル:サンプリング温度でエントロピーを制御。

深掘りリンク

  • Wikipedia: 情報エントロピー
  • 論文:Shannon (1948) "A Mathematical Theory of Communication"
  • 動画:3Blue1Brown「情報理論」
  • 次のステップ:相互情報量、KLダイバージェンス