情報量

情報量の定義
- \log P(E)
ただし、P(E)事象Eの発生確率とする。


で、何の話かと言いますと。
情報量なんて、かなり曖昧でいい加減な数値だと思いませんか?
この定義自体は適当だと私は信じています。
発生しにくい事象ほど多くの情報量を含み、その逆は情報量が少ない。
言葉で言うとちょっと難しいかもしれないけど、例えば…


一等賞の宝くじを当てる確率はかなり低い、よって情報量が多いと考えることができる。
たしかに、多くの情報を含んでいる事象だけあって、宝くじが一等賞ってのはかなり驚くと思います。
そう考えると「情報量びっくり度合い」と考えて差し支えないです。


で、更にこの前提で考えていくと…
ほとんど喋らなかった人が喋る確率は低いですね。


…?
そう考えると、喋り続けて長さで情報量を稼ぐ方法の他に
全く喋らないで、喋る確率の低い事柄をぼそりと一言で情報量を稼ぐ方法も考えられるかもしれません。
実用的かどうかは置いておくにしても、注目くらいは浴びることができるかも(?)
目立ちたい人は是非試してみてください、できれば首尾も聞かせてください。