確率論に独自の概念

ほかの数学にはみられない確率論独自の概念はあるのだろうか?
と問われると、それは条件付期待値であると答える。

条件付期待値というのは確率変数のでたらめさを弱める操作である。たとえば、三つの確率変数 X, Y, Z から決まる確率変数 W = f(X, Y, Z) について考えてみる。

この変数 W の値を知るためには X と Y と Z の値が分かれば十分である。三つの変数に依存しているのでかなりでたらめな変数である。W を改造して X と Y の値が分かれば十分な変数にしたいと思ったら、Z について(直感的には)期待値をとって、Zに依存してる部分をならしてしまえばいいわけである。そうやってできた変数は X と Y によって決まる g(X, Y) の形の変数で、E[W|X,Y]と書いて、X と Y が分かったときの W の条件付期待値と呼ぶ。

さらにでたらめさを減らして、X が分かったときの W の条件付期待値は E[W|X] と書き X の関数である。これらの変数を知るために必要な情報は
E[W|X] < E[W|X,Y] < E[W|X,Y,Z]=W
の順に大きくなる。これらの情報を確率論では σ(X), σ(X, Y), σ(X, Y, Z)と書くことになっている。情報は半順序をなしていて、最小の情報がある(なぜかこれを「2」と書く)。

最小の情報で条件付期待値をとると、もはやでたらめさは完全に失われて定数となり
E[W|2] = E[W]
つまり、ただの期待値となる。

結局、最もでたらめな変数から定数にいたるまでの途中の段階を条件付期待値というのである。