第5章 不確実性と情報 - Info Shako

『意思決定論』講義ノート(社会工学類、平成19年度 2 学期木曜日3,4時限)
第 5 章 不確実性と情報
5.1 はじめに
リスク下の意思決定においては、結果の集合上のくじを代替案として考えました。そこでは、意思
決定の結果がくじによりあらかじめ規定された確率(客観的確率)で生起することが事前にわかって
いることが仮定されていました。このことから、それぞれのくじは結果の集合上の(単純な)確率分
布と同じであるとみなすことができたのでした。そこで、それらの客観的な確率分布に対する意思決
定者の合理的な選好比較を考えることにより、期待効用最大化原理を導きました。
くじで規定されている確率は本来ならば事象の集合が背後にあって、それらの事象が生起する確率
法則が客観的にわかっていると仮定しています。しかし、事象の集合を明示的に示す代わりに確率分
布で表現するのです。これに対して、不確実性下の意思決定においては、確率分布の代わりに事象の
集合を明示的に導入します。しかしながら、事象が生起する確率法則についての客観的な情報が与え
られていることは前提としません。
本章では、不確実性下の意思決定を考えます。特に不確実性下の合理的な意思決定モデルと情報の
役割を考察します。次節では、不確実性を表す自然の状態という概念を導入し、代替案を不確実性く
じとして記述することを考えます。このような不確実性くじに対する意思決定者の選好比較が合理的
であるとすると、不確実な事象(複数の自然の状態の集合)の確率法則が主観的に決定される主観
的期待効用モデルが導出されることを示します。これにより、見かけ上はリスク下の意思決定問題を
扱っているのと同様のモデルを得ることができます。第 5.3 節では、不確実な事象の確率法則につい
ての情報が得られるとき、主観確率がどのように修正されるかについて考えます。また、その情報源
の価値の評価についても議論します。最後に、第 5.4 節では、異なる情報源を比較することを考え
ます。
5.2 主観的期待効用
5.2.1
意思決定問題の記述
意思決定者が直面している将来の不確実な事象をすべて記述したものを集合 S により表します。こ
こで、直面しているとは、意思決定をすることにより得られる結果に影響を及ぼすと考えられる不確
実な事象を考えているということを意味しています。S の要素は互いに背反的で網羅的であると仮定
します。すなわち、異なる二つの要素は一つが真であるならば、もう一方は偽になります(背反的と
1
いいます)。また、たった一つの要素のみが真であり、その他の要素は偽になります(網羅的といい
ます)。たとえば、明日の天気を意思決定者が直面している事象であるとします。意思決定に影響す
ると考えられる互いに背反的で網羅的な事象の集合は S = {晴れ、雨、曇り} であるとしましょう。
各事象が背反的であることは明らかでしょう。意思決定をする時点では、明日の天気がどうなるかは
わかっていません。しかし、晴れか、雨か、または曇りであることだけは確実にわかっている(網羅
的である)としています。すると、代替案から得られる結果は天気が晴れか、雨か、または曇りにな
るかによって変わってくることになります。もし、どの代替案に対しても雨か曇りになっても結果が
同じになるならば、事象を雨と曇りに分ける必要がなくなり、S ′ = {晴れ、晴れでない} のようにす
れば、意思決定を考える上で十分であるからです。
S の各要素を自然の状態といいます。または、自然の状態は根源事象ともいわれます。S 自身を
(自然の)状態空間といいます。また、S の部分集合を事象といいます。定義から S に属する自然の
状態のうちたった一つだけが実際に実現し、その他の自然の状態は実現しません。実際に実現する自
然の状態を真の状態といいます。また、真の状態が事象 A に含まれているとき、『事象 A は生起す
る』といいます。
以下では、状態空間 S は明確に規定されているとします。また、S は意思決定者の選択行動によ
り影響を受け変化しないと仮定しておきます。真の状態が判明した後に得られる可能性のあるすべて
の結果の集合を X であらわします。このとき、数学的には代替案は S から X への写像で表現され
ます。すなわち、a : S → X とすると、a は自然の状態 s が真の状態であると仮定されるとき、結果
a(s) ∈ X をもたらす代替案であると解釈できます。本節では代替案の集合を A ではなく F で表す
ことにします。不確実性下の意思決定問題とは、上記で定義した S, X, F が所与のもとで、機会集合
F ′ ⊆ F が与えられると、意思決定者にとって F ′ の中からもっとも好ましい代替案を見つけること
をいいます。
個々の代替案 a : S → X を次のように表現します。





A1
;
..
.
x1
Am ; xm



.

ここで、各 Ak は互いに背反(Ai ∩ Aj = ∅, i ̸= j )で、網羅的(∪Ak = S )な事象を表します。この
表現を不確実性くじということにします。この不確実性くじは、真の状態が事象 Ak に含まれるなら
ば(すなわち、事象 Ak が生起するならば)、結果 xk を得ることができるということを意味していま
す。前章までの単純くじ(これを以下ではリスクくじと呼ぶことにします)と異なるところは、確率
の代わりに事象が入っていることです。S または X が有限集合のときには、F は不確実性くじ全体
の集合と一致します。
いま、S = {s1 , . . . , sn } を有限集合とします。また、有限の機会集合 F ′ = {a1 , . . . , am } ⊆ F を考
えると、次のような決定表により意思決定問題が記述されます。
2
a1
a2
···
am
s1
x11
x12
···
x1m
s2
..
.
x21
..
.
x22
..
.
···
x2m
..
.
sn
xn1
xn2
···
xnm
ここで、xij = aj (si ) ∈ X です。また、各代替案 ak は不確実性くじ



Lk = 

s1
sn

; x1k


..

.

; xnk
となっています。ここで、根源事象 {sj } を単に sj と表しています。
さて、この決定表が与えられたとき、機会集合 F ′ の中からどの代替案を選択すべきでしょうか。
各自然の状態 si が生起する確率 pi が事前にわかっていれば、それぞれの代替案 ak はリスクくじ



K =

k

p1 ; x1k


..

.

pn ; xnk
で表されます。そうすると、第 2 章 2.4 節の期待効用モデルに従い、u を X 上の可測効用関数とす
∑
るとき、期待効用 ni=1 pi u(xij ) を最大にするリスクくじ K k (すなわち、代替案 ak ) を選択すべき
であることがわかります。しかし、確率 pi は事前にはわかっていないので、不確実性下の意思決定
では、この確率 pi を意思決定者が判断する主観確率 P (si ) に置き換え、主観的期待効用:
代替案 aj の主観的期待効用 =
n
∑
P (si )u(xik )
i=1
を最大にする代替案を選択すべきであると考えるのです。
例 5.2.1 イベントを企画している A 氏と B 氏の2人がいるとします。イベントの開催場所は屋外か
または屋内に確保されているとします。どちらにするかは当日の天候に依存します。すなわち、決定
表は次のように与えられているとします。
屋外会場
屋内会場
E
100
60
Ec
20
50
ここで、事象 E は晴れをあらわし、その補事象 E c は晴れでないことを表しています。各結果はイベ
ント開催による利益を表しているとします。A 氏と B 氏の主観確率と可測効用関数をそれぞれ PA , PB
3
と uA , uB とします。もし、A 氏が屋外会場を選択するならば、屋外会場の主観的期待効用は屋内会
場の主観的期待効用よりも大きいので、
PA (E)uA (100) + (1 − PA (E))uA (200) > PA (E)uA (60) + (1 − PA (E))uA (50)
という不等式が成り立ちます。ここで、PA (E c ) = 1 − PA (E) であることに注意してください。A 氏
と B 氏が共通の情報を持っていないと、PA ̸= PB であることは十分ありえます。すなわち、A 氏と
B 氏の意思決定が異なるのは、彼らの可測効用関数が異なるだけではなく、事象に対する主観的確率
が異なることも原因となります。
今、uA (x) = x, PA (E) = PA (E c ) = 0.5 であるとします。このとき、屋外会場の主観的期待効用
は屋内会場の主観的期待効用よりも大きいので、A 氏は屋外会場を選択します。ここで、PA (E) =
PA (E c ) = 0.5 は当日の天候が晴れるかどうかは 50% の可能性であると判断していることを示してい
ます。もし、天候についての信頼のおける情報が入手でき、それによると当日の天気が晴れる可能性
は 30% であることがわかったとしましょう。すると、A 氏の主観確率は PA (E) = 0.3, PA (E c ) = 0.7
のように変更されます(理由は 5.3.1 節を参照)。すると、
屋外会場の主観的期待効用 = 0.3 × 100 + 0.7 × 20 = 44,
屋内会場の主観的期待効用 = 0.3 × 60 + 0.7 × 50 = 53
となるので、屋内会場を選択すべきであるという結論になります。すなわち、同一個人でも主観的確
率が情報の過多により変化することで、最終的な意思決定に大きく影響することがわかります。
5.2.2 判断(主観)確率
簡単化のために本章を通して有限の状態空間 S = {s1 , . . . , sn } を考えます。事象は S の任意の部
分集合です。すなわち、S のすべての部分集合の集合を 2S (これは数学の用語として、べき集合と
呼ばれています)で表すことにすると、2S はすべての事象の集合となります。S の要素を何も含ま
ない集合は空集合と呼ばれ、記号で ∅ と書きます。これは空事象ともいわれます。
数学的な確率とは 2S 上に定義された非負の実数値関数 P で、
(1) P (S) = 1,
(2) P (∅) = 0,
(3) すべての A, B ∈ 2S に対して、A ∩ B = ∅ ならば、P (A ∪ B) = P (A) + P (B)
を満たすものをいいます。性質 (1) は S が生起する(言い換えると、真の自然の状態が S に含まれ
る)確率は 1 であることを示しています。S はすべての自然の状態を含んでいるのですから、これは
4
明らかでしょう。性質 (2) は ∅ (空集合)が生起する(真の自然の状態が ∅ に含まれる)確率は 0 で
あることを示しています。∅ は自然の状態を一つも含んでいない集合であることから、明らかでしょ
う。性質 (3) は確率の加法性を意味しています。すなわち、事象 A と B が互いに背反的(A ∩ B = ∅)
ならば、それらの和集合 A ∪ B の確率は、それぞれの事象の確率の和になることを意味しています。
リスク下の意思決定においては、このような状態空間とその確率法則を表現する確率 P が客観的に
与えられ、それによりリスクくじで規定される確率分布が生成されているのです。
それでは、不確実性下の意思決定において、2S 上で定義された数学的な確率とはどのような意味
を持つものとして理解されるのでしょうか。もし、確率を現実との対応において相対頻度の極限1 と
してのみ理解する立場をとるならば、それは不確実性下の意思決定問題の解決にとって満足すべき解
釈であるとはいい得ないでしょう。なぜならば、現実の意思決定においては繰り返して同じ意思決定
が行えるわけではないからです。言い換えると、試行の繰り返しが意味を持たないような現象の確か
らしさの評価をも意思決定分析の中に織り込むことができるならば、それは不確実性下の決定問題の
解決にとってきわめて自然なことであるといえます。
そこで、不確実性下の意思決定においては、意思決定者が自分自身が持っている経験や知識・情報
などにもとづいて、ある事象が生起する確からしさを主観的に判断していると考えます。このような
確からしさの判断を計量的に評価することを考えでみましょう。このとき、その計量的な評価が数学
的な確率としての性質(すなわち上記の性質 (1), (2), (3))を満足すれば、その評価方法により、意
思決定者の主観的な確率を求めることができたと考えても良いでしょう。
ある事象 A が生起することを意思決定者がどのくらいの確からしさで判断しているのかを定量的
に表現するために、以下のような方法を考えて見ましょう。また、X を実区間とし、利益やペイオフ
を表していると解釈します。そのとき、事象 A の確からしさの程度を次のような判断確率として定
義しましょう。
定義 5.2.1 (判断確率)

x > 0 とする。不確実性くじ 
A
; x
Ac
; 0
♦

 に対する最大の値付け額2 を y とするとき、事象 A が生
起する確からしさを表現する意思決定者の判断確率を P (A) = y/x により定義します3 。
♦
♦
1
硬貨を投げて、表と裏のどちらが出やすいかについて考えて見ましょう。何も細工されていない(これを公平であると
いいます)硬貨ならば、表と裏の出やすさは同じであると考えるでしょう。この結論の根拠として2つ考えることができま
す。一つは古典的解釈といわれているものです。硬貨投げの可能な結果は表と裏しかないので(硬貨が立つという可能性
もなくはありませんが?)、どちらの結果を積極的に支持する理由がない場合に、可能性は同じであると評価します。もう
一つは相対的頻度による解釈です。硬貨を実際に投げ続けてみて(実際には無限回の試行はできないので思考実験的にな
りますが)、その頻度を記録していきます。このとき、表と裏の頻度の相対的な比率は限りなく多くの試行を行っていくと
きどのような値に収束していくかを考えます。常識的にはこの比率は 0.5 になると考えるのが相対的頻度による解釈です。
2
不確実性くじを引く権利を得るために支払ってもよい最大の金額のことを値付け額といいます。
3
この確率 P (A) は評価する時点における意思決定者の経験知識に依存して定まる値です。経験知識が増加すれば、P (A)
の値も変化するであろうことは認めているのです。P (A) の値を変化させる性質をもつ要因こそが A の生起に関する情報と
いうべきでしょう。また、確率 P (A) は意思決定者の判断であって、経験知識の異なった他の意思決定者にとっての P (A)
が異なってもかまいません。その意味でこの確率は主観確率あるいは判断確率と呼ばれます。
5
このような定義の仕方には異論もあります。しかし、ここでは、この定義を認めたとして、実際に P
が確率の性質を満たすためには、どのような説得力のある議論ができるかを考えてみましょう。
次の2つの仮定をおきます。最初の仮定は判断確率の一貫性を要求するものです。すなわち、上記
の定義の不確実性くじの賞金額 x に判断確率は依存しないことを要請しています。




[
]
A ; x
A ; z
 ∼ S ; y かつ 
 ∼
仮定1 すべての x > 0, z > 0 に対して、 
c
c
A ; 0
A ; 0
[
]
S ; w ならば、xw = yz となります。
2 つ目の仮定は、判断確率の定義の中で、A = S のときは、y = x であり、A = ∅ のときは、y = 0
であることを要請しています。すなわち、確率の3つの性質のうち (1) と (2) は明らかに成り立つこ
とを要請しています。
仮定2
任意の事象 A に対して、0 ≤ P (A) ≤ 1 であり、また、P (S) = 1, P (∅) = 0 とします。
確率の性質のうち本質的に重要なのは性質 (3) であるので、この性質が意思決定者の不確実性くじ
に対する合理的な値付け額の判断から得られることを示しましょう。A1 , . . . , Am を互いに排反的で
網羅的な事象であるとします。事象 Ai の意思決定者の判断確率を P (Ai ) = pi とすると、事象
Ai が

Ai ; xi
に
生起するとき xi 円が得られ、そうでないときには 0 円である不確実性くじ Li = 
Aci ; 0
対するエージェントの値付け額は pi xi となります。このことから、不確実性くじ



L=

A1
;
..
.
x1
Am ; xm



.

∑
の値付け額は不確実性くじ Li (i = 1, . . . , m)の値付け額の合計である m
j=1 pj xj 円としてよいで
∑m
しょう。この不確実性くじ L を j=1 pj xj 円で購入したとします。もし、事象 Ai が生起すれば xi
円を獲得するのですから、意思決定者の利益 Gi は
G i = xi −
m
∑
pj xj
j=1
で求められます。
定義 5.2.2 (整合性)
♦
A1 , . . . , Am を互いに排反的で、網羅的な事象とする。また、P (Ai ) = pi (i = 1, . . . , m) であるとす
る。このとき、どのような x1 , . . . , xm ∈ X に対しても、
6
Gi = xi −
m
∑
pj xj < 0 (j = 1, . . . , m)
j=1
とすることができないとき、判断確率 P は整合的であるといいます。
♦
不確実性くじ L の可能な結果である x1 , . . . , xn は任意に与えられたものであるから、それらを適
当に選ぶと、どの事象が生起しても意思決定者に損をさせる(すなわち、Gi < 0, i = 1, . . . , n)こと
ができるとき、エージェントの判断確率は整合的でないことになります。
エージェントの不確実性くじに対する値付け額の判断につぎのような仮定をします。
仮定3
判断確率 P は整合的です。
次の定理は判断確率が確率の公理を満たす十分条件を示します。
定理 5.2.1
♦
P を 2S 上の判断確率とします。このとき、仮定 1,2,3 が成り立つならば、以下のことが成り立ち
ます。
(1)
A1 , . . . , Am が互いに排反的であり網羅的な事象ならば、
P (A1 ) + · · · + P (Am ) = 1
が成り立ちます。
(2)
A1 , . . . , Am が互いに排反的な事象ならば、
P (A1 ∪ · · · Am ) = P (A1 ) + · · · + P (Am )
が成り立ちます。
♦
♦
(証明) (1) A1 , . . . , Am を互いに排反的であり網羅的な事象であるとします。また、各事象 Ak の
∑
判断確率を pk とします。事象 Ak が生起するときの利益は Gk = xk − m
j=1 pi xi (k = 1, . . . , m) で
あるから、これを行列表示すると、







p1 − 1
p1
..
.
p1
p2
...
pm
p2 − 1 . . .
..
.
pm
..
.
p2
. . . pm − 1
7







x1
x2
..
.
xm


−G1
 
  −G2
 
= .
  ..
 
−Gm







となります。これを G1 , . . . , Gm と p1 , . . . , pm が与えられたときの未知数 x1 , . . . , xm に関する連立
方程式と考えるならば、その係数行列式は
¯
¯ p −1
p2
¯ 1
¯
¯ p1
p2 − 1
¯
∆=¯
..
..
¯
.
.
¯
¯
¯ p1
p2
¯ ∑
¯
pi − 1 p2
¯
¯
¯
0
−1
¯
=¯
.
..
¯
..
.
¯
¯
¯
0
0
...
...
...
...
...
...
¯ ¯ ∑
¯ ¯
pi − 1
p2
...
pm
¯ ¯
¯ ¯ ∑
pi − 1 p2 − 1 . . .
pm
pm ¯¯ ¯¯
=
¯
¯
.
.
..
..
¯ ¯
..
..
.
.
¯ ¯
¯ ¯ ∑
pi − 1
p2
. . . pm − 1
pm − 1 ¯ ¯
¯
pm ¯¯
¯
(m
)
∑
0 ¯¯
m−1
pi − 1
.. ¯¯ = (−1)
. ¯
i=1
¯
−1 ¯
pm
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
となります。もし ∆ ̸= 0 ならば、G1 , . . . , Gm を任意の負の値になるような x1 , . . . , xm を求めるこ
とができます。すなわち、どの事象 Ak が生起しても損失 Gk を被るようなくじ



L=

A1
;
..
.

x1




Am ; xm
を生成することができるので整合的ではありません。すなわち、整合的であるためには ∆ = 0 でな
∑
ければなりません。すなわち、 i pi = 1 でなければならないのです。
(2) A1 , . . . , Am , (A1 ∪ · · · ∪ Am )c は互いに排反的で網羅的になります。また、(A1 ∪ . . . ∪ Am ), (A1 ∪
· · · ∪ Anm )c も互いに排反的で網羅的になるので、(1) より
P (A1 ) + · · · + P (Am ) + P ((A1 ∪ · · · ∪ Am )c ) = 1,
P (A1 ∪ · · · ∪ Am ) + P ((A1 ∪ · · · ∪ Am )c ) = 1
が得られます。ゆえに、(2) が成り立ちます。
¤
例 5.2.2 状態空間が S = {晴れ、雨} で与えられているとしましょう。このとき、次の二つのくじの
値付け額を考えます。

L1 = 
晴れ ; 10 万円
雨
;
0


,
L2 = 
晴れ ;
雨
0
; 20 万円

.
それぞれの値付け額を 8 万円と 6 万円としましょう。すなわち、不確実性くじ L1 を手に入れるた
めには、最大 8 万円まで支払う用意があるということと解釈できます。すると、これら二つのくじ
8
を両方とも手に入れるには、いくらまで支払ってよいでしょうか。それぞれの値付け額の合計まで支
払ってよいと考えるのが自然でしょう。言い換えると、次の不確実性くじ L12 の値付け額が 14 万円
であるということです。

L12 = 
晴れ ; 10 万円
; 20 万円
雨

.
このような値付け額は整合的でしょうか。不確実性くじ L を 14 万円で手に入れても、晴れならば 4
万円の損をしますが、雨ならば、6 万円の得をします。しかし、このような値付け額を提示する意思
決定者は次の不確実性くじ L3 の値付け額を仮定1に従い 3 万円と値付けします。

L3 = 
晴れ ;
雨

0
; 10 万円
.
すると、不確実性くじ L1 と L3 の両方とも手に入れるには 8 + 3 = 11 万円支払ってもよいと考え
ていることになります。すなわち、つぎの不確実性くじ L13 の値付け額が 11 万円であるということ
です。

L13 = 
晴れ ; 10 万円
; 10 万円
雨

.
明らかに、整合的ではありません。
5.2.3
標準実験と主観確率
意思決定者の判断確率の大きさを測定するために、次のような物差しを用意しましょう。 N 個の
玉が入っている袋があり、そこから 1 球を抽出する実験を行います。それらの玉は 1 番から N 番ま
での番号付けされた以外には物理的に区別がつかないとします。その袋から一つの球を取り出して、
もしそれが番号 k の球であれば、ある賞金 x がもらえ、番号 k 以外の球が出たときには何ももらえ
ないとする不確実性くじを Lk とします。すなわち、

Lk = 
Ek ; x
Ekc ; 0


とします。ここで、Ek は抽出された球の番号が k であるという事象を表します。このとき、k, ℓ が
1 から N までのどの番号であっても、エージェントにとっては Lk を引く権利を得ることと、Lℓ を
引く権利を得ることとの間で無差別であると考えるのが自然でしょう。なぜならば、番号 k を引き当
てる可能性と番号 ℓ を引き当てる可能性は同じであると判断できるからです。袋から球を抽出すると
いうこのような実験を標準実験とよびます。また、袋から球を取り出す操作を標準くじといいます。
9
そして、標準くじの球が番号 k であるチャンスが 1/N であると見なすのは自然です。また、抽出さ
れた球の番号が n 以下であるチャンスは 
n/N であると定義されます。

A ; 100
 に直面しているとします。このとき、意
いま、意思決定者が不確実性くじ L = 
c
A ; −20
思決定者の事象 A に対する確率判断 P (A) は次のように測定されます。上記の標準実験において、
球を抽出したとき、その番号がn 以下であるとき利得
100 得て、n より大きいとき損失 20 を被る

n
; 100
n
 を考えます。そして、意思決定者に不確実性く
と標準 (リスク)くじ L( N
)= N
n
1− N
; −20
n
) のどちらを引く権利が好ましいかを判断してもらいます。n を 0
じ L と標準 (リスク)くじ L( N
n
) が無差別になる割合が存在するならば、その値
から N に変化させるとき、L と L( N
P (A) =
n
N
n
N
をもって
と定義することができます。
5.2.5 主観的期待効用
代替案 a : S → X のすべての集合 F を考えます。代替案 a が定数代替案であるとは、ある x ∈ X
に対して、a(S) = {x} となることを意味します。ここで、a(S) = {a(s) ∈ X : s ∈ S} です。すなわ
ち、どの自然の状態が真であっても、同じ結果 x を得るということを意味しています。また、代替案
が単純であるとは、a(S) が有限集合であるときをいいます。すべての結果 x ∈ X は定数代替案と同
一視することができます。すなわち、x ∈ X は a(S) = {x} となる代替案 a と同じものであると見
なすことができます。主観的期待効用理論では、代替案の集合 F 上の選好関係 ≼ が以下のように定
量的に表現できる条件を明らかにします。2S 上の確率 P と、X 上の実数値関数 u が存在して、す
べての代替案 a, b ∈ F に対して、
∫
a ≼ b ⇐⇒
を満たします。この値
∫
S
S
∫
u(a(s))dP (s) >
S
u(b(s))dP (s)
u(a(s))dP (s) を代替案の(主観的)期待効用といい、E(u, a, P ) と書きま
す。また、P を主観確率、u を可測効用関数といいます。S = {s1 , . . . , sn } であるとき、代替案 a は
不確実性くじ



La = 


; a(s1 )


..

.

; a(sn )
s1
sn
で表されます。このとき、
E(u, a, P ) =
n
∑
k=1
10
P (sk )u(a(sk ))
となります。これを E(u, La , P ) とも書きます。
例 5.2.3 中身が見えない壷の中に 100 個の色だけが異なるボールが入っているとします。ボールの
色は赤、白、黒の3色であることがわかっています。すると、状態空間は S = {赤、白、黒} となり
ます。次の不確実性くじ L を考えます。

赤 ;
0


10 
.
黒 ; 100

L=
 白 ;
可測効用関数を u とし、S 上の主観確率を P とすると、L の主観的期待効用は
P (赤)u(0) + P (白)u(10) + P (黒)u(100)
となります。ただし、P ( 赤 ) + P ( 白 ) + P ( 黒 ) = 1 です。もし、赤ボールが 20 個だけ入っている
ということがわかれば、P ( 赤 ) = 0.2 とするのが自然でしょう。ここで、白と黒ボールの割合につい
てまったく情報がなければ、P ( 白 ) = P ( 黒 ) = 0.4 と推定するのも自然な推論であるといえます。
以下では、S = {s1 , . . . , sn } の場合のみを考えます。F 上の選好関係 ≼ を F 上のリスクくじ全体
に拡張して考えましょう。すなわち、L∞ (F ) を F 上のすべての複合リスクくじとすると、意思決定
者はすべての複合リスクくじに対して選好比較をすることができると考えるのです。これを F のラ
ンダム化といいます。F 上の単純リスクくじ L は



L=

p1
;
..
.
f1
pm ; f m





で表され、確率 pk により代替案 fk を実行する権利を得ると理解します。この fk は自然の状態 sℓ
が真であるとき、結果 fk (sℓ ) ∈ X を与える代替案となっています。また、複合リスクくじは、上記
の単純リスクくじのそれぞれの fk が単純リスクくじになっていたり、複合リスクくじになっている
ものを言います。ここで、m = 1 の場合には、L は不確実性くじそのものになります。また、それぞ
れの fk を定数代替案 xk ∈ X とすると、F
上の単純リスクくじ L は



L=

p1
;
..
.
x1
pm ; xm





となり、X 上の単純リスクくじとなります。
第 2.4 節と同様に、L∞ (F ) 上の選好判断に対して、還元公理と結果の有界性を仮定しておくと、
11
L∞ (F ) 上の選好関係 ≼ が弱順序であり、独立性と連続性を満たしているならば、またそのときに限
り、F 上の実数値関数 U が存在して、すべての複合リスクくじ L と L′ に対して、
L ≼ L′ ⇐⇒ E(U, L) ≤ E(U, L′ )
が成り立ちます。ここで、L を前段の単純リスクくじとすると、L の期待効用は
E(U, L) =
m
∑
pi U (fi )
i=1
で与えられます。また、f : {s1 , . . . , sn } → X であるので、このような代替案 f 全体の集合である F
は X n = X × · · · × X (n 個の X の直積集合)と同一視できます。すなわち、f 自身は n 次元ベク
トル (f (s1 ), . . . , f (sn )) ∈ X n と同じものであると考えることができます。ゆえに、U は X n 上の実
数値関数であって、
U (f ) = U (x1 , . . . , xn )
と書くことができます。ここで、xi = f (si ) (i = 1, . . . , n) としています。
次の対応関係が示すように F 上のリスクくじ L は X n 上のリスクくじ L と同一視できます。



L=

p1
;
..
.


f1
pm ; fm




⇐⇒
L
=




p1
;
..
.
(f1 (s1 )), . . . , f1 (sn ))
pm ; (fm (s1 )), . . . , fm (sn ))





このことから、X n 上の U は 4.4 節で導入した多属性効用関数となります。このリスクくじ L から
周辺リスクくじ L(k) (k = 1, . . . , n) が次のように定義されます。



L(k) = 

p1
;
..
.
f1 (sk )
pm ; fm (sk )





これは X 上のリスクくじです。2.4.2 節では、このようなリスクくじに対応する単純確率分布を fL(k)
により表わしました。すなわち、 fL(k) は D = {f1 (sk ), . . . , fm (sk )} としたとき、x ∈ D に対して、
fL(k) (x) =
∑
{pj : fj (sk ) = x}
となる確率分布のことです。
F 上のリスクくじの評価は X n 上のリスクくじの期待効用で与えられるので、X n 上の可測効用関
数 U (すなわち、多属性効用関数)は加法的であるためには次の加法独立性が成り立たなければな
らないことがわかります。
12
定義 5.2.3 (加法独立性)
Xn
♦
上の任意の2つのリスクくじ L と
L′
に対して、
fL(k) = fL′ (k)
(k = 1, . . . , n)
ならば、L ∼ L′ であるとき、≼ は加法独立性を満たすといいます。
♦
♦
この加法独立性の定義から次の定理が得られます。これは、状態依存型の効用モデルとして知られ
ています。すなわち、結果 x ∈ X に対する効用は自然の状態 s ∈ S が真のとき、ui (x) で与えられ
るので、どの自然の状態が真であるかに依存しているからです。
♦
定理 5.2.2
F 上の実数値関数 U が存在して、すべての L, L′ ∈ L∞ (F ) に対して、L ≼ L′ ⇐⇒ E(U, L) ≤
E(U, L′ ) であるとします。このとき、X 上の実数値関数 ui (i = 1, . . . , n) が存在して、すべての
f ∈ F に対して、
U (f ) =
n
∑
ui (f (si ))
i=1
となるための必要十分条件は選好関係 ≼ が加法独立性を満たすことです。
また、ui の代わりに X 上の実数値関数 vi が上記の表現を満たすための必要十分条件は、実数値
a > 0 と b1 , . . . , bn が存在して、すべての i とすべての x ∈ X に対して、vi (x) = aui (x) + bi が成
立することです。
♦
♦
(証明)
定理 4.4.1 から直ちに得られます。
¤
結果 x ∈ X に対する効用が自然の状態に独立であるためには以下のような状態独立性の条件が必
要となります。また、議論を簡単にするために、自然の状態の非零性を仮定しましょう。すなわち、
どの自然の状態も生起する可能性はゼロでは無いことを要請するのです。S が有限集合のときは、あ
る状態が生起する確率が零であると判断されると、S から除いても問題は発生しないので、非零性を
仮定することは一般性を失いません。s = si のとき、結果 x が得られ、s ̸= si のときは結果 f (s) が
得られるような代替案を f−i x と書くことにします。そのとき、自然の状態の非零性は次のように定
義されます。
定義 5.2.4 (自然の状態の非零性)
すべての i に対して、f−i
x0
≺ f−i
x∗
♦
となる
x0 , x∗
∈ X と f ∈ F が存在するとき、自然の状態の非
零性が成り立つといいます。
♦
♦
13
もし、自然の状態 si が真である確率が零であると判断されると、f−i x0 ≺ f−i x∗ であることは不合理
になります。なぜならば、絶対に生起しないと判断される自然の状態 si のときのみ得られる結果が
異なる場合には無差別と判断することは自然な要求であるからです。
それでは、状態独立性を次のように定義しましょう。
定義 5.3.5 (状態独立性)
♦
すべての i, j に対して、





p1
;
..
.
f−i
x1
pm ; f−i xm


 
 
≺
 
p1
;
..
.
f−i
y1
pm ; f−i y m





ならば、





p1
;
..
.
f−j
x1
pm ; f−j xm


 
 
≺
 
p1
;
..
.
f−j
y1
pm ; f−j y m





であるとき、状態独立性が成り立つといいます。
♦
♦
状態独立性とは、自然の状態 si についての周辺リスクくじのみが変化する F 上のリスクくじに対す
る選好比較と、状態 sj についての周辺リスクくじのみが変化する F 上のリスクくじに対する選好比
較は、si についての周辺くじと sj についての周辺くじが同じである限り、同じになることを要請し
ています。
以上のような定式化のもとでの主観的期待効用モデルは次の定理で与えられます。
♦
定理 5.2.3
⊀= ∅ とする。 F 上の実数値関数 U が存在して、すべての L, L′ ∈ L∞ (F ) に対して、L ≼ L′ ⇐⇒
E(U, L) ≤ E(U, L′ ) であるとします。このとき、選好関係 ≼ が加法独立性、自然の状態の非零性お
よび状態独立性を満たしているならば、X 上の実数値関数 u と正の pi (i = 1, . . . , n) が存在して、
∑
U (f ) = ni=1 pi u(f (si )) が成り立ちます。また、pi は一意に定まり、u は正線形変換の範囲で一意と
なります。
♦
(証明)
定理 5.2.2 より、U (f ) =
♦
∑n
i=1 ui (f (si ))
であるとします。自然の状態の非零性から、各
ui は定数関数ではありません。ゆえに、i = 1, . . . , n に対して、
14



Li1 = 

p1
;
..
.
f−i x1
pm ; f−i xm








Li2 = 

p1
;
..
.
f−i y 1
pm ; f−i y m





とおくと、明らかに、
)
)
(
(
i2
≤
E
u
,
L
Li1 ≼ Li2 ⇐⇒ E ui , Li1
i
(i)
(i)
となります。状態独立性より、異なる i と j に対して、
)
)
(
)
(
)
(
(
j2
j1
i2
≤
E
u
,
L
≤
E
u
,
L
⇐⇒
E
u
,
L
E ui , Li1
i
i
j
(i)
(i)
(j)
(j)
j2
j1
i2
が成り立ちます。ゆえに、Li1
(i) = L(j) かつ L(i) = L(j) であることと ui , uj の一意性から、すべての
x ∈ X に対して、
(
)
ui (x) − ui (x0 ) = rij uj (x) − uj (x0 )
を満たす rij > 0 が存在します。ここで、rij は一意に決まり、x0 は X の中で固定された結果とし
ます。
今、k ∈ N ∈ {1, . . . , n} を固定し、任意の i ∈ N に対して、
pi = ∑
rik
j∈N
rjk
とします。また、すべての x ∈ X に対して、
u(x) =
uk (x) − uk (x0 )
pk
とすると、rkk = 1 であることを使い、
ui (x) − ui (x0 ) = rik (uk (x) − u(x0 ))
= rik pk u(x)
= pi u(x)
が得られます。ゆえに、
15
n
∑
U (f ) ≤ U (g) ⇐⇒
ui (f (si )) ≤
i=1
n
∑
ui (g(si ))
i=1
n
n
∑
∑
0
⇐⇒
(ui (f (si )) − ui (x )) ≤
(ui (g(si )) − ui (x0 ))
i=!
⇐⇒
n
∑
pi u(f (si )) ≤
i=1
となるので、U (f ) =
∑n
n
∑
i=!
pi u(g(si ))
i=1
i=1 pi u(f (si ))
¤
としてよいことがわかります。
例 5.2.3 今、明日の天気に関してあなたの確率判断を聞かれたとしましょう。このとき、“明日の天
気は晴れるという確率は r である” とあなたが答えたならば、次の不確実性くじ L を引く権利が与
えられるとします。

L=
晴れ

; 100r 万円
晴れない ; 100(1 − r) 万円
.
それでは、あなたの確率判断として何と答えればよいでしょうか。正直に答えればよいのでしょうか。
それとも自分の本当の確率判断とは異なるような回答をすればいいのでしょうか。その答えはあなた
の可測効用関数に依存して決まります。
明日晴れるという事象についてのあなたの主観確率は P ( 晴れ ) = p であるとします。また、u を
あなたの可測効用関数とすると、不確実性くじ L の期待効用は
E(u, L, P ) = pu(100r) + (1 − p)u(100(1 − r))
となります。もし、u(x) = x ならば、
E(u, L, P ) = (200p − 100)r + 100(1 − p)
となります。そこで、あなたが本当に晴れる方が晴れないよりも可能性が高いと判断しているならば、
すなわち p > 0.5 ならば、明日は確実に晴れる(r = 1)と答えたほうがあなたにとって最適である
ことがわかります。
演習問題 5.2

100 万円のボーナスを 2 つに分け、不確実性くじ L = 
E
;
x

 を考え、主観的期
E c ; 100 − x
待効用が最大になるような x を求めるとします。以下の 3 つの可測効用関数の場合に最適な x を求
5.2.1
め、事象 E の主観確率との関係を議論しなさい。(a)
16
u(x) = x, (b) u(x) = x2 , (c) u(x) = ln x.
5.2.2
事象 E がどの程度の確率で生起するかどうかに関心があるとします。予測の専門家A氏に依
頼すると、E が生起する確率は r であるとの返答があったとします。次のルールに従ってA氏に報
酬を支払うとしましょう。
E が実際に起こったら
10 + ln r
円支払う
E c が実際に起こったら 10 + ln(1 − r) 円支払う
A氏の可測効用関数は u(x) = x であるとするとき、A氏にとっては正直に自身の主観確率 r = P (E)
を知らせることが最適であることを示しなさい。
5.2.3
状態空間は S = {s1 , . . . , sn } であるとします。意思決定者の主観確率を P (si ) (i = 1, . . . , n)
とします。しかし、この意思決定者は si が真である確率は ri (i = 1, . . . , n) であるといううその表明
をしているとします。今、
sj が真の状態ならば
dj = 1,
sj が真の状態でないならば dj = 0
と定義するとき、真の状態が実際に何であるかわかって時点で

n
∑
(rj − dj )2 
100 2 −

j=1
を報酬として意思決定者に与えるとします。このとき、意思決定者の可測効用関数が u(x) = x であ
るならば、ri = P (si ) (i = 1, . . . , n) にするのが主観的期待効用を最大化にすることを示しなさい。
5.3 ベイズ定理と情報評価
5.3.1 完全情報
本節では不確実性下の意思決定において情報がはたす役割を考えます。このため、現時点と時間の
経過により得られる情報を区別するために、現時点における意思決定者が持っている情報を零情報4 と
いい、記号 e0 で表現します。
代替案の有限な機会集合 F が与えられたとき5 、基本的な意思決定問題を D0 (F ) = 〈S, P 0 , u, e0 〉
の 4 項組で表しましょう。添え字の 0 は現時点という意味で使います。ゆえに、P 0 は現時点の情報
4
現時点における意思決定者が持っているすべての知識のことであり、バックグラウンド情報や背景的情報などともいえ
ます。情報の役割を考えないときは、このような情報はすべて意思決定者の主観的確率に織り込まれているとみなし、明
示的には表現されないのが普通です。
5
X を結果の集合とし、行動を関数 a : S → X で定義すると、F はそのような行動の集合の有限部分集合を指定した
ものです。ゆえに、a ∈ F を選択したとき、s ∈ S が真であるときに得られる結果は a(s) として表現されます。もし、X
が明示的に与えられていなくても、a ∈ F を選択したとき、s ∈ S が真であるときに得られる結果は組 (a, s) により表現
することもできます。
17
e0 をもとに意思決定者が評価した状態空間 S の不確実性に対する主観確率(事前確率とも言われま
す)です。u は意思決定者の可測効用関数6 です。
代替案 a ∈ F が与えられたとき、
Pa0 (x) =
∑
{P (s) : a(s) = x, s ∈ S}
は結果 x が得られる主観確率を表します。このとき、a の期待効用は
E(u, Pa0 ) =
∑
u(x)Pa0 (x)
x∈X
となります7 。E(u, Pa0 ) を最大にする代替案を選択することが合理的な意思決定であることは前節で
示されました。このとき、
U (D0 (F )) = max E(u, Pa0 )
a∈F
として、U (D0 (F )) を意思決定問題 D0 (F ) の価値ということにします。
例 5.3.1 S = {s1 , s2 , s3 } , F = {a1 , a2 , a3 } とし、決定表が以下のように与えられているとします。
a1
a2
a3
s1
10
10
30
s2
10
20
30
s3
20
30
10
このとき、P (s1 ) = 0.2, P (s2 ) = 0.3, P (s3 ) = 0.5 とすると、
Pa01 (10) = 0.5, Pa01 (20) = 0.5,
Pa02 (10) = 0.2, Pa02 (20) = 0.3, Pa02 (30) = 0.5,
Pa03 (10) = 0.5, Pa03 (30) = 0.5
となります。可測効用関数を u(x) = x とすると、
E(u, Pa01 ) = 0.5 × 10 + 0.5 × 20 = 15,
E(u, Pa02 ) = 0.2 × 10 + 0.3 × 20 + 0.5 × 30 = 23,
E(u, Pa03 ) = 0.5 × 10 + 0.5 × 30 = 20
6
u の定義域は結果の集合 X = {(a, s) : a ∈ F, s ∈ S} とします。
0
s∈S u(a(s))P (s) と同値になることは明らかでしょう。また、結果の集合 X が明示的に与えられない場合には、
P
s∈S u(a, s)P (s) のように表現されることに注意しください。
7P
18
となるので、U (D0 (F )) = 23 が得られます。
現実問題として、意思決定問題に直面した意思決定者は最終決定をする前に未知な自然の状態につ
いての何らかの情報を集め、その上で最終決定をしようと考えるのは自然でしょう。それらの情報の
一つとして完全情報というものを次のように定義しましょう。
定義 5.3.1 (完全情報)
♦
どの状態が真であるかを確実に知らせてくれるものを完全情報とよび、e∞ により表します。
♦
♦
完全情報は現実には利用できない場合が普通ですが、その性質を検討しておくことは有用です。完全
情報 e∞ が利用可能になるときの意思決定問題を D∞ (F ) = 〈S, P ∞ , u, e∞ 〉 で表わしましょう。ここ
で、P ∞ は完全情報を得たという条件の下での条件付確率です。完全情報 e∞ からある特定の自然の
状態 s = s′ が真であるというメッセージを得たとすると、そのときの条件付確率 P ∞ (·|s′ ) は

 1 (s = s′ )
P ∞ (s|s′ ) =
 0 (s =
̸ s′ )
となります。すなわち、完全情報 e∞ を得たという条件のもとでは、自然の状態 s′ が真である主観
確率は 1 になり、その他の自然の状態が真である主観確率は 0 となります。
それでは、完全情報を利用する前に(すなわち、完全情報からのメッセージを受ける前に)意思決
定者にとって、完全情報がどれだけの価値を持つものであるかを評価することを考えましょう。すな
わち、完全情報を得た後に機会集合から得られる最適な(期待効用が最大になる)代替案と、完全情
報を利用せずに機会集合から得られる最適な代替案を比較しすることを考えます。
そこで、機会集合から代替案を選択する前に、完全情報を利用するかどうかの選択問題に直面しま
す。このような意思決定問題を図示すると図1のように決定木として表すことができます。ここで、
¤ は決定ノードと言われ、そこにおいて意思決定者が選択肢の選択を行います。○ はチャンス・ノー
ドと言われ、そこにおいてどの自然の状態が真であるかが判明することを表しています。
完全情報を利用するという選択をしたとき、完全情報から s = s′ が真の自然の状態であるという
メッセージを受け取るならば、u(s′ , a) を最大にする行動 a = a′ をとることが合理的でしょう。その
ときに得られる最大の効用レベルは
u(s′ , a′ ) = max u(s′ , a)
a∈F
で与えられます。しかし、完全情報を利用する前には、完全情報からどのようなメッセージが得られ
るかわかりません。意思決定者は自然の状態 s が主観確率 P 0 (s) の確からしさでもって生起すると
判断しているので、完全情報からのメッセージが s = s′ であるという確率は P 0 (s′ ) であると判断し
ていると考えてもよいでしょう。したがって、完全情報を利用することにより得られる(事前の)期
19
図 1: 完全情報を得るかどうかの意思決定を表す決定木
待効用は
∑
s′ ∈S
P 0 (s′ ) max u(s′ , a)
a∈F
で与えられます。これを意思決定問題 D∞ (F ) の価値とよび、U (D∞ (F )) と表します。
以上のことから完全情報の価値は2つの意思決定問題 D∞ (F ) と D0 (F ) の価値の差として以下の
ように定義されます。
定義 5.3.2 (完全情報の価値)
♦
決定問題 D0 (F ) に対する完全情報 e∞ の(粗)価値を
V (e∞ ) = U (D∞ (F )) − U (D0 (F ))
により定義します。ここで、完全情報を得るための費用は考えていないので、粗価値といいます。
♦
♦
この完全情報の (粗)価値を貨幣単位で測って見ましょう。u を貨幣に関する可測効用関数としま
す。完全情報を利用する意思決定問題の価値は U (D∞ (F )) で与えられるので、その貨幣的価値 x∞
20
図 2: 完全情報の貨幣価値
は
U (D∞ (F )) = u(x∞ )
を満たします。また、完全情報を利用しないときの意思決定問題の価値は U (D0 (F )) で与えられる
ので、その貨幣的価値 x0 は
U (D0 (F )) = u(x0 )
を満たします。ゆえに、完全情報の貨幣的価値は x∞ − x0 で求められることになります。これらの
関係を図2に示します。
完全情報の価値を簡単な例を用いて計算してみましょう。
例 5.3.2 (完全情報の価値) S = {s1 , s2 , s3 }, F = {a1 , a2 , a3 } とするとき、決定表は以下のように
与えられているとします。ただし、数値は可測効用関数 u で測った値であるとします。
a1
a2
a3
s1
10
5
8
s2
6
3
9
s3
3
15
6
また、意思決定者の主観確率は P 0 (s1 ) = 0.2, P 0 (s2 ) = 0.5, P 0 (s3 ) = 0.3 であるとします。このとき
21
の各代替案の主観的期待効用はそれぞれ
E(u, a1 , P 0 ) = P 0 (s1 )u(s1 , a1 ) + P 0 (s2 )u(s2 , a1 ) + P 0 (s3 )u(s3 , a1 )
= 0.2 × 10 + 0.5 × 6 + 0.3 × 3 = 5.9,
E(u, a2 , P 0 ) = 0.2 × 5 + 0.5 × 3 + 0.3 × 15 = 7.0,
E(u, a3 , P 0 ) = 0.2 × 8 + 0.5 × 9 + 0.3 × 6 = 7.9
のように求められます。ゆえに最適な代替案 a∗ は a3 であり、この意思決定問題の価値は U (D0 (A)) =
7.9 となります。
この意思決定問題の完全情報の価値を求めましょう。完全情報からのメッセージが
s1 であるとき、最適な代替案は a1 なので、効用レベル u(s1 , a1 ) = 10 が得られます;
s2 であるとき、最適な代替案は a3 なので、効用レベル u(s2 , a3 ) = 9 が得られます;
s3 であるとき、最適な代替案は a2 なので、効用レベル u(s3 , a2 ) = 15 が得られます。
以上より、意思決定問題 D∞ (F ) の価値は
U (D∞ (A)) = P 0 (s1 )u(s1 , a1 ) + P 0 (s2 )u(s2 , a3 ) + P 0 (s3 )u(s3 , a2 )
= 0.2 × 10 + 0.5 × 9 + 0.3 × 15 = 11.0
となります。ゆえに、完全情報の粗価値は V (e∞ ) = 11.0 − 7.9 = 3.1 で与えられます。
√
可測効用関数が u(x) = 10 x であるとき、完全情報を利用しないときの最適代替案 a3 の貨幣価
√
値 x0 は 10 x0 = 7.9 を満たすので、x0 = 0.792 = 0.6241 となります。また、完全情報を利用する
√
ことの貨幣価値 x∞ は 10 x∞ = 11.0 を満たすので、x∞ = 1.12 = 1.21 となります。ゆえに、完全
情報の貨幣価値は x∞ − x0 = 1.12 − 0.6241 = 0.5859 で与えられます。
5.3.2 不完全情報とベイズ定理
情報を得るということは、自然の状態の真偽に関するメッセージを得ることなので、そのような
メッセージの集合を M とし、メッセージ空間といいましょう。M と S が一対一対応しているなら
ば、M は完全情報となります。すなわち、どのメッセージ m ∈ M を受け取るかはどの自然の状態
が真であるかに対応しているからです。しかし、一般的にはこのような一対一対応の対応関係ではな
く、確率的な関係があると考えます。自然の状態 s ∈ S が真であるとするならば、そのときに情報源
からある確率をもってメッセージ m ∈ M が発せられると考えるのです。このように S と M の間
に確率的な関係がある場合に、情報源 M を不完全情報であるといいます。
♦
定義 5.3.3 (不完全情報)
22
メッセージ空間 M からメッセージ m ∈ M が得られる確率は、真の自然の状態が s ∈ S のときに、
条件付確率分布 f (m|s) により与えられているとします。このとき、メッセージ空間 M 上の件付確
率分布の集合 {f (·|s) : s ∈ S} を未知の自然状態 s ∈ S に関する(不完全)情報(あるいは実験)と
よび、eM により表します。
♦
ここで定義された情報空間 M は S 上の主観確率 P 0 とは無関係に与えられています。しかし、情報
はそれを知ることにより主観確率に影響を与えるこという点で情報としての意味8 をもちます。
次の例を見ると、確率分布 f (m|s) は情報空間 M の信頼度を与えていると見なすことができます。
例 5.3.3 (情報源の信頼度) 意思決定者による意思決定の結果は明日の天気に依存するとしましょ
う。そこで、気象予報士による明日の天気予報を聞くとします。天気の状態は自然の状態であるので、
S = {晴れ、曇り、雨} であるとしましょう。気象予報士からのメッセージは M = {晴れ、曇り、雨}
です。このとき、確率分布 f (m|s) はこの気象予報士による過去の予報結果から求められます。すな
わち、過去におて実際に晴れであった場合に、この気象予報士はどのくらいの頻度で晴れ、曇り、ま
たは雨であると予報したかにより求められます。このことから、f (m|s) はこの気象予報士の予測の
的中率を表現していると見なすことができます。
情報を利用するとき、意思決定者はメッセージ m ∈ M を受け取ってから自然の状態の真偽の可
能性を評価しなければなりません。そのときに期待効用を計算するにあたって必要な情報は信頼度
f (m|s) そのものではなく、その逆確率 P (s|m) が必要になります。これは、メッセージ m を得たと
きに、自然の状態 s ∈ S が真になる確率のことです。この逆確率は次のベイズの定理により求めるこ
とができます。ベイズ定理は形式的には条件付確率9 の一つの読み替えにすぎません。
定理 5.3.1
(ベイズ定理)
♦
次の 2 条件を仮定します。
(1) A1 , . . . , Am を排反的かつ網羅的な事象とし、それぞれの確率 P (Ai ), i = 1, . . . , m が分かっ
ているとします。
(2) すべての i = 1, . . . , m に対して、真の自然の状態が事象 Ai に含まれていることが分かった
という条件のもとで、ある事象 B の条件付確率 P (B|Ai ) が分かっているとします。
このとき、真の自然の状態が事象 B に含まれていることを知ったときに事象 Ai が生起する条件付
確率 P (Ai |B) は
P (Ai )P (B|Ai )
P (Ai |B) = ∑m
j=1 P (Aj )P (B|Aj )
8
あるメッセージを受けた後にも s ∈ S に関する主観確率が変化を受けないならば、このメッセージは s に関する情報
としての意味を持ちません。
9
事象 A が生起するという条件のもとで、事象 B が生起する確率を条件付確率といい、P (B|A) = P (B ∩ A)/P (A) に
より定義されます。
23
で与えられます。ここで、 P (Ai ) を Ai の事前確率、P (Ai |B) を Ai の事後確率といいます。
♦
♦
(証明)
A1 , . . . , Am が排反的かつ網羅的な事象であることと、条件付確率の定義から、
P (B) =
∑
P (B ∩ Ai ) =
j
∑
P (Aj )P (B|Aj )
j
となります。また、条件付確率の定義から、
P (Aj |B) = P (Aj ∩ B)/P (B)
= P (Aj )P (B|Aj )/P (B)
となるので、上記 2 式より定理が成り立つことがわかります。
¤
形式的には、上記定理の Aj を sj に、B を m に対応させることにより、一般に次の定理が成り立
つこともわかります。
♦
定理 5.3.2
S を状態空間とし、その上の主観確率(事前確率)を P 0 とします。eM を未知の状態 s ∈ S に関す
る情報とします。すなわち、s ∈ S が真の状態のとき、メッセージ m ∈ M の確率法則 f (m|s) が既
知であるとします。このとき、メッセージ m ∈ M が与えられたとき、S 上の事後的な主観確率(事
後確率) P M (s|m) は次式で与えられます。
P M (s|m) =
ここで、f (m) =
∑
s∈S
P 0 (s)f (m|s)
,
f (m)
P 0 (s)f (m|s) です。
♦
♦
確率法則 f (m|s) は自然の状態 s が真であるときに得られるメッセージが m である条件付確率を
表しています。f (m, s) を自然の状態 s が真であり、かつメッセージ m が得られる同時確率とする
と、条件付確率の定義より、
f (m|s) =
f (m, s)
P 0 (s)
が成り立っています。また、
f (m) =
∑
s∈S
24
f (m, s)
とすると、f (m) はメッセージ m が得られる周辺確率です。
例 5.3.3 (ベイズ定理)
ある医師がある患者から癌であるかどうかの診察を頼まれたとします。A
をその患者が癌であるという事象とします。医師の経験からして、その患者と同じ年齢層の人が同じ
ような症状を訴えるときには、おおよそ 1000 人に 5 人が癌であることを知っているとしましょう。
したがって、この医師の A に対する(主観的)事前確率は P 0 (A) = 0.005 で与えられると考えられ
ます。いま、癌の検査があって、被験者は癌である(”+” で表す)か、癌でない(”-” で表す)かを
検査結果として表示するものとします。すなわち、この検査結果がメッセージであり、M = {+, −}
となる情報空間 M を考えます。この検査はかなり信用のおけるものであり、誤った検査結果が出る
確率は 0.05 であることが一般的に認めれれているとしましょう。すなわち、信頼度を表す条件付確
率分布は
f (+|A)
f (+|Ac )
= 0.95,
f (−|A)
= 0.05,
= 0.05,
f (−|Ac )
= 0.95
であるとします。この患者の検査結果が ”+” に出たと仮定しましょう。このとき、ベイズの定理を
使って、医師にとってこの患者が癌であるとの(事後)確率 P M (A|+) は次のように計算されます。
P 0 (A)f (+|A)
P 0 (A)f (+|A) + P 0 (Ac )f (+|Ac )
0.005 × 0.95
=
0.005 × 0.95 + 0.995 × 0.05
P M (A|+) =
= 0.087
したがって、P M (Ac |+) = 0.913 でもあります。このようにして、患者が癌であるという検査結果を
知った後における患者が癌であるという主観確率が 18 倍に増大したことになります。
5.3.3 不完全情報の価値
それでは、不完全情報を利用する前に(すなわち、不完全情報からのメッセージを受ける前に)意
思決定者にとって、不完全情報がどれだけの価値を持つものであるかを評価することを考えましょう。
すなわち、不完全情報を得た後に機会集合から得られる最適な(期待効用が最大になる)代替案と、
不完全情報を利用せずに機会集合から得られる最適な代替案を比較することを考えます。
(1) 事後分析
信頼度 f (m|s) を持つ情報源 M からメッセージ m が得られたとします。このとき、この特定の
メッセージ m に対して、どの代替案を選択すべきかを決定することを事後分析といいます。
今、事前確率 P 0 をもつ意思決定者がメッセージ m ∈ M を得たとします。このときの事後確率は
定理 5.3.2 より、
25
図 3: 決定問題の変化(事前と事後)
P M (·|m) =
P 0 (·)f (m|·)
f (m)
で与えられます。このとき、意思決定者の意思決定問題を Dm (F ) = 〈S, P m , u, em 〉 で表しましょう。
ただし、P m (·) = P M (·|m) とします。また、em はメッセージ m を得たという状態を表します。メッ
セージを受け取る前と後における意思決定問題の変化を図3に示します。
事後における代替案 a ∈ F の期待効用は
E(u, Pam ) =
∑
u(x)Pam (x) =
x∈X
で求められます。ただし、Pam (x) =
∑
u(a(s))P m (s)
s∈S
∑ m
{P (s) : (s, a) = x, s ∈ S} としています。
そこで、行動 am ∈ F を
U (am |m) = max E(u, Pam )
a∈F
により定義すれば、メッセージ m ∈ M を得るとき、意思決定者は行動 am をとるべきであることが
わかります。そのときの、期待効用は U (am |m) で与えられます。
実際問題として、情報 M を利用する前に、ある費用を支払っても、この情報を利用することが意
味があるのかどうかということが問題になります。あるいは、同じ費用で 2 つの情報 M1 と M2 の
いずれか一方だけが利用可能であるときに、そのいずれを用いるべきかといったことが問題になりま
す。このような分析に対しては、つぎのような事前・事後分析が必要です。
(2) 事前・事後分析
事後分析を事前に評価することを考えるとき、事前・事後分析といいます。意思決定問題 D0 (F ) =
26
〈S, P 0 , u, e0 〉 に直面している意思決定者が情報 eM を利用すれば、メッセージ m ∈ M を得たとき
に得られる最大の期待効用は U (am |m) で与えられました。この意思決定者にとって、メッセージ
m ∈ M の(周辺)確率法則は
f (m) =
∑
P 0 (si )f (m|si )
i
で与えられます。したがって、情報 eM を利用できる意思決定問題 DM (F ) = 〈S, P M , u, eM 〉 から期
待できる最大の期待効用は
U (DM (F )) =
∑
U (am |m)f (m)
m∈M
で求められます。このことを決定木で表すと図4のようになります。
図 4: 不完全情報の価値
不完全情報の価値を以下のように定義します。
定義 5.3.4 (不完全情報の価値)
♦
意思決定問題 D0 (F ) = 〈S, P 0 , u, e0 〉 に直面している意思決定者にとって、情報 eM の(粗)価値は
V (eM ) = U (DM (F )) − U (D0 (F )) で定義されます。
27
♦
♦
不完全情報の貨幣価値は図2と同様に求めることができる。以下の数値例により不完全情報の価値
を求めてみましょう。
例 5.3.5 5.3.1 節の意思決定問題において、メッセージの集合は {m1 , m2 , m3 } であるとき、次の確
率法則 f (m|s) をもつ情報 eM を利用できるとします。
m1
m2
m3
s1
0.6
0.3
0.1
s2
0.2
0.5
0.3
s3
0.1
0.4
0.5
このときの eM の価値を求めでみましょう。
まずはじめに、各メッセージ mi に対する最適な代替案 ai とその効用レベル U (ai |mi ) を求めま
す。そのためには、事後確率法則 P M (s|m) を求めなければなりません。それは次の手順で計算さ
れます。まず、同時確率分布 f (m, s) = P 0 (s)f (m|s) を求めると次表のようになります。ここで、
P 0 (s1 ) = 0.2, P 0 (s2 ) = 0.5, P 0 (s3 ) = 0.3 としています。
P0
m1
m2
m3
0.2
s1
0.12
0.06
0.02
0.5
s2
0.10
0.25
0.15
0.3
s3
0.03
0.12
0.15
f (m)
0.25
0.43
0.32
次に、事後確率法則は
P M (s|m) =
P 0 (s)f (m|s)
f (m)
で与えられるので、次表のように求めらます。
m1
m2
m3
s1
12/25
6/43
2/32
s2
10/25
25/43
15/32
s3
3/25
12/43
15/32
1.00
1.00
1.00
それぞれの代替案の利得表は
28
1.00
a1
a2
a3
s1
10
5
8
s2
6
3
9
s3
3
15
6
で与えられているので、メッセージ m1 が得られたときは、代替案 a1 の事後確率法則による期待効
用は
P (s1 |m1 ) × 10 + P (s2 |m1 ) × 6 + P (s3 |m1 ) × 3
12
10
3
+6×
+3×
25
25
25
= 10 ×
=
189
25
204
135
25 と 25 となるので、最大の期待効用
を与える代替案 a3 が最適な代替案になります。すなわち、a1 = a3 および U (am1 |m1 ) = 204
24 となり
となります。同様に代替案 a2 と a3 の期待効用はそれぞれ
ます。
メッセージ m2 が得られたときは、同様に計算すると、
a1 の期待効用 =
246
285
345
, a2 の期待効用 =
, a3 の期待効用 =
43
43
43
のように求められますので、最適な代替案は a3 となります。すなわち、a2 = a3 および U (am2 |m2 ) =
345
43
となります。メッセージ m3 が得られたときも、同様に計算して、
a1 の期待効用 =
280
241
155
, a2 の期待効用 =
, a3 の期待効用 =
32
32
32
なので、最適代替案は a2 となります。すなわち、a1 = a2 および U (am3 |m3 ) =
たがって、意思決定問題
DM (F )
280
32
となります。し
の価値は
U (DM (F )) = f (m1 )U (am1 |m1 ) + f (m2 )U (am2 |m2 ) + f (m3 )U (am3 |m3 )
= 0.25 ×
204
345
280
+ 0.43 ×
+ 0.32 ×
25
43
32
= 8.29
となります。5.3.1 節の例より、U (D0 (A)) = 7.9 であったので、不完全情報 eM の(粗)価値は
V (eM ) = 8.29 − 7.9 = 0.39
となります。
29
5.4 情報システムの比較
5.4.1 ノイズのない情報構造
前節までは完全情報と不完全情報のそれぞれの価値を求めました。ここでは、それら情報源の相対
的な評価を行うことを考えましょう。すなわち、一つの情報源がもう一つの情報源よりも好ましいと
いう意思決定者の判断がどのように得られるかについて議論します。情報源は大きく2つに分類され
ます。一つはノイズのない情報源であり、この情報源からメッセージを受け取ると、真の状態が含ま
れる事象が特定化されるものをいいます。もう一つはノイズのある情報源であり、前節の不完全情報
を与える情報源に対応します。
S を自然の状態の集合とします。ノイズのない情報構造はメッセージの集合 M = {m1 , . . . , mℓ } と
写像 ψ : S → M から構成され、(M, ψ) により表します10 。明らかに、ψ は S の分割を定義してい
ます。すなわち、それぞれのメッセージ mi ∈ M に対して、Si = ψ −1 (mi ) とすると、{S1 , . . . , Sℓ }
は S の分割11 になっています。言い換えると、メッセージを受け取った後に意思決定者は S の分割
のどの要素が真の状態を含んでいるかを知ることができるような分割とノイズのない情報源は同一視
できるということです。
例 5.4.1 (ノイズのない情報源)
S = {s1 , s2 , s3 } とし、製品の質(s1 :良い、s2 :普通、s3 :悪
い)を表しているとします。このとき、
1. M = {m1 , m2 , m3 } とすると、ψ −1 (mi ) = {si } (i = 1, 2, 3) ならば、完全情報を与えています。
2. M = {m1 , m2 }, ψ −1 (m1 ) = {s1 , s2 }, ψ −1 (m2 ) = {s3 } のときは、品質がよいか普通かの区別
はできないが、品質が悪いという区別はできる情報を表しています。
一つの情報構造が他の情報構造よりもすぐれているかとはどういうことかを考えましょう。このた
めに、真の状態 s ∈ S を知ることなしに代替案 a ∈ F について可測効用関数 u(a, s) を最大化しよ
うとする意思決定者を考えます。すなわち、P を意思決定者の S に関する主観確率とするとき、
max
a∈F
∑
u(a, s)P (s)
s∈S
を満たす代替案を選択することが最適となります。この最適な代替案を a∗ で表しましょう。以下で
は、意思決定者は可測効用関数 u と主観確率 P により特徴付けられるので、(u, P ) の組により一人
の意思決定者を表すことにします。
10
11
S はつねに固定されいると考えるので、明示的に示しません。
互いに排反的で網羅的な事象の集まりのこと。
30
情報構造 (M, ψ) により生成される S の分割を Sψ = {ψ −1 (m) : m ∈ M } により表します。メッ
セージ m を受け取ると、意思決定者 (u, P ) は真の状態 s が ψ −1 (m) に含まれていることを知りま
す。このとき、ベイズ定理より、意思決定者の事後確率は

 0
P M (s|m) =
 P
(s ∈
/ ψ −1 (m) のとき)
P (s)
{P (s′ ):s′ ∈ψ −1 (m)}
(s ∈ ψ −1 (m) のとき)
により求められます。それぞれのメッセージ m に対して、意思決定者はこの事後確率を用いて主観
的期待効用を最大にする代替案を選択します。すなわち、
V (m) = max
a∈F
∑
u(a, s)P M (s|m)
s∈ψ −1 (m)
の右辺の最大値を達成する代替案(それを a∗ (m) により表現します)を最適な代替案とします。
M に含まれる情報を受け取る前に、この意思決定者は情報構造 (M, ψ) を利用することについて
の事前の期待効用を
U (M, ψ; u, P ) =
∑
V (m)QM (m)
m∈M
のように評価することができます。ここで、QM (m) はメッセージ m が得られると意思決定者が判
∑
断している確率を表し、QM (m) = s∈ψ−1 (m) P (s) で求められます。
意思決定者 (u, P ) にとって情報構造 (M1 , ψ1 ) が情報構造 (M2 , ψ2 ) よりも良いということは
U (M1 , ψ1 ; u, P ) > U (M2 , ψ2 ; u, P )
が成り立つことをいいます。この比較は明らかにエージェントの可測効用関数 u と主観確率 P に依
存して決まります。この比較が u と P に関係なく定められるような普遍的な比較ができるための条
件として情報構造の精緻性を定義しましょう。
♦
定義 5.4.1 (情報構造の精緻性)
情報構造 (M1 , ψ1 ) が情報構造 (M2 , ψ2 ) よりも精緻であるとは、任意の E ∈ Sψ2 に対して、Sψ1 の
要素 E1 , . . . , Ek が存在して、E = E1 ∪ · · · ∪ Ek が成り立つことをいいます。
♦
♦
次の定理により、満場一致で(すべての意思決定者にとって)一つの情報構造がもう一つの情報構
造よりも優れているための必要十分条件は情報構造の精緻性であることが示されます。
定理 5.4.1
♦
情報構造 (M1 , ψ1 ) が情報構造 (M2 , ψ2 ) よりも精緻であるための必要十分条件は、S 上の任意の確
31
率分布 P と、A × S 上の任意の実数値関数 u に対して、
U (M1 , ψ1 ; u, P ) ≥ U (M2 , ψ2 ; u, P )
が成り立つことです。
♦
♦
(証明)
S = {s1 , . . . , sn }, M1 = {m11 , . . . , m1ℓ1 }, M2 = {m21 , . . . , m2ℓ2 } とします。はじめに、
(M1 , ψ1 ) が (M2 , ψ2 ) よりも精緻であると仮定します。定義より、任意の m2i ∈ M2 に対して、
ψ −1 (m2i ) =
k
∪
E1j となる Sψ1 の要素 E11 , . . . , E1k
j=1
が存在します。ここで、E11 , . . . , E1k に対応する M1 のメッセージをそれぞれ m11 , . . . , m1k とします。
a∗ (m2i ) をメッセージ m2i を受け取ったときの最適な代替案とすると、j = 1, . . . , k に対して、
max
a∈A
∑
∑
u(a, s)P M1 (s|m1j ) ≥
u(a∗ (m2i ), s)P M1 (s|m1j )
s∈E1j
s∈E1j
が成り立ちます。a∗ (m1j ) (j = 1, . . . , k) を上式の左辺の最大値を達成する代替案とすると、明らかに、
k
∑
QM1 (m1j )
j=1
≥
∑
u(a∗ (m1j ), s)P M1 (s|m1j )
s∈E1j
k
∑
QM1 (m1j )
j=1
∑
u(a∗ (m2j ), s)P M1 (s|m1j )
s∈E1j
が成り立ちます。ゆえに、U (M1 , ψ1 ; u, P ) ≥ U (M2 , ψ2 ; u, P ) となります。
次に、逆を示します。そのためには互いに他よりも精緻でない2つの情報構造 (M1 , ψ1 ) と (M2 , ψ2 )
が与えられたとき、
U (M1 , ψ1 ; u1 , P1 ) ≥ U (M2 , ψ2 ; u1 , P1 ),
U (M2 , ψ2 ; u2 , P2 ) ≥ U (M1 , ψ1 ; u2 , P2 )
となる (u1 , P1 ) および (u2 , P2 ) が存在することを示せば十分です。このような例は S = {s1 , . . . , s4 }
のときに以下のように構成できます。
場合 1.
意思決定問題を S = {s1 , s2 , s3 , s4 }, P1 (si ) = P1 (si ) = 0.25 (i = 1, . . . , 4), F = {a1 , a2 } と
32
します。2つの情報構造を次のように定義します。M1 = M2 = {m1 , m2 , m3 } および
ψ1−1 (m1 ) = {s1 , s2 }
ψ2−1 (m1 ) = {s1 },
ψ1−1 (m2 ) = {s3 }
ψ2−1 (m2 ) = {s2 },
ψ1−1 (m3 ) = {s4 }
ψ2−1 (m3 ) = {s3 , s4 }
とします。
u1 は次のように与えられているとします。
s1
s2
s3
s4
a1
1
0
0
0
a2
0
1
0
0
このとき、
U (M1 , ψ1 ; u1 , P1 ) = 0.25 < U (M2 , ψ2 ; u1 , P1 ) = 0.5
となります。また、u2 が次のように与えられたとします。
s1
s2
s3
s4
a1
0
0
1
0
a2
0
0
0
1
このとき、
U (M1 , ψ1 ; u2 , P2 ) = 0.5 > U (M2 , ψ2 ; u2 , P2 ) = 0.25
となります。
場合 2.
場合 1 において、s1 = s4 とし、次の 2 つの情報構造を考えます。M1 = M2 = {m1 , m2 } お
よび
ψ1−1 (m1 ) = {s1 , s2 }
ψ2−1 (m1 ) = {s2 },
ψ1−1 (m2 ) = {s3 }
ψ2−1 (m2 ) = {s1 , s3 },
¤
とします。以下は場合1と同様にできます。
5.4.2 ノイズのある情報構造
メッセージの集合 M 上のくじの集合を L(M ) とします。このとき、ノイズのある情報構造は L(M )
と写像 ψ : S → L(M ) から構成され、(L(M ), ψ) と表します。いいかえると、自然の状態 s が真で
あると仮定したときに、メッセージの条件付確率分布 ψ(s) = f (m|s) を対応付けるものであると考
33
えることができます12 。
情報が全く無い場合には、意思決定者は
max
a∈F
∑
u(a, s)P (s)
s∈S
を解いて、最適な代替案 a∗ を見つけます。情報構造 (L(M ), ψ) を利用できるとすると、任意の m ∈ M
をメッセージとして受け取るとき、意思決定者は
max
a∈F
∑
u(a, s)P M (s|m)
s∈S
を解いて最適な代替案 a∗ (m) を見つけます。ここで、
f (m|s)P (s)
′
′
s′ ∈S f (m|s )P (s )
P M (s|m) = ∑
です。a∗ (m) の定義より、
∑
u(a∗ (m), s)P M (s|m) ≥
s∈S
∑
u(a∗ , s)P M (s|m)
s∈S
となります。ゆえに、メッセージ m を得る周辺確率 QM (m) =
∑
m∈M
QM (m)
∑
u(a∗ (m), s)P M (s|m) ≥
s∈S
∑
∑
s∈S
QM (m)
∑
m∈M
=
∑ ∑
f (m|s)P (s) を使うと、
u(a∗ , s)P M (s|m)
s∈S
∗
u(a , s)f (m|s)P (s)
s∈S m∈M
=
∑
u(a∗ , s)P (s)
s∈S
が得られます。すなわち、このことは情報がないときより、情報構造を利用するほうが期待効用が大
きくなることを示しています。言い換えると、費用がかからない限りどのような情報でもそれを利用
することは利用しないことよりも好ましいことを示しています。
次に、情報構造 (L(M ), ψ) の価値は
U (M, ψ; u, P ) =
∑
QM (m)
m∈M
∑
u(a∗ (m), s)P M (s|m)
s∈S
で与えられます。2つのノイズのある情報構造を比較しましょう。情報構造 (L(M1 ), ψ1 ) は情報構造
12
それぞれの s ∈ S に対して、ある ms ∈ M が存在して、

1 (m = ms のとき)
f (m|s) =
0 その他
が成り立つときがノイズのない情報構造に対応しています。
34
(L(M2 ), ψ2 ) よりも価値があるとは、すべての u と P に対して、
U (M1 , ψ1 ; u, P ) ≥ U (M2 , ψ2 ; u, P )
が成り立つことをいいます。
定理 5.4.2
♦
(ブラックウェルの定理)
S = {s1 , . . . , sn }, M1 = {m11 , . . . , m1ℓ1 }, M2 = {m21 , . . . , m2ℓ2 } とします。このとき、情報構造
(L(M1 ), ψ1 ) が情報構造 (L(M2 ), ψ2 ) よりも価値があるための必要十分条件は、ℓ2 × ℓ1 のマルコフ
確率行列13 B が存在して、
F 2 = BF 1
となることです。ここで、F i は ℓi × n 行列



F =

f i (m
i1 |s1 )
···
..
.
i
f i (miℓ1 |s1 ) · · ·
f i (m
i1 |sn )
..
.
f i (miℓ1 |sn )





で与えられています。
♦
♦
(証明)
あるマルコフ確率行列 B が存在して、F 2 = BF 1 であると仮定します。このとき、
Q2 (m2j )P 2 (s|m2j ) = P (s)f 2 (m2j |s)
(ベイズの定理)
∑ℓ1
= P (s) k=1 bjk f 1 (m1k |s)
(仮定)
∑ℓ1
1
=
k=1 bjk P (s|m1k )Q1 (m1k ) (ベイズの定理)
∑2
が成り立ちます。また、 ℓj=1
bjk = 1 であることと、定義から、
∑
u(a∗ (m2j ), s)P 1 (s|m1k ) ≤
s∈S
13
∑
s∈S
各列の要素の和が 1 になるものをいいます。
35
u(a∗ (m1k ), s)P 1 (s|m1k )
であることを使うと、
U (L(M2 ), ψ2 ; u, P )
=
ℓ2
∑
Q2 (m2j )
j=1
=
∑
u(a∗ (m2j , s)P 2 (s|m2j )
s∈S
ℓ1 ∑
ℓ2
∑
bjk Q1 (m1k )
k=1 j=1
≤
ℓ1 ∑
ℓ2
∑
=
u(a∗ (m2j ), s)P 1 (s|m1k )
s∈S
bjk Q1 (m1k )
k=1 j=1
ℓ1
∑
∑
∑
u(a∗ (m1k ), s)P 1 (s|m1k )
s∈S
Q1 (m1k )
∑
u(a∗ (m1k ), s)P 1 (s|m1k )
s∈S
k=1
= U (P (M1 ), ψ1 ; u, P )
が得られます。
逆の場合の証明は多少複雑になるので省略します。
演習問題 5.4
5.1
定理 5.4.1 の証明において、場合 1 のときの U (M1 , ψ1 ; u′ , P ′ ), U (M2 , ψ2 ; u′ , P ′ ) を計算しな
さい。
5.2
S = {s1 , . . . , s6 } とします。3つの情報構造 (Mi , ψi ) (i = 1, 2, 3) が以下のように与えられてい
るとします。
s1
s2
s3
s4
s5
s6
ψ1
m1
m1
m2
m2
m2
m3
ψ2
m1
m2
m3
m2
m2
m3
ψ3
m1
m4
m3
m2
m2
m5
このとき、以下の問に答えなさい。
(1) どの情報構造が精緻であるか調べなさい。
(2) 行動の集合 A = {a1 , a2 , a3 } が与えられているとします。P (si ) =
効用関数 u が次表で与えられる意思決定者 (u, P ) を考えます。
36
1
6
(i = 1, . . . , 6) および可測
s1
s2
s3
s4
s5
s6
a1
2
0
0
1
1
0
a2
0
1
3
0
0
0
a3
1
0
0
1
0
1
このとき、情報構造 (Mi , ψi ) (i = 1, 2, 3) の粗価値を求めなさい。
5.3
S = {s1 , s2 , s3 }, A = {a1 , a2 } とする。P (si ) = pi (i = 1, 2, 3) および可測関数 u が
s1
s2
s3
a1
0
1
2
a2
2
0
1
で与えられる意思決定者 (u, P ) を考えます。2 × 3 情報行列 F = (f (mi |sj )) が
s1
s2
s3
m1
α
β
γ
m2
1−α
1−β
1−γ
である情報構造 (L(M ), ψ) が与えられているとします。このとき、以下の問に答えなさい。
(1) p2 (β − γ) + γ > p1 (2α + γ) かつ p1 ≥
1
3
であるとします。このときの最適な代替案を求めなさ
い。また、その価値を求めなさい。
(2) 完全情報のほうが情報構造 (L(M ), ψ) よりも価値があることをブラックウェルの定理より確か
めなさい。
(3) 情報構造 (L(M ), ψ) よりも価値がない情報構造をすべて求めなさい。
37