Shannon-Wiener の多様度指数による環境評価

Shannon-Wiener の多様度指数による環境評価
池
上
博
1. はじめに
生態系の変化をいち早く察知し、人間の直接、間接の影響を捉えるには、同じ場所を長
く観察する必要がある。すなわち、モニタリング調査のねらいは調査サイトに生息・生育
する動植物を長期的にモニタリング調査を実施することにより、自然環境の劣化を早期に
把握することにある。
モニタリング 1000(以下モニ 1000)のチョウの調査では、チョウが活発に活動する晴天
で温暖な日を選び、同じ時間帯に、同じ距離を、同じルート内で目撃されたチョウの種類
及びその個体数を記録するというものである。
チョウ類が環境指標生物として用いられる理由は、それぞれの種の生活史およびその生
態がよく判明しており、環境との結びつきや地域ごとの分布が正確に把握されているとい
う点にある。
以下では、敦賀市の中池見湿地においてモニ 1000 で実施したチョウ類の 7 年間の調査結
果を用いて環境を評価する。
2. 情報とエントロピー
アメリカのAT&T ベル研究所のシャノン(Claude.E.Shannon5)) は、1948 年に「The
Mathematical Theory of Communication」という論文を発表し、それまで曖昧な形でしか
把握されていなかった「情報」の概念を明確に定義しました。
Shannon は、情報を通信する立場から定量的にとらえる方法を、数学的理論として展開
し、
「情報理論」の基礎を築きました。このようなことから、Shannon は、
「情報理論の創
始者」といわれており、これは、
「起こりにくい事象の情報量ほど、値が大きい」というも
のです。
以下に出てくる「エントロピー」を身近なチョウを例にとって説明しよう。
いま、中池見湿地でチョウの調査を行い、キチョウが全体の 99%を占めたとします。一
方、希少種のメスグロヒョウモンが初めて目撃された(1 頭、すなわち 1 匹)とします。
1
 の値はほぼ 0 に
 p
この場合、キチョウを目撃する確率 p はほぼ 1 です。この時、 log 
なります。キチョウは沢山いるわけですから「ほとんどキチョウ」という印象と一致しま
す。
一方、中池見湿地でメスグロヒョウモンを見かけたという情報は、とても大きな情報量
1
 は値が
 p
を持っています。メスグロヒョウモンが見つかる確率はほとんど 0 なので log 
大きくなります。見つかったチョウがメスグロヒョウモンと聞いて「えっ、メスグロヒョ
1
ウモンが見つかったの!」という印象と一致します。したがって、情報量とは、
「ある事柄
に関する驚きの大きさ」と考えればよいわけです。
さて、この log 関数は、生物学とは何の関係もない内容ですが、なかなか面白い考え方
です。
Shannon-Wiener の情報量というのは次式で表されます。すなわち、
1
I (Information ) = log 2   = − log 2 p
 p
発生確率 p の事象が起こったとき、これを知ることにより得られる情報量を I とします。
そうすると、
(1) I は
1
1
に比例します。すなわち、 I ∝
p
p
(2) p が小であれば、 I は大、すなわち「驚きが大」
(3) p が大であれば、 I は小、すなわち「驚きが小」
となります。
次に、エントロピーですが、これは個々の事柄について計算されるものではなく、ある
系全体について計算される量です。情報理論では
エントロピー=情報量の平均
です。
したがって、平均値(すなわち、期待値)はそれぞれの情報量 I に、発生する確率 p を
掛けて足し合わせたものを考えればよいわけですから、
H'=
∑ pI
= − ∑ p ⋅ log 2 p
で表わされます。情報理論では、情報量の平均値をエントロピーと呼ぶわけです。
2
図1
log について
図 1 は、 y = log a x のグラフですが、左図が底 a が a > 1 の場合、右図が 0 < a < 1 の場
、 a = e (2.718) とした場合を
合です。通常、底を a = 2 とした場合をビット( bit : bite )
ナット (nat : natural ) 、a = 10 とした場合をディット (dit : digit ) と呼びます。この場合、
いずれも a > 1 ですから、左図のグラフで単調増加のグラフです。右図は参考のために記し
ておきました。
底に 2、e、10 の何を使ったかは、後で他のデータと比較する場合などに必要なので明記
しておきます。
チョウのトランセクト調査では、チョウの「種数」と「個体数」を調べますが、Shannon
は情報量というものをまず考えます。すなわち、ある事象を観察したときに得られる情報
の量やメッセージに含まれる受け手にとって有用な情報の量を考えるわけです。
私たちは、情報というと定性的なものとすぐ考えてしまいますが、Shannon は情報とい
うものを定量的に評価する「物指し」を考えたわけです。すなわち、情報という漠然とし
た量に数学的な手法を用いて「情報量」という概念を考え出したわけです。
情報の量を、ある事象が発生する確率から考えてみよう。ある事象の情報の量を測ろう
とする場合、基準を揃える必要があります。そこで、確率
1
で起こる事を伝える情報の量
2
n
1
を単位とするのです。これが、
「1 ビット」と呼ばれるものです。一般に、確率   で起こ
2
る事を伝える情報量が n ビットになります。
直感的には、変数 p に対して、 p の対数 log m p は m 進数での p の桁数を表します、
したがって、確率
1
で起こる事象の情報量は p の桁数を表します。
p
3
つまり、確率を p とすると
1
p= 
2
n
のとき、 n ビットが成り立ちますから、両辺の対数(底を 2)をとれば、
1
log 2 p = log 2  
2
∴
n = − log 2 p
n
ビット
つまり、確率 p で起こる情報の持つ情報量を I ( p ) とすると、I ( p ) は次式で与えられます。
I ( p ) = − log 2 p
ビット
ちょっと例をあげて練習してみましょう。
(1)サイコロを1個投げたときに出た目を知る情報量はどうなるでしょうか。
p=
1
6 より、
1
1
I   = − log 2   = log 2 6 ≅ 2.58
6
6
(2)A君の大学合格の可能性は
ビット
1
だとすれば、A君の合格、不合格を伝える情報量はど
10
うなるでしょうか。
1
I (合格 ) = − log 2   = 3.322 ビット
 10 
9
I (不合格 ) = − log 2   = 0.152 ビット
 10 
A君の合格の可能性が
1
と低いため、合格を伝える情報は不合格を伝える情報量より大
10
きいのがわかりますね(つまり、
「A 君が合格したの!」という驚き)
。A 君にとっては「大
4
きな、よろこび」でもあるわけです。
さて、情報量の直感的な定義は何でしょうか、列記してみましょう。
○
ある事象を観察した時に、観察者が得る情報の量は、データの量とは一致しません。
すなわち、必ず起きると誰もが知っていること(確率 1)を知っても情報量は少なく(情報
量=0)
、滅多に起きないことを知ったときの情報量は大きい。
○
確率に対して単調減少である。つまり、発生確率が小さい事象を観察したときの情報
量は大きい。
○ 「犬が人を噛んだ」という情報と、
「人が犬を噛んだ」という情報では、われわれの「驚
き」は大きく異なります。犬が人を噛むことはしょっちゅうあり、我々は驚きもしません
(情報量小)が、人が犬を噛んだという話になるとまずありえませんから驚いてしまいま
す(情報量大)
。
そこで、情報量を表す関数を I とします。
(1)確率が小さいほど、情報量が大きい。すなわち、関数は単調減少である。
p1 > p 2
⇒
I ( p1 ) < I ( p 2 )
(2)独立な事象に対しては加法性が成り立つ。
どういうことかを、具体的な例で示しましょう。
サイコロを 1 回振る場合を考えます。ただし、2 つの事象 a 、 b を次のように定めます。
a は偶数の目が出る事象。
b は3の倍数が出る事象。
とします。
情報量 I (a ), I (b ), I (ab ) を求めます。
1
I (a ) = − log 2 p (a ) = − log 2   = 1 ビット
2
1
I (b ) = − log 2 p (b ) = − log 2   ≅ 1.58 ビット
 3
1
I (ab ) = − log 2 p(ab ) = − log 2   = 2.58 ビット
6
したがって、
5
I (ab ) = I (a ) + I (b ) が成立します。
(3)確率 p に対して連続である。
(4)非負の関数で確率1のとき0である。
I ( p ) ≥ 0 , I (1) = 0
したがって、これらの条件を満たす関数 I は対数しかありません。
I ( p ) = − log b p
つぎに平均情報量を考えてみましょう。
小学校では夏休みの宿題で毎日天気をノートに観測、記録するのが定番でしたが、イン
ターネットの発達により、夏休みの終わりに検索、リストアップすれば全国の過去の天気
さえ知ることが可能になり、学校でもあまりやらなくなりました。
A市とB市の過去の天気は
A市:晴れが 99%、雨が 1%
B市:晴れが 50%、雨が 50%であったとします。
A市の場合、ある日が雨という情報は 1%しか降らないということを考えれば、滅多に雨
は降らないのに降ったわけですから、この「へえ、雨が降ったの!」という驚きをみんな
が持ちますから、情報量は大ということになります。その場合、1 回の観測で得られる情報
量の平均はどうなるのでしょうか。
この場合、観測していない日でも、晴れと書いておけば大体あたるわけですから、1 回の
観測で得られる平均的な情報量は小さいということになります。
B市の場合はどうでしょう。ある日が雨という情報は、50%ですから、情報量としては小
ということになります。
では、1 回の観測で得られる情報の平均はどうでしょうか。まず、観測していない日をど
ちらにすべきか迷うくらいですから、1 回の観測で得られる平均値的な情報量は大きくなリ
ます。
つまり、個々の結果の情報量よりも、平均的に得られる情報量のほうが意味があるとい
うことになります。
さて、次に以下のような問題を考えましょう。
敦賀市の 1 月のある日の天気予報が雪 50%、雨 30%、曇り 20%だとします。それぞれの情
6
報量を求めてみます。
まず、それぞれの情報量を求めると以下のようになります。
I (雪 )
= − log 2 0.5 = 1.00
I (雨)
= − log 2 0.3 = 1.74
I (曇り) = − log 2 0.2 = 2.32
これらの情報量の平均はどうなるのでしょうか。
足して 3 で割っても意味がありませんね。
というのも、雪、雨、曇りの起こる確率はそれぞれ違うからです。
情報量の平均というのは、それぞれの情報量に発生する確率を掛けて足すことで得られ
ます。すなわち、
(
)
平均情報量 = I (雪 ) × 50% + I (雨 ) × 30% + I 曇り × 20%
= 1.00 × 0.5 + 1.74 × 0.3 + 2.32 × 0.2
= 1.57 ビット
この平均値のことを「エントロピー」といいます。
「エントロピー」は「不確かさの物指
し」というわけです。
したがって、平均情報量は次式で表されます。
H =
S
S
i =1
i =1
∑ pi I ( pi ) = −∑ pi log 2 pi
情報量は本来無次元量ですが、情報量は確率の逆数の桁数を表しますから、情報量の単
位として桁数の単位を使うわけです。したがって、対数の底として 2、e、 10 を選んだとき
の情報量の単位はそれぞれビット(bit)、ナット(nat)
、ディット(dit)となります。
以上で、Shannon-Wiener の Index が求まりました。
このエントロピーの概念は少し難しく、なかなか理解しにくいので、もう少し具体的に
チョウを例にとって説明することにしましょう。
1) キチョウとモンシロチョウが、それぞれ 1 頭ずつ中が見えない箱の中にいるものとして、
その中の 1 頭を取り出すときの平均情報量(エントロピー) H は
キチョウである確率
p1 =
1
2
7
モンシロチョウである確率 p 2 =
1
2
したがって、
H = −( p1 log 2 p1 + p 2 log 2 p 2 )
1 1
1
1
= − log 2 + log 2 
2 2
2
2
= 1 (ビット)
となります。
2) 同じくキチョウとモンシロチョウがそれぞれ5頭ずつ入っている中の見えない箱から、
チョウを1頭取り出すときの平均情報量(エントロピー) H は
キチョウである確率
p1 =
5
1
=
10 2
モンシロチョウである確率
p2 =
5
1
=
10 2
したがって、
H = −( p1 log 2 p1 + p 2 log 2 p 2 )
1 1
1
1
=  log 2 + log 2 
2 2
2
2
= 1 (ビット)
このように、1)、2) のエントロピーはまったく同じ 1 ビットになりました。これは、キ
チョウとモンシロチョウの出現確率がまったく同じなので、曖昧さも同じというわけです。
1) や 2) の場合のように、キチョウとモンシロチョウの出現確率が等しい場合は、エント
ロピーは最大値
H max = −2 ×
1
1
log 2 = log 2 2 = 1 (ビット)
2
2
になります。
3) 今度は、キチョウ 7 頭とモンシロチョウ 3 頭が入っている中の見えない箱から、チ
ョウを 1 頭取り出すときの平均情報量(エントロピー) H を求めてみましょう。
8
取り出したものが
キチョウである確率
p1 =
モンシロチョウである確率
7
10
p2 =
3
10
したがって、
7
3
3
7
H = − log 2
+ log 2 
10 10
10 
 10
= 0.881 (ビット)
この場合のエントロピーは、0.881 で 1) や 2) のような同じ確率の場合の最大値 1 よりも
小さくなっています。これは、同じ確率の場合よりも情報量が大きい、すなわちキチョウ
の確率のほうが
7
と高いことがわかっているので、予測しやすくなっているからです。と
10
いうのも、1) や 2) の場合はどんな予測をしても
1
の確率でしか、当てることはできませ
2
んが、3) の場合は、常に「キチョウである」と予測すれば
7
の確率で当てることができ
10
るからです。
4) では、3) とは逆に、キチョウ 3 頭、モンシロチョウ 7 頭の場合を考えてみましょう。計
算の意図は、種が異なった時にどういう結果が得られるかを見るためです。
この場合も、
3
7
7
 3
H = − log 2
+ log 2 
10 10
10 
 10
= 0.881 (ビット)
となり、結果は 3) の場合と同じになります。
ここで、注意しておいて欲しいのは、キチョウとモンシロチョウが入れ替わってもエン
トロピーの値は同じということです。したがって、エントロピーで評価する場合はどちら
の種も同等に扱ってしまうという欠点があることが判ります。
このように、すべての種を同等に扱う Shannon の指数は、ある意味でモニ 1000 で得ら
れた観測データの持つ情報を生かし切れない欠点があります。現在のように多様性保存の
機運が高まるにつれて、このことはますます大きな意味を持つようになってきました。
9
5)
さらに今度は、キチョウとモンシロチョウの出現確率の違いが、更に大きい場合を考
えます。
キチョウ 9 頭とモンシロチョウ 1 頭が入っている中の見えない箱から、チョウを 1 頭取
り出す時のエントロピー H を求めてみましょう。
キチョウである確率
p1 =
モンシロチョウである確率
9
10
p2 =
1
10
したがって、
9
1
1
9
H = − log 2
+ log 2 
10 10
10 
 10
= 0.469(ビット)
エントロピーがますます小さくなりました。このことは、情報量が更に大きくなり、す
なわち、キチョウが出てくる確率が
9
と圧倒的に高いことがわかっているので、何が出て
10
くるかますます予測しやすくなったことを意味します。
ところで、箱の中のチョウが全てキチョウだけのときのエントロピーは
H = 1 × log 2 1 = 0
になります。このことは、キチョウが出る確率が 1 の時は、当然何が出るかの予測できる
ので、エントロピーは 0(ゼロ)になったというわけです。
5)
最後に、中の見えない箱の中のチョウが、キチョウ、モンシロチョウ、アゲハの3種
類になった場合を考えてみましょう。
キチョウ 3 頭、モンシロチョウ 5 頭、アゲハ 2 頭が入っている中の見えない箱から、チ
ョウを 1 頭取り出すときのエントロピーを求めてみましょう。
キチョウである確率
p1 =
モンシロチョウである確率
アゲハである確率
p3 =
3
10
p2 =
5
1
=
10 2
2 1
=
10 5
したがって、
10
3 1
1 1
1
 3
H = − log 2
+ log 2 + log 2 
10 2
2 5
5
 10
= 1.485(ビット)
なお、キチョウ、モンシロチョウ、アゲハの 3 種類の蝶が出る確率が等しい時、エントロ
ピーは最大値をとり、
1
1
H max = −3 × log 2 = log 2 3 = 1.585(ビット)
3
3
となります。
3.
Shannon-Wiener の多様度指数
Shannon の多様度指数(多くの論文には、Shannon-Wiener または
Shannon-Weaver
と記されていますが、Weaver は誤称〔misnomer〕のようです。参考:Wikipedia、the free
encyclopedia)は、情報量による多様度指数で、多くの研究者が使っている割には、数値が
群集構造の何を意味しているのかが判りにくく、また最大値が収束しないなど研究者の中
には使用を嫌う人もいるようです。
情報量とは、例えば「敦賀市でモンシロチョウを見た」というありふれたことはニュー
ス性がなく、
「敦賀市でリュウキュウムラサキを見た」という滅多に起こらないようなこと
は、いったん起こると情報としては価値が高いというたとえで説明できる。つまり、そう
いう社会的背景を持つ概念なのです。
再記すると、数式では、情報量は対数を用いて以下のように定義される。
1
I = log   = − log p
 p
(1)
ただし、 p はある事象が起こる確率です。
上式は、発生確率 p の事象が起こった時、これを知ることにより得られる情報量で、
p が小である
同種のチョウが出
て来る確率が低い
p が大である
同種のチョウが出
て来る確率が高い
1
p
→大、情報量 I が大となり、これは「複雑な群集」であり「種の多
様性が高い群集」であることを意味する。
1
p
→小、情報量 I が小となり、これは「単純な群集」であり「種の多
様性が低い群集」であることを意味する。
11
対数を用いるのは数学的に処理しやすいからである。ここで、対数の底としては e、2、
10 などがあり、どれを選んでも互いに定数倍で変換できるので本質的な違いはないが、群
集分析では 2 をとる場合が多いようである。
ここで、底 b を底 x に変換するには、底の変換公式を使って次のように変換する。
I b ( p ) の底を b 、 I x ( p ) の底を x とすると、
I x ( p ) = − log x p
=−
log b p
log b x
=
1
(− log b p )
log b x
=
1
I b (p )
log b x
で表される。対数の底と単位を下表に示す。
表1 対数の底と単位
底
単
位
備
考
lg
2
ビット(bit)
e=2.718
ナット(nat)
ln(自然対数)
10
ディット(dit)
log(常用対数)
さて、情報量 I = − log p にその事象が起こる確率 p を掛けて − p log p とし、それを
積算したものを −
∑ p log p とする。つまり情報量の平均値を求めると、これを情報理論
ではエントロピーといい、これが Shannon の多様度指数と呼ばれるものである。
Shannon の多様度指数(以下では、森下の論文1)に合わせるために自然対数を用いる)
は
H ′ = − ∑ pi ln pi
(∑ p
i
= 1)
(3)
で表わされる。 H ′ の不偏推定値は
12
S

n
n
H ′ = − ∑ i ln i
N
i =1 N

N =

S
∑n
i =1
i



(4)
である。
4. 使用にあたっての注意点
式(4)の使用にあたっては、次の 2 点に注意しなければならない。

1 つは、 H ′ には偏りがあり、使用にあたっては、ある程度以上の大きな標本かあるいは

H ′ がごく小さい場合に限られ、それ以外は、サンプルの大きさの影響を受けるデータに有
効とされる補正方法(例えば、森下 19961)など)を適用しなければならない。
森下1)は、 チョウ群集から取り出したサンプルから計算された指数値が、母集団の多様
度の偏りのない推定値になっているかどうかを吟味している。
すなわち、チョウの個体数が対数正規分布に従うとの仮定の下に、サンプルの大きさの
変化に伴う指数値の変化の有無を検討している。

図 2 は、不偏推定値を何の補正も施さないで計算したもので、これによると H ′ には偏り
があり、図から判るように小標本でもかなり大きいので、近似的にでも用いて差し支えな

いのは、ある程度以上の大標本か、あるいは H ′ がごく小さい場合に限られる。

*
そこで、以下のような補正項を導入している。森下の提案する H ′ を補正した新指数 H ' は
次の式で求められる。
*

H ' = H ′ + 補正項
ni
n
A
ln i +
N 2N + A
i =1 N
3.3
S
ただし、 A = S + S1
S − S1
S
= −∑
(5)
ここに、 S1 は、サンプル中に 1 個体だけ出現した種数である。
1 個体しか出現しなかった種の数が多いと、その影響が大きく出てしまい正しく多様性を
評価できないというわけである。
表 2 年度ごとの 1 個体出現種数(中池見モニ 1000 調査結果)
2006
2007
2008
2009
2010
2011
2012
S(種数)
47
50
46
46
44
42
39
S1(1 個体出現種数)
6
8
6
7
6
6
8
S1
× 100%
S
13
16
13
15
14
14
21
年度
13
表 2 に、中池見湿地で調査した過去 7 年間の年ごとの種数、1 個体出現種数とその比率を
示す。1 個体種数の出現比率はおおよそ 13%~21%であった。
*
式(5)によって、計算した H ' の値は図 3 に示すように、すべての型においてほとんど
偏りがなくなっている。すなわち、この補正式を用いることによって、個体総数 N の如何

に関らず母集団の H ′ の推定を正しく行うことが出来る。
図2
Shannon の多様度指数1)
もう 1 つは、Shannon や
図3
Shannon の多様度指数(含補正項)1)
Simpson の指数は、観察された個々のチョウの重要性や希
少性などの特性は考慮されず、すべての種を同質として扱っている点である。
表 3 に、構造の異なるチョウの多様度指数(H’)の比較2)を示した。表の C 群、D 群で
は種数、個体数とも同じであるが、その組成が全く逆であるにも関わらず、多様度指数が
全く同じである。このことは、すべての種を同質として扱っている具体例である。A 群と E
群、C 群と F 群も個体数の比は同じであるが、個体数そのものが 1/10 と異なるにも関わら
ず、全く同じ指数で同じ群集として評価されている。
これらの指数は、複数の調査地同士のおおよその多様性を比較したり、調査地のチョウ
の時間的変化などを調べる際の比較のためには有効であるが、これらの指標だけでは議論
できない点も多い。
以下では、次の2点に絞って検討した。すなわち、
(1) すべての種を同等に扱わない
(2) 既存の理論に関連付ける
である。
14
(1)を考慮するために、巣瀬の指標価4)を用いた。また、(2)については、Shannon の
多様度指数4)を用いた。
表 3 構造の異なるチョウの多様度指数(H’)の比較
種 名
アゲハ
モンシロチョウ
ベニシジミ
イチモンジセセリ
イチモンジチョウ
ミズイロオナガシジミ
ミドリヒョウモン
オオムラサキ
イシガケチョウ
ムラサキツバメ
ミカドアゲハ
コロコノマチョウ
総個体数
種 数
ShannonのH'
A群
30
30
30
30
30
30
30
30
30
30
30
30
360
12
2.485
B群
100
80
60
40
30
20
10
10
5
3
1
1
360
12
1.932
C群
180
100
30
20
10
10
10
0
0
0
0
0
360
7
1.369
D群
E群
0
0
0
0
0
10
10
10
20
30
100
180
360
7
1.369
3
3
3
3
3
3
3
3
3
3
3
3
36
12
2.485
F群
18
10
3
2
1
1
1
0
0
0
0
0
36
7
1369
注)H’の単位はナット表1 文献2)の表 3 を改変
5. 不偏推定値の補正
不偏推定値の補正については、年ごとに種数、個体数が異なり、1 個体しか出現しない種
の数も多寡表2があるので、森下の方法を用いて補正が必要かどうかを検討した。
図 4 は中池見湿地で行ったモニ 1000 の 7 年間の調査記録を用いて、不偏推定値に補正項
H’と補正H'
3.5
H'
3.11 3.08 3.13
3.11
3.08 3.06 3.10
3.0
3.07
2.86
2.85
2.83
2.83
2.76
2.72
2.5
2006 2007 2008 2009 2010 2011 2012
年度
H'
図4
H'(補)
H ′ と補正した H ′ 1)
15
を考慮すべきかどうかをみるために、補正前と補正後の計算結果を比較した。
図より、両者の間には有意な差は認められないので、以下の議論では補正項なしの H ′
をそのまま用いることにした。
6. Shannon の多様度指数だけで何が言えるか
図 5 に 2006 年~2012 年までの 7 年間にわたる H ′ の変動を示す。図に回帰直線も引
いてみたが、図よりわかるように、ごくわずかに減少傾向にはあるものの、Shannon の
多様度指数に大きな変動はみられない。
Shannonの多様度指数 H’の変動
5.0
4.0
H'
3.0
2.83 3.08 3.06 3.10 2.83 3.07 2.72
2.0
1.0
0.0
2006 2007 2008 2009 2010 2011 2012
年度
図 5 7 年間の多様度指数の変動
そこで、図 5 からこの 7 年間に「中池見湿地に大きな環境変化がなかった」と言い切
ることが出来るかどうかという問題を以下で検討する。
7. 多様度指数の分解
ここで、Shannon の多様度指数を、
ni
n
ln i
N
i =1 N
S
H ′ = −∑
S3
S2
 S1 n
n
n
n
n
n 
= − ∑ i ln i + ∑ i ln i + ∑ i ln i 
N i =1 N
N i =1 N
N
 i =1 N
好都市種 H 1′
準好自然種 H 2′
(6)
好自然種 H 3′
のように各種の全体への寄与率を見るために計算を種別に行った。
16
ここに、
S1 :好都市種の種数
S 2 :準好自然種の種数
S 3 :好自然種の種数
S = S1 + S 2 + S 3 は種総数
N :総個体数
「好都市種」の調査年ごとの H 1′ = −
S1
ni
ni
∑ N ln N
は図 6 の通りである。なお、図中直
i =1
線は「回帰直線」、 R2 は「決定係数」である(以下同じ)。また、 H 1′ は好都市種の多
様度指数を意味する(以下同じ)
。
図より、好都市種の多様度は右肩上がり、すなわち、正の相関で増加傾向にある。
「準好自然種」の調査年ごとの H 2′ = −
S2
ni
ni
∑ N ln N
は図 7 の通りである。
i =1
図より、準好自然種の多様度は右肩下がり、すなわち、負の相関で減少傾向にある。
「好自然種」の調査年ごとの H 3′ = −
S3
ni
ni
∑ N ln N
は図 8 の通りである。
i =1
図より、好自然種の多様度は右肩下がり、すなわち、負の相関で減少傾向にある。
好都市種の多様度指数(Shannon)
2.0
1.5
H'
R² = 0.6117
1.0
0.5
0.0
2006 2007 2008 2009 2010 2011 2012
年度
図 6 好都市種の多様度指数の変動
17
準好自然種の多様度指数(Shannon)
2.0
1.5
H'
R² = 0.7734
1.0
0.5
0.0
2006 2007 2008 2009 2010 2011 2012
年度
図 7 準好自然種の多様度指数の変動
好自然種の多様度指数(Shannon)
1.0
0.8
H'
R² = 0.3525
0.6
0.4
0.2
0.0
2006 2007 2008 2009 2010 2011 2012
年度
図 8 好自然種の多様度指数の変動
以上より、
(1)すべての種を同等に扱わない
(2)既存の理論に関連付ける
の条件を満たすことが出来た。結果は、巣瀬の指数価を用い、それを加味した重み平均3)
で求めた結果と傾向はほぼ一致した。
したがって、Shannon の多様度指数の算出のみでは、図 5 からも判るように、環境に大
きな変化は殆ど見られないという結論を出してしまう危険性があったが、図 6~図 8 からも
18
判るように、データ解析結果は、チョウからみると中池見湿地は7年間を通して、「環境の
都市化が進んでいる」という結果になっていることが判る。
8. 考察
モニ 1000 のチョウ類の調査では、種数、個体数の調査項目が中心なので、得られたデー
タをいかに有効に使うかが課題であった。
1)「種数」は、様々な環境の要素が存在すれば、それだけ多くの種に環境が対応できるこ
とを意味する。
2)
「個体数」は、多くの種を収容する環境の収容能力を意味する。
など、どちらも棲息環境を具体的に表しており、したがって、種数、個体数は環境評価
には是非組み込む必要があった。
一方で、Shannon や Simpson の多様度指数は多くの研究者に多用されているが、すべて
の種を同等に扱うという致命的欠陥(p/8~p9 の問題 3)
,4)とp/15 の表 3)があり、同
じ多様度指数でも環境に大きな変化がある場合を見逃す危険性があった。
そこで、巣瀬が考えた指標価を用い、チョウが好む棲息環境を分けることによって、そ
の増減が棲息環境の変化をうまく把握できることを利用した。
本結果は、植生の変化や物理的周辺環境の変化、また植物、動物などの他の調査結果な
どを考慮していないのでこれだけで結論を出すには不十分である。他の視点を増やす必要
があることは言うまでもない。
「巣瀬の指標価を用いた重み平均による環境評価」で得た結果は明快のようでもあるが、
方法の正しさを保証しているかどうかを見るために、Shannon の多様度指数を用いて多様
性の増減で再評価してみた。両者の結果とも自然の中に顕著なパターンがあることを示し
ているようにも見える。
本方法の従来の方法と異なる点は、多様度の評価の他に、分類の情報(巣瀬の指標価)
を組み込んだところにある。
なお、モニタリング調査の狙いは、チョウのような個別の種の増減だけでなく、生態系
の相互作用の変化や環境変化が判る調査とする目的があり、ここではそこまで深入り出来
なかった。
参考文献
1. 森下正明(1996)
「種多様性指数値に対するサンプルの大きさの影響」日本生態学会誌
(Japanese Journal of Ecology)46:269-289.
2. 中村寛志(2000)「チョウ類群集の構造解析による環境評価に関する研究」.
環動昆
11(3)
:109-123.
3. 池上 博(2012)
「中池見湿地におけるチョウ類のトランセクト調査による環境評価」.
昆虫と自然、47(4)
:16-19.
19
4. 日本環境動物昆虫学会編(1998)
「蝶の調べ方」
(今井長兵衛・石井実監修)
.文教出版
5.
「 コ ミ ュ ニ ケ ー シ ョ ン の 数 学 的 理 論 」“ The
Mathematical theory of
communication”
、C.E.,Shannon、
:The University of Illinois Press.)
:長谷川淳、
井上光洋共訳:明治図書出版(1969)
2012.12.22
20