人工知能は可能か? - cloudfront.net

本書を発行するにあたって、内容に誤りのないようできる限りの注意を払いましたが、
本書の内容を適用した結果生じたこと、また、適用できなかった結果について、著者、
出版社とも一切の責任を負いませんのでご了承ください。
本書は、
「著作権法」によって、著作権等の権利が保護されている著作物です。本書の
複製権・翻訳権・上映権・譲渡権・公衆送信権(送信可能化権を含む)は著作権者が保
有しています。本書の全部または一部につき、無断で転載、複写複製、電子的装置への
入力等をされると、著作権等の権利侵害となる場合がありますので、ご注意ください。
本書の無断複写は、著作権法上の制限事項を除き、禁じられています。本書の複写複
製を希望される場合は、そのつど事前に下記へ連絡して許諾を得てください。
・オーム社書籍編集局「(書名を明記)」係宛、E-mail([email protected])
または書状、FAX(03-3293-2824)にてお願いします。
まえがき
まえがき
強まる仲間意識と増えつのる知識との結合が、倫理と知性、感情と理性とのフィードバッ
ク・ループを形成し、はてしなく魅惑的なこの現生でうまく生きてゆけるだろう、もし
かしたら自分たちは他を超越した存在なのかもしれないという楽観主義を横溢させてく
れる。そのおかげでわれわれは、自然と進化が与えてくれた知性という質素な贈り物を、
自由意志をはたらかせつつ最大限に駆使することで、人間が存在するのは偶然にすぎな
いという厳粛な事実に納得できるのだ。
(スティーヴン・ジェイ・グールド、
『マラケシュの贋化石(上)
』
、p.17、早川書房、2005)
子どもの頃、鉄腕アトムやドラえもんを見て育ち、将来同じようなロボットをつ
くることを夢見ていました(残念ながら実写版を見た記憶はありませんが)
。21 世
紀の世界に登場するはずのロボットや漫画に描かれる未来社会の科学技術に憧れ
て過ごしました。同世代の多くの研究者のように、それが後に人工知能や人工生
命の研究を志す一因となっています。しかし、2003 年 4 月 7日(鉄腕アトムの誕生
日)はいつのまにか何事もなく過ぎてしまいました。
筆者は 1980 年代の中頃から人工知能の研究をはじめ、やがて人工生命の研究も
行っています。何度かの挫折と幸運を経験することにより、今もこの分野の基礎
的研究に従事することができています。幸運のいくつかは、幸島(宮崎/日本)
、
バージェス頁岩(カナダ)
、フローレス島(インドネシア)
、ガラパゴス諸島(エク
アドル)
、イースター島(チリ)
、ハメリンプール(オーストラリア)など自分の研究
にとっての聖地を仕事の合間に訪ねる機会があったことです。それらを自分の目で
見て考えることが本書執筆の契機ともなっています。そのいくつかの場所の歴史
的意義は詳しく本文でも紹介します。
この本ではそうした筆者の研究の流れに沿いながら、人工知能と人工生命につ
いての基礎を説明します。そのため必ずしも本書の内容は網羅的になっていませ
iii

章 ん。また筆者の意見・志向性が反映している部分もあるでしょう。かつて、
「人工
知能という分野では随筆という形式の論文発表が可能である」と言われていまし
た。実際、今も名の残る著名な研究者の多くはそうしています。こうした意味で
本書に記述の乱暴さが多少あるとしても、明快さと簡潔さのためと大目にみてもら
えれば幸いです。
このような事情から、本書では触れられなかった重要なトピックがいくつかあり
ます。たとえば基本的な探索技法・導出原理や応用技術などに関してほとんど述
べていません。また、最近進展がめざましい機械学習やウェッブ知能についても
説明していません。これらについては既に多くの解説書があります。筆者自身の
最近の研究もこの分野に深くかかわっているのですが、これらの解説はまた別の
機会に譲りたいと思います。
本書で説明するいくつかのトピックについては、プログラムのソースコードが筆
者の研究室ホームページからダウンロード可能になっています。興味がある読者
は、自ら実験して人工知能や人工生命の世界を試してください。
東京大学大学院 工学系研究科 伊庭研究室
http://www.iba.t.u-tokyo.ac.jp/
本書のもとになったのは、筆者の大学での「人工知能」や「システム工学」など
の講義ノートです。講義の運営に協力してくれた、東京大学大学院・情報理工学
系研究科・電子情報学専攻・伊庭研究室のスタッフの方々および学生の皆さんに
厚くお礼を申し上げます。さらに本書で説明するトピックに関連したプログラム作
成に協力してくれた学生の皆さん、なによりも面白いレポート作成に尽力してくれ
た受講生の皆さんに深く感謝いたします。 また、筆者がかつて所属していた学生
時代の研究室(東京大学大学院・工学系研究科・情報工学専攻・井上研究室)や電
子技術総合研究所の方々との人工知能や人工生命をめぐる哲学的で楽しい議論が
本書の中核となっているのは間違いありません。この機会に先生方と先輩・後輩
および同僚の皆さまに深く感謝いたします。
iv
まえがき
最近の自身の講義で、学生たちが古典的な人工知能(第5章で説明する GOFAI)
の問題を解いたり新たな視点で考察したりするのに、筆者は人知れず感銘を受け
ています。しかしながら一方で、彼らの多くが人工知能の古典的な名作(第 1 章で
説明するいくつかのバイブル的な入門書)をまったく読まずにいることは非常に残
念です。そのため講義のレポートではあえて読書感想文(人工知能に関する随筆)
を理系の学部生に対して出題しています。すると、
「こんな面白い本を初めて読ん
だ」とか、
「こうしたテーマについて非常に考えさせられた」という感想が少なから
ず寄せられ、またその考察内容の新鮮さにもしばしば驚かされています。ある意
味で「温故知新」の思いです。
冒頭に述べたように鉄腕アトムはリアルタイムでは実現できなかったかもしれま
せんが、決してわれわれはあきらめているのではありません。本書でところどころ
に解説するように進展は着実に得られています。上で述べたような学生たち(の子
孫)がいつの日か本当に鉄腕アトムやドラえもんをつくることになるでしょう。本
書が少しでもその実現に貢献できればと期待しています。
最後に、いつも研究生活を陰ながら支えてくれた妻 由美子、子どもたち(滉基、
滉乃、滉豊)に心から感謝します。
2013 年 5 月
伊 庭 斉 志 v
目次
目次
まえがき........................................................................................................................... iii
第
1 章 人工知能は可能か?
1
1.1 あなたの AI は強いか? ...................................................................................2
1.2 最も人間らしいコンピュータ.........................................................................3
1.3 チューリング・テストへの批判 .....................................................................8
1.4 うそつきはだれだ?..................................................................................... 11
1.5 コンピュータは停止するか?...................................................................... 17
1.6 人工知能批判 ................................................................................................20
1.7 文化の遺伝子 — ミーム .............................................................................. 23
1.8 AI は知的であるべきか?............................................................................. 25
第
2 章 人工知能のための論理と推論
29
2.1 AI に論理的推論は必要か?.........................................................................30
2.2 類推的推論と知能テスト ............................................................................. 31
2.3 シェークスピアは好きですか:非単調論理推論 ....................................... 37
2.4 如何にして問題を解くか:幾何の推論 ...................................................... 51
第
3 章 ランダムネスという知能と生命
75
3.1 ランダムブーリアンネットワークと進化の理論 ....................................... 76
3.2 ランダムが勝つ ............................................................................................ 89
3.3 法則の発見..................................................................................................101
vi
目次
第
4 章 複雑系という知能と生命
113
4.1 データから嘘を見破れるか .......................................................................114
4.2 スモールワールド ..................................................................................... 123
4.3 スケールフリー ......................................................................................... 130
4.4 3/4 か 2/3 か?..........................................................................................141
4.5 知の限界と最も知られていない数........................................................... 145
第
5 章 人工生命
149
5.1 人工生命とは? ......................................................................................... 150
5.2 人工生物の進化 ......................................................................................... 159
5.3 蟻のところへ行って見よ(旧約聖書):ACO アルゴリズム .................. 166
5.4 類は友を呼ぶ:PSO アルゴリズム ......................................................... 174
5.5 蜂は 8 の字を書く:ABC アルゴリズム ...................................................181
第
6 章 生命を創って理解する
189
6.1 生命とは情報である ................................................................................. 190
6.2 遺伝子ネットワークとは? ...................................................................... 197
6.3 合成生物学とはなにか? ...........................................................................211
6.4 アリはなぜ橋をつくるのか?................................................................... 227
6.5 創って理解する ......................................................................................... 233
参考図書 ............................................................................................................. 236
索引
................................................................................................................... 245
vii
第
1
章
人工知能は可能か?
 1 章 人工知能は可能か?
1.1 あなたの AI は強いか?
人工知能(AI, artificial intelligence)の研究には 2 つの立場があるとされていま
す [1]。
1. 人間の知能そのものを持つ機械を作ろう
2. 人間が知能を使ってすることを機械にさせよう
これらの立場をそれぞれ強い AI および弱い AI と呼びます。
強い AI 私の作っているのは知能そのものである。
弱い AI 知的で賢い機械を作りましょう。
実際の研究のほとんどは後者の立場にたっています。ただし究極目的やそもそ
もの動機が「強い AI」である場合も少なくありません。またもともとは「強い AI」
を志していたけれど、諸般の事情で「弱い AI」に従事していることもあります。実
際、かつては「強い AI」に関する論文や研究成果が頻繁に発表されていましたが、
現在は社会的あるいは経済的な制約からか、少なくなっています。
こうしたことから第 2 章以降では「弱い AI」への比重が次第に高くなっていきま
すが、この章では「強い AI」をめぐる話題について説明していくことにします。
「強い AI」の実現のためには、
「知能とは何だろうか?」ということを考える必要
があります。通常、知能とは「知的活動の能力」のことを意味し、この「知的な活
動」には問題解決・推論・学習などが含まれます。したがって、知能とは、情報処
理能力、抽象化・一般化の能力、および学習の能力と言えるでしょう。
コンピュータなどで知能をシミュレートすることを考えてみましょう。知能がシ
ミュレートできれば、
「強い AI」が完成したと言えるでしょう。ところがここで問
題が出てきます。通常、シミュレーションとは「模型や数学モデルを用いて現実(に
似た状況)を試行すること」を言います。たとえば「台風のシミュレーション」を考
えてみましょう[47]。このとき、台風のメカニズムを数式でモデル化し、風速や進
行方向、雨量などを計算するのが普通です。実際の台風に関して予測を検証して
シミュレーションの精度を評価することもできるでしょう。
2
1.2 最も人間らしいコンピュータ
一方で、知能をシミュレートした場合にはどうでしょうか? どのように評価す
ればいいのでしょうか? そのシミュレーションが「知能」を本当に持っているこ
とを何らかの手段で検証しなくてはなりません。これは「知能」を定義することと
同じになり、そう簡単ではありません。
コンピュータで台風をシミュレートした場合、そのコンピュータ自体が強風を
吹かないとか雨で濡れないからといっても「これは台風のシミュレーションではな
い」と非難する人はいないでしょう。一方、知能をシミュレートしたと主張するな
ら、コンピュータ自体にわれわれと同じような知能を要求することになります。台
風のシミュレーションのときにコンピュータが濡れることを要求するようなもので
す。つまり、同じシミュレーションでもその意味が大きく違っています。
では、コンピュータは知能をシミュレートできるのでしょうか? これに関して
は否定的な意見が昔から言われてきました。
Analytical Engine(解析機関)は、何か新しいものを創造するといった主張は全くし
ていない。それがすべき振舞い方を我々がどのように命令すればよいかを知っているこ
とであれば、単にすべて実行できるだけである(Lady Ada Lovelace, 1815-1852)
。
これはエイダ・ラブレスの「解析機関」についての言葉です。彼女は詩人バイロ
ンの娘であり、世界で最初のプログラマーとされています。解析機関は 19 世紀前
半にイギリス人数学者チャールズ・バベッジが設計した機械式汎用コンピュータ
です。彼女は解析機関のプログラムをはじめて記述したそうです。その彼女が、
「解
析機関はどんなことでも自分では始められない。人間が命令の仕方を知っていれ
ば、解析機関はどんなことでも実行できる」と述べて、強い意味での AI の実現に
否定的な発言をしています。
1.2 最も人間らしいコンピュータ
1950 年に数学者で AI の父と言われているアラン・チューリングは「ラブレス夫
人への反論」として有名な論文を書いています。彼の論文の主旨は、
コンピュータにも独創的なことはできないが、人間もまた独創的でない
3
 1 章 人工知能は可能か?
というものでした。チューリングは、
「機械が思考することができるか」という問
題を深く考察し、それは可能であると述べています。この論文には、有名な「たま
ねぎの皮("skin-of-an-onion" analogy)
」のたとえが出てきます [117]。
心や脳のはたらきを考えたとき、純粋に機械的なことばで説明できるしくみがある。
しかしこれは真の心には相当しない。真の心を見出すために引きはがさなくてはならな
い皮のようなものである。引きはがしてもさらに皮が見つかるだろう。このような方法
で真の心にたどり着くのだろうか? あるいは結局その中には何もない皮に着くのだろ
うか?
そしてチューリングは知能を判定するための「チューリング・テスト」と呼ばれ
る強力だが議論の多い方法を提案しました。
チューリング・テストを現代的な言葉に直すと、電子メールを通しての次のよう
な掲示板ゲームとなります。
●
ある日、あなたは掲示板に Aと B という新人がいるのを見つけた。
●
Aと B のいずれにメッセージを送っても的確に答えが返ってきた。
●
実はこの Aと B のうち、一方は人間、他方はコンピュータであるらしい。
●
しかしどのような質問をしても、どちらがコンピュータなのかわからなかっ
た。
もしこのテストに通れば(つまりどちらがコンピュータかがわからなければ)
、
そのプログラムは知能をシミュレートしているといってよいでしょう(少なくとも
質問が効果的である限り)
。このようなコンテストはインターネット上でも行われ
ています*1。このコンテストは、後援者のイギリス人慈善家ヒュー・ローブナー氏
にちなんで『ローブナー賞』と呼ばれています。1990 年から 10 万ドルの賞金がかけ
られています。しかしまだ合格基準を満たす機械は登場していません。
ローブナー賞の審査では、審判員はまずサクラ(人間)か AI プログラムかのど
ちらか一方と 5 分間チャットします。次にもう一方と 5 分間チャットします。そ
のあと、審判員は 10 分間考えてどちらか人間だと思う方を投票します。最も人
間であると得票したコンピュータが「最も人間らしいコンピュータ(Most human
*1
4
http://www.loebner.net/Prizef/loebner-prize.html
1.2 最も人間らしいコンピュータ
computer)
」となります。ローブナー賞で良い評価をもらうには、
●
人間が犯しがちなスペルミスをわざとする。
●
入力に人間らしい不規則な「間」を入れる。
などが重要とされています [26]。
チューリングは次のような予言をしています。
2000 年までに 30% の審判員をだませるようになり、機械は考えることができるであ
ろう。
まだこれは実現していませんが、2008 年にはあと一歩だったそうです。このよう
な楽観的な意見が出る背景として、ローブナー賞よりもはるか以前のことですが、
人工知能の初期の研究に次のような成功例がありました。
●
ELIZA *2(1966)
ジョセフ・ワイゼンバウムによる、精神分析医を模した会話システム。わずか
数百行のプログラムだが、秘書が会話中毒になってしまった。
●
PARRY(1972)
ケネス・コルビーによる、統合失調症の患者を装うシステム。多くの精神科
医は人間と誤って判定した。
たとえば、図 1.1 にあるような会話を見てください。この会話の下線部分が
ELIZA からの出力です。ちょっと見ただけではどちらが人間かすら迷うかもしれ
ません。
*2
ジョージ・バーナード・ショーの戯曲『ピグマリオン』の登場人物 Eliza Doolittleにちなんだもの。Elizaは上流
階級のアクセントで話すことを教えられる労働者階級の役。
5
 1 章 人工知能は可能か?
男なんてみんな同じよ。
どんな風に?
いつだって私達を何やかやと悩ますわ。
具体的な例を思いつきますか。
そうね、私の彼が私をここによこしたとかね。
あなたの彼があなたをここによこしたのですか?
彼が、私はしょっちゅう落ち込んでるっていうの。
失礼ですが、あなたは落ちこんでいるというように聞こえましたが。
その通りよ。私、不幸せなの。
ここにくることが不幸せから抜け出すことに役立つと思いますか?
私には何か助けが必要よ。それはかなり確かよ。
もし助けが得られるとして、それはあなたにはどんな意味がありますか?
たぶん、お母さんとうまくやれるようになるのではないかしら。
ご家族のことをもっと話してください。
お母さんが私の面倒をみてくれてるわ。
ご家族の中で他に誰があなたの面倒をみてくれていますか?
お父さん。
お父さんですね。
あなたってお父さんに似たところがあるわね。
どんなところが似ているのですか?
あまりつっかかってこないわ。でもそういうところに気付いてほしくないんでしょ。
どういうところであまりつっかかってこないと思ったのですか?
私と言い争わないもの。
私と言い争わないと思うのですか?
あなたは私をこわがっているのよ。
私があなたをこわがっていると思うと気分良いですか?
お父さんはみんなをこわがるわ。
お父さんのことを考えたとき他にどんなことがうかびますか?
ゴロツキども
それはあなたの彼があなたをここによこしたことと何か関係がありますか?
■図
1.1:人間か機械か?
ところが、ELIZA に用いられたコンピュータはメモリや処理能力に乏しく、わ
ずか 200 行のプログラムでした。このプログラムは単なるテンプレート照合による
チャットプログラムです。それにもかかわらず、このプログラムとチャットした人
の多くは相手がプログラムであるとは信じられず、その中には有益なアドバイスを
受けたと報告した人もいました。この結果を多くの研究者は熱狂的に支持しまし
6
1.2 最も人間らしいコンピュータ
た。コンピュータによる自然言語理解の実現も近いように感じられました。開発者
のワイゼンバウムの秘書がこのプログラムと長い時間話し込み、博士が見にくると
「邪魔をしないで」と追い払われたという逸話もあります。このようなことが契機
となって、ワイゼンバウムは逆に AI に対して強烈な批判者になりました [55]。
ローブナー賞には人間のサクラもエントリーします。このサクラは当然人間の
ふりをするのですが、人間であると最多得票したサクラは「最も人間らしい人間
(Most human human)
」として表彰されます。これはわれわれ人間には簡単なこと
のように思われますが、必ずしもそうではありません。最も人間らしいコンピュー
タ(Most human computer)にいかにして勝つかについては [26] に詳しく書かれ
ています。ローブナー賞やその他の会話システム(chatbot と呼ばれています)は
関連のホームページ*3 から参照できます。そこでは ELIZA などのシステムも試す
ことができます。
関連する話題として、人間の会話がそれほど知的かということを考えてみましょ
う。図 1.2 の会話を見てください [26, p.59]。これは実際の人間の会話です。これを
見るとほとんど相手の直前の言葉や言い回しに対応しているだけで、内容に深く
踏み込んで会話をしていないことがわかります。これはマルコフ過程(未来の挙動
が現在の値だけで決定され、過去の挙動とは無関係な確率過程)で会話が成立して
いて、簡単にモデル化できることを意味します。人間の会話は思ったよりも知的で
ないのかもしれません。
また約束をやぶりやがったな。
そんな言い方はないだろう。
おや、俺の言い方に話をそらすのか。むきになりやがって。
むきになっているのはそっちだろうが。お前が XXXしたときとまるで同じだ!
何百回もいってるだろ。おれは XXX なんてこれっぽっちもしたことがない。おめえこそ……
■図
1.2:人間の会話は知的か?
最近評判になった AI システムとして、IBM が開発した質問応答(QA)システム
「Watson」があります。これは米国の人気クイズ番組「Jeopardy!」に出場し、人間
のチャンピオンに挑戦しました。その結果 2 ゲームを通じて Watson が最高金額を
獲得しました。インターネットにはつながっておらず、膨大なデータベースにアク
*3
http://www.chatbots.org/
7
 1 章 人工知能は可能か?
セスして回答を得ます。クイズ番組では自然言語で問われた質問を理解し解答し
ました。このシステムはかなり知的に思えますが、果たしてチューリング・テスト
に通るかどうかは疑問です。
1.3 チューリング・テストへの批判
チューリング・テストについては多くの問題点が指摘され、AI の実現可能性へ
の批判がなされています。
有名なのはジョン・サールによる「知能の定義」そのものへの攻撃です。彼は
チューリング・テストを逆手にとって、
「中国語の部屋」を考え出しました。これ
は以下のようなものです [37]。
●○辞典
中英辞典
?
…
中国語は知らない
■図
中国語を知っているらしい
1.3:中国語の部屋
誰かが部屋に閉じ込められて、大量の中国語の書類を与えられたとします。こ
の部屋の中を見ることはできず、文書を渡す入り口と、回答を受け取る出口しかあ
りません。彼は中国語をまったく知らず、漢字の区別もつきません。そのため中の
人間は日本人ではなく、英国人だとしましょう。次に一式のマニュアルを渡されま
す。それには一群の中国語と別の一群の中国語を結びつけるための規則が書いて
あります。この規則は英語で書かれているので彼にも十分理解できます。この部
8
1.3 チューリング・テストへの批判
屋に対して、中国語がわかる人間が質問を中国語で入り口に入れて、出口から得
た回答により会話がなされるようすを考えてみましょう。サールは次のように述べ
ています。
しばらくすると、彼は実に上手に指示通りに中国語を操作できるようになり、部屋の
外から彼に指示を与える人も指示の与え方がうまくなって、彼の作り出す答えは、中国
人の返答と区別できなくなったとしよう。彼の作る答えだけを見れば、彼が中国語を理
解していないという者はいなくなる。
(中略)しかし、中国語の場合は英語と違って、彼
はまったく解釈なしに形式的に記号を操作し答を作っているのである。
単に形式に従って字面だけを見て操作している限りでは、真に理解していると
はいえません。ところが、
「中国語の部屋」からわかるように、人間の行為は特定
の状況で適切な形式的規則を与えられれば、人間でも機械でもでっちあげができ
ます。したがって、強い AI など実現できないとサールは主張しています。
これに対してはさまざまな反論が考えられます。おそらく誰にでも思いつくの
は、
●
すべてに対応する変換規則が書けるのか?
●
膨大なデータベースの検索が可能なのか?
というものです。
しかしこの反論は意味をなしません。なぜなら第一の疑問はそもそもAI の実現
可能性の否定につながります(ただし後にもう少し別の形の反論を紹介します)
。
また第二については、超高速並列計算や量子計算などの実現可能性を想定すると、
将来的には否定できず、議論の本筋にはなりえません。
有力な反論の 1 つは「システム論」に基づくものです。部屋のなかに入る人は確
かに理解していないかもしれません。しかし、その人は紙やデータベースなどを
含めた大きなシステムの一部に過ぎず、システム全体としては理解しているという
ものです。中国人であっても、その脳神経細胞の 1 つ 1 つが中国語を理解していな
いのと同じです。
これに対してサールは、
「マニュアルを完全に記憶するとし、外部の助けなしに
中国語の返答をしていても、なお中国語を理解していない場合がある」と再反論し
9
 1 章 人工知能は可能か?
ています。
サールの批判に対して、最近 Levesqueらによる計算論的考察に基づく反論がな
されています [13, 97]。これは次のような「足し算の部屋」で説明されます。
●
10 桁の数を 20 個足すという足し算の部屋を考える。
●
計算のできない人間と足し算のマニュアルが部屋の中にあるとする。
●
このとき、人間がマニュアルを完全に把握し、すべての操作を頭の中で行っ
たとしても、なおも「足し算を理解していない」というようなマニュアルが作
れるか?
「足し算の部屋」に対しては、次のようなマニュアルがすぐに思い浮かぶでしょ
う。
●
1 桁の足し算は暗記する。
●
2 桁以上の数は 1 桁に還元して足す。
しかしこれはわれわれが小学校で習った方法そのものです。したがってこのマ
ニュアルを把握しているということは、結局足し算のアルゴリズムを熟知している
ことになり、足し算を理解しているといっていいでしょう。
では、もう少し原始的なマニュアルを考えてみましょう。
●
最初の数と同じ章へ行く。
●
その章内で 2 番目の数と同じ番号の節へ行く。
●
さらにその節内で 3 番目の数と同じ番号の副節へ行く。
●
これを 20 個の数全部にわたって繰り返す。
●
すべてが終わったらそこには最大 12 桁の数が書いてあるので、その数を返し
て終了する。
このマニュアルには単に計算結果が辞書のように羅列してあります。中国語の
部屋と同じように、この人間は足し算をしていませんし、さらに計算について何も
理解していません。ではサールの主張は正しかったのでしょうか?
ここでこのマニュアルの計算量を考えてみましょう。1 番目の数に対応する章に
10
1.4 うそつきはだれだ?
は 10 の 10 乗分が必要です。各章には 10 の 10 乗の節が含まれます。これが 20 段繰
り返すので、項目だけで 10 の 10 乗の 20 乗=10 の 200 乗となります。宇宙の分子数
は 10 の 100 乗程度といわれています。したがってこれほど大きなマニュアルは決し
て作れません。このことからサールの主張が計算論的には正しくないことがわかり
ます。ただしこのマニュアルに関してはその通りですが、サール自身はマニュアル
の構成法を明示していないので再々反論があり得るかもしれません。
最近、機械翻訳が膨大なデータベースと統計的な処理でなされています。有名
なのは、Google の機械翻訳です。昔の機械翻訳は自然言語理解に基づく古典的な
AI でした。しかし残念ながら必ずしも有効ではありませんでした。一方、Google
の機械翻訳はソフト自体は自然言語について何も理解していません。このソフトは
膨大なデータベース(人間による翻訳、国連の議事録)を利用して訳語を統計的に
つなぎ合わせます。その結果、2006 年の機械翻訳コンテストでは圧倒的な差で優
勝しました。このような翻訳手法は、現代のコンピュータパワーやインターネット
が活用できるからこそ可能な技術です。このアプローチは中国語の部屋への解決
策となるかもしれません。
1.4 うそつきはだれだ?
以下の文章を考えてください。この中に誤りがありますが、それはどれでしょう
か?
1. このリストの文章の中で、嘘のものは 1 つである。
2. このリストの文章の中で、嘘のものは 2 つである。
3. このリストの文章の中で、嘘のものは 3 つである。
4. このリストの文章の中で、嘘のものは 4 つである。
5. このリストの文章の中で、嘘のものは 5 つである。
6. このリストの文章の中で、嘘のものは 6 つである。
7. このリストの文章の中で、嘘のものは 7 つである。
また次の問題は有名です。
11
 1 章 人工知能は可能か?
ある村の床屋は、自分で髭を剃らない村人全員の髭だけを剃ることになっ
ている。それではこの床屋自身の髭は誰が剃るのか?
このようなパズルの背景にある考え方は「うそつきパラドックス」と呼ばれてい
ます。その最も簡単な例は次のものでしょう。
私はうそつきだ。
●
これから言うことは本当だ。
●
今言ったことは嘘だ。
これらがなぜパラドックスなのでしょうか? それは、真であるとしても偽であ
るとしても矛盾になってしまい、真か偽かを決定できないからです。
次の例は少し巧妙です。すべての形容詞を、それ自身を説明しているものと、
そうでないものの 2 つのグループに分けることができます。たとえば、
「短い」
、
「8
文字以内の」
、
「黒い」などはそれ自身を説明しています。
「短い」というのはたしか
に 2 文字しかなく短いです。
「8 文字以内の」は 6 文字なのでそれ自身の説明となっ
ています。
「黒い」も黒い印字なので成り立ちます。一方、
「長い」
、
「3 文字以内の」
、
「心地よい」
、
「白い」などはそれ自身を説明していません。では、
「言葉では言い表
せない(indescribable)
」という形容詞を考えてみましょう。この形容詞はどちらの
グループに属するでしょうか?
「真実の口」のパラドックスというものあります [52]。真実の口とは、ローマの
サンタ・マリア・イン・コスメディン教会(Santa Maria in Cosmedin)の外壁にあ
る彫刻です。この口に手を入れると、偽りの心がある者は手を抜くときにその手首
を切り落とされるという伝説があります。そこで口に手を入れながら、
「私はもう
二度と私の手を引き戻せないだろう」と言ったとしましょう。このとき私の手は切
り落とされるでしょうか?
このような自己言及的なパラドックスは日常生活でもたくさんあります。筆者
が趣味で集めたものを以下に紹介しましょう。この中には必ずしも「自己言及」と
なっていないものもありますが、
「うそつきパラドックス」的な例と考えられます。
12
1.4 うそつきはだれだ?
●
図書館には図書目録という本がある。その本には図書目録自体は載っている
か?
●“I
cannot speak English !!”と英語で言う。
●「うるさい !
!」という声が大きい。
●「私は怒っていない」という怒り声。
●「同じことを何度も言わせるな」と繰り返し言う。
●「落書きするな !
●
!」という記述が落書きとなっている。
首都高で「落下物注意」の横断幕が落下して事故になった(2010 年 2 月 8日の
新聞記事)
。
●「花火のゴミは持ち帰りましょう」というちらしが花火に入っている。それが、
多摩川の河原にゴミとして捨ててあった(2010 年 7 月 22日の新聞記事)
。
●
自殺防止ホットラインに電話した女性は、
「さっさと自殺しな」とアドバイス
を受けた。掛け直すと、今度は電話に出た男から「くたばれ、俺は寝てるんだ」
と言われた。
●「私は差別をする人は大嫌いだ」という発言。
●「個性がない」という個性がある人。
●「〜するな」という人を信用するな !
●「自分らしくしていろ !
●
!
!」という命令文。従うことで自分らしくいられるか?
次の文の括弧に適した数を入れよ。
「この文章には 1 が( )個含まれている」
●「19 文字以内で記述できない最小の自然数」
(ベリーのパラドックス)
自己言及パラドックスの例は、数学や言語に限られません。マウリッツ・コルネ
リス・エッシャーの絵にはこの種のパラドックスが数多く絵が描かれています。た
とえば以下の作品は有名なので見たことがあるでしょう(図 1.4)
。
13
 1 章 人工知能は可能か?
●
「描く手」
(1948)
右手を描いている左手、その左手を描いている右手が描かれている。
M.C. Escher's
“Drawing Hands”©2013 The M.C.Escher CompanyThe Netherlands. www.mcescher.com
※ The M.C.Escher Company との契約により 72dpi で収録しています。
■図
1.4(a):自己言及パラドックスとアート(M.C. エッシャー)
●
「プリント・ギャラリー」
(1956)
壁の絵の 1 つには、窓から傾いた屋根を見下ろす一人の女性が描かれている。
その傾いた屋根の下には回廊が納められている。つまり、若い男性は彼が題
材の絵を見ていることになり、現実とイメージが同一となっている。
M.C. Escher's
“Print Gallery”©2013 The M.C.Escher CompanyThe Netherlands. www.mcescher.com
※ The M.C.Escher Company との契約により 72dpi で収録しています。
■図
14
1.4(b):自己言及パラドックスとアート(M.C. エッシャー)
1.4 うそつきはだれだ?
●
「3 つの球体 II」
(1946)
真ん中の球体は、両端の球体と、この 3 つの球体を描いている本人を映し出し
ている。
M.C. Escher's
“Three Spheres II”©2013 The M.C.Escher CompanyThe Netherlands. www.mcescher.com
※ The M.C.Escher Company との契約により 72dpi で収録しています。
■図
1.4(c):自己言及パラドックスとアート(M.C. エッシャー)
パフォーマンスや文学にも自己言及の例があります [12, p.160]。たとえば、椅
子なしで座れる「円環座法」という集団技があります。これは、自分自身を椅子に
しながら、椅子がなくても椅子に座るというパラドックスを解いたものです。1,000
人を超える円環座法に挑戦した世界記録や、逆にできるだけ少ない人数での記録
が報告されています。また、萩原朔太郎の「死なない蛸」という詩もパラドックス
の名作と言えましょう。
萩原朔太郎「死なない蛸」
或る水族館の水槽で、ひさしい間、飢ゑた蛸が飼はれてゐた。地下の薄暗い岩の影で、
青ざめた玻璃天井の光線が、いつも悲しげに漂つてゐた。
だれも人人は、その薄暗い水槽を忘れてゐた。もう久しい以前に、蛸は死んだと思は
れてゐた。そして腐つた海水だけが、埃つぽい日ざしの中で、いつも硝子窓の槽にたま
つてゐた。
けれども動物は死ななかつた。蛸は岩影にかくれて居たのだ。そして彼が目を覺した
時、不幸な、忘れられた槽の中で、幾日も幾日も、おそろしい飢饑を忍ばねばならなか
つた。どこにも餌食がなく、食物が全く盡きてしまつた時、彼は自分の足をもいで食つ
た。まづその一本を。それから次の一本を。それから、最後に、それがすつかりおしま
ひになつた時、今度は胴を裏がへして、内臟の一部を食ひはじめた。少しづつ他の一部
15
 1 章 人工知能は可能か?
から一部へと。順順に。
かくして蛸は、彼の身體全體を食ひつくしてしまつた。外皮から、腦髓から、胃袋から。
どこもかしこも、すべて殘る隈なく。完全に。
或る朝、ふと番人がそこに來た時、水槽の中は空つぽになつてゐた。曇つた埃つぽい
硝子の中で、藍色の透き通つた潮水(しほみづ)と、なよなよした海草とが動いてゐた。
そしてどこの岩の隅隅にも、もはや生物の姿は見えなかつた。蛸は實際に、すつかり消
滅してしまつたのである。
5 5 5
けれども蛸は死ななかつた。彼が消えてしまつた後ですらも、尚ほ且つ永遠にそこに
生きてゐた。古ぼけた、空つぽの、忘れられた水族館の槽の中で。永遠に ?? おそらくは
幾世紀の間を通じて ?? 或る物すごい缺乏と不滿をもつた、人の目に見えない動物が生き
て居た。
以上に述べたような自己言及のパラドックスは、人工知能の問題やコンピュー
タ科学の理論研究のために非常に重要です。たとえば人工知能における古典的名
著として『ゲーデル、エッシャー、バッハ−あるいは不思議の環』や『マインズ・
アイ−コンピュータ時代の「心」と「私」
』
[46, 47] を参照してください。これらの本
は、パラドックス、言葉遊び、数学パズル、ヨハン・セバスティアン・バッハの無
限に上昇するカノン、禅などの話題をもとにして人工知能の基礎についてわかりや
すく解説しています。なお、ダグラス・ホフスタッターの『ゲーデル、エッシャー、
バッハ』は 1980 年ピューリッツアー賞を受賞しています。
自己言及のパラドックスは数学では古くから研究されています。バートランド・
ラッセルのパラドックスと呼ばれるものがあります。何かの集合を考えましょう。
たとえば、
「犬の集合」とか「赤いものの集合」というのがあります。ここで、
「自
分自身をその要素として含まない集合」を考えてみます。これは、
(1.1)
と表されます。このとき、S 自体も集合なので、自分自身を含んでいる集合なので
しょうか? あるいはそうでないのでしょうか? つまり、
(1.2)
S ∈ S と仮定すると、それは同時に S を定義から「それ自身の要素にならない集
16
1.5 コンピュータは停止するか?
合」であるとしたことになります。つまり、S は S 自身の要素であり、かつ S 自身の
要素にならないことになってしまい、矛盾します。次に、S ∉ S と仮定してみましょ
う。すると、S は式(1.1)の定義を満たす集合であり、S ∈ S となります。つまり、S
は S 自身の要素ではなく、かつ S 自身の要素でもあることになります。こうしてい
ずれにしても矛盾となってしまいます。
なおバートランド・ラッセルはイギリス生まれの論理学者、数学者、哲学者で、
「プリンキピア・マテマティカ(数学原理)
」という数学の基礎に関する著作で有名
です。この本では古典数学全体の陳述を表現できる計算法を作りあげています。
2000 ページ(全 3 巻)にもなる大作ですが、驚くべきことに「1+1= 2」の証明が第
2 巻になってようやく出てきます。
1.5 コンピュータは停止するか?
xxx
一般のプログラムの停止性を判定するような、
プログラムは存在しない。
ち
綜
んと
した
D
xxx
しない
xxxxxxxxxxx
xxxxxxxxxxx
xxxxxxxxxxx
xxxxxxxxxxx
xxxxxxxxx..
■図
1.5:停止性問題とは?
プログラムを書いてコンパイル実行してみるとバグで無限ループに入ることが
あります。そのときに前もってコンピュータが、
「お前の書いたのはバグで止まら
17
 1 章 人工知能は可能か?
ないよ?」と教えてくれたらいいと思ったことはないでしょうか? このようなこ
とを教えてくれるのを停止性と言います。
より形式的に定義するとこの問題は以下のようになります(図 1.5)
。
停止性問題
プログラムにある入力を入れたときにそのプログラムが停止するか?
しかし残念ながら、一般のプログラムの停止性を判定するようなプログラム(ア
ルゴリズム)は存在しません。この証明には前節で説明した自己言及のパラドック
スを用います。
停止性問題が解けないことを証明してみましょう。プログラムPとP への入力 D
を引数とする次のようなプログラムが存在すると仮定します。
Checker1(Program P, Data D);
入力:プログラム P と、そのプログラムへのデータ D
出力:P へ D を入力したときに、
停止するなら
yes
停止しないなら
no
を出力する。
(必ず停止する)
これを少し拡張した次のプログラムを作ります。
Checker2(Program P);
入力:プログラム P
出力:P へ P を入力したときに、
停止するなら
yes
停止しないなら
no
を出力する。
(必ず停止する)
Data の Dとしては、どのようなデータでもかまわないはずです。そこで Dとし
てプログラム自身を常にとるような関数を構成できます。つまりこのプログラムは
Checker1(P,P)と同様の動作をします。
18
1.5 コンピュータは停止するか?
ここでさらに次のプログラムを作ります。
プログラム Omega(Program P);
入力:プログラム P
出力:Checker2(P)が yes なら、無限ループ
Checker2(P)が no なら、停止
たとえば C 言語では次のようにこのプログラムを簡単に記述することができま
す。
Omega(Program P){
if(checker2(P)) for(;;);
else printf("HALT¥n");
}
このとき、プログラム Omega()に、引数として Omega()を与えたときの動作を
考えましょう。つまりOmega(Omega)の停止性です。このとき 2 通りが考えられま
す。まず Checker2(Omega)が yesと出力する場合です。このときは、Omega()
の作り方から明らかに停止しません。これは、Omega が停止すると判断しているこ
とと矛盾します。もう1 つは、Checker2(Omega)が noと出力する場合です。こ
のときは、Omega()の作り方から停止することになります。これは、Omega が停止
しないと判断していることと矛盾します。このようにいずれの場合も矛盾が生じま
す。したがって、停止性の判断ができるプログラムは存在しないことになります。
以上で停止性問題が解けないことが示されました。
停止性問題は、人工知能の基礎研究にとって不可欠なクルト・ゲーデルの不完
全性定理につながります。この定理は次のようなものです。
ゲーデルの第一不完全性定理
形式的体系が無矛盾で初等的な自然数論を含むとすると、その体系内で証明も反証も
できない命題が存在する。
公理と推論規則からなる形式体系とは、通常の数学的な論理記述のことで、命
題論理や 1 階述語論理などが含まれます。ここでの形式的体系はチューリング・マ
19
 1 章 人工知能は可能か?
シン(コンピュータの数学的なモデル)と同一視できます。そのため、形式的体系
の決定問題が解決不能であることは、停止性問題が解決できないのと同じ意味に
なります。なおゲーデルは「命題論理や 1 階述語論理の形式的体系は完全である」
という完全性定理も証明しています。
ゲーデルの証明では、
「この命題の証明は存在しない」という数学的な命題を構
成します。そして、前節で説明した「プリンキピア・マテマティカ」に書かれてい
る数論に関する記号と命題をすべて符号化することで、数論を再び数論に戻すと
いう自己言及のパラドックスを構成しました。この符号はゲーデル数と呼ばれてい
ます。
人工知能と不完全性定理はどのように関連するのでしょうか? 1961 年にオッ
クスフォード大学の哲学者ジョン・ルーカスは、次のように述べています。
われわれには真であるとわかるが機械では証明できない数論の真理が存在する。よっ
て、われわれの精神の容量はどんな機械の容量にもまさっている。
また、ペンローズタイルで有名な物理学者ロジャー・ペンローズは、
「われわれ
の精神は理性に基づく考えを超越できるので機械では複製されない」と主張してい
ます [43]。なお、最近では、脳のマクロスケールでの振る舞いや意識の問題に量
子力学的な性質が関わる、という「量子脳理論」を提唱してます [44]。
1.6 人工知能批判
強い AI に対しては前節で説明した他にもさまざまな批判があります。代表的な
ものを以下に解説しましょう。これらに対する新しい AI からの反論は第 5 章で説
明します。
UC バークレイの哲学者、工学者である、ドレイファス兄弟は「コンピュータは
思考を獲得できるか」ということに対して、
「一連の規則にしたがっているとは考
えられないような人間の認知活動が数多く存在する」として反論しています [57]。
例に挙げられるのは車の運転です。初心者はうまく運転するために状況に左右さ
れない運転規則を獲得します。しかし次第に上達すると、車間距離を狭めたりし
て以前に学んだ一般的な規則から逸脱して行動します。より熟達すると車と一体
20
1.6 人工知能批判
化し無意識的に運転しています。このように、専門的な技術は必ずしもAI が実現
しようとしている推論を伴いません。したがって、コンピュータの命令規則に基づ
いたプログラムが人間の知能に似たものをもたらすことなどあり得ないと主張して
います。
次に AI ロボットの爆発死ということを考えてみましょう[74]。最近の自律移動
ロボットには、バッテリー容量が低下すると自分で充電基地に戻って充電するもの
があります。ここで次のような状況を考えましょう。
バッテリー切れの AI ロボットを動かすバッテリーが部屋の中にある。しかしその上に
時限爆弾が仕掛けられている。このままでは爆弾が爆発しロボットは動かなくなってし
まう。
このときAI ロボットが次のように考えて行動します。
R1
:部屋に入りバッテリーを持ってくることができました。しかしバッテ
リーを持ってくると、一緒に爆弾もついてくることが理解できていませ
んでした。そのため爆弾も持ってきてしまい、部屋を出たとたんに爆発
してしまいました。R1 はバッテリーを持ってくるという目的については
理解していましたが、副作用については理解していなかったのが原因で
す。
R1D1 :そこで R1を推論ができるように改良しました。つまり意図した動作の
結果だけではなく、その副作用も認識できるようにしました。このロ
ボットは部屋に入ってバッテリーの前で止まってしまいました。バッテ
リーを動かすには爆弾を移動しなくてならないとか、バッテリーを動か
したら壁の色が変わらないとか、バッテリーの色は……、などの推論を
しているうちに爆弾が爆発してしまいました。副作用が無限にあり、そ
れらすべてを考慮するには無限の計算時間を必要としたからです。
R2D1 :さらに R1D1を改良して、目的のために無関係な結果と関係のある結果
の違いを区別できるようにしました。そして無関係なものは無視するよ
うになりました。すると R2D1 は部屋に入らずに停止し、間もなく爆弾
が爆発しました。このロボットは何千何万とある無関係な結果を無視す
るのに時間がかかりすぎてしまったのです。
21
 1 章 人工知能は可能か?
これらのロボットの結末をまとめると次のようになります。
R1
:行為の副作用まで考慮しなかったため爆死する。
R1D1 :副作用の演繹作業に忙殺されている間に爆死する。
R2D1 :目的達成に無関係な帰結を無視する作業中に爆死する。
われわれが簡単に解いている、思考すべき範囲や詳細をコンピュータは容易に
は決定できません。
「適切な範囲(フレーム)を定める問題」の一般的な解決は困難
であるというのが「フレーム問題」です。AI はチェスなどのゲームやエキスパート
の推論では大きく成功しています。しかしこれらは「閉じた世界」を仮定していま
す。この場合フレームを定めるのは難しくありません。これらを完全に記述して次
の動作を行えば AI は成功するでしょう。一方、強い AI が相手にするのはわれわれ
が住むような「開いた世界」です。この場合に適切な範囲を記述するには無限の項
目が必要となり、有限時間で動作するようなコンピュータには実現できないことを
「フレーム問題」は主張しています。
たとえば歩くという行為を考えましょう。われわれはこのような行為をほとんど
無意識に行っています。しかし実際には、障害物をよけたり、進路を変更したり、
別の重要な事象による割り込みなどを的確に実行しています。このための脳内の
処理は高々数百ステップで終了するとされています。つまり人間や動物はフレーム
問題に陥らずに行動していると考えられます。
フレーム問題に関連するのは、PL 法(消費者保護法)に対する冗談のような注意
書きです。
●「電子レンジで猫を乾かさないで下さい」と書いてある電子レンジの取扱説明
書* 4
●
カップラーメンに書いてある「熱湯注意」
PL 法とは、製品の欠陥によって生じた被害から消費者を救済する趣旨の法律
(製造物責任)です。前もって注意していないことが不備とみなされ、多額の賠償
金を支払わされる訴訟を警戒してこのような注意書きが見られたそうです。実際、
*4
22
この話は都市伝説であり本当ではないらしい。