哲学入門 その1(前編)
今日も雨ですね。冷ややかな七日目。
そろそろ太陽が恋しい。
引き続き
哲学入門 (ちくま新書)(戸田山和久、2014)
の
第一章 意味
の前半をやります。
すごく長くなってしまいましたが、お付き合いください。
第一章 意味
「存在もどき」の第一歩として、まずは「意味」について考えてみる。
しかし闇雲に考えてもどうにもならないのが哲学だ。「問いの始め方」を設定し直し、「意味を理解するロボット、あるいはコンピュータは作れるか?」ということを考えてみることにする。
→「問いの始め方」は次の3ステップで行う。
- 問いを小さく分けて、具体的にする。
- それを徹底的に考える。
- そこで得た洞察を出来る限り一般化し、抽象化する。
チューリング・テストの高いハードル
機械が知性を持ち得るかを考えるテストとして、イギリスの数学者アラン・チューリングは1950年に「モノマネ・ゲーム(imitation game)」というものを考案した。これは一般に「チューリング・テスト」として知られている。
=人間の判定者との会話を通じ知性があるかどうかを確かめるテスト。
判定者(人間)は相手の正体が分からない状態で実験者(人間)、あるいは機械と会話を行う。実験者は自分が人間であると判定者に分からせるように、逆に機械は自分が人間だと思わせるように会話を行い、十分な割合で判定者を誤認させたらその機械を「知性を持つ」として認める。
このテストは、実は非常に難しい。機械と人間とでフリーテーマの「対話」をさせているからである。
話題が無制限に展開し、高度の文脈依存性や柔軟性が要求される。さらに会話の中で相手が使った語彙を自らのボキャブラリーに加えていく、という学習能力も必要となる。
「会話を続ける」ということに含まれる知的活動の要素を考慮すると、チューリング・テストは知能の有無を図るのになかなか厳しい基準をもったテストと言うことが出来るだろう。
⇒先日、世界で初めてこのチューリング・テストをクリアするプログラムが出来たということでニュースになっていた。
現状の基準では「5分以内に30%以上の判定者をだます」となっているので、多少は緩い基準になっているということだろうか(原理的には50%の正答率、つまり当てずっぽうレベルにしなければならない)。
世界初! コンピュータプログラムがチューリングテストに合格 : ギズモード・ジャパン
すでに合格したものがあるということを紹介しておいて何だが、テキストに従い「いい線いった」ものの例としてイライザ(ELIZA)というプログラムの話をする。
イライザはMITのジョセフ・ワイゼンバウムによって開発された精神科医を模したプログラムである。自然言語を操り、患者役としての判定者と会話をすることが出来る。
会話の能力自体は充分なものだが、話題が制限されている点、「イライザ効果(=判定者の先入観により、すこし会話が続いただけで相手を人間だと即断する傾向)」が指摘できる点などからチューリング・テスト適合とは考えられていない。
この路線を推進すると考えたときに、問題となるのはイライザは実際の処理としてどういうことをやっているかということだ。
→詳しい例などは本文やWikipediaなどの該当箇所を参照してもらうとして、一言でいってしまえば「相手に入力を形式的に(アルゴリズミックに)変形して返答する」というものとなる。
このイライザの仕組みに対する反応として、次のようなものが想定されている。
- チューリング・テストに合格したとして、その機械の振る舞いは私たちがやっているのと同じような仕方で実現されていないのではないか。
- そもそもその機械は意味を理解して会話していないのではないか。
要するに「その機械は知能がある振りをしているだけだ」ということがポイントである。では「知能がある振りをする」とはどういうことだろうか?
→「振りをする」こと自体が高度な知性を要求する、あるいは「知能を持つ振りが出来る」ならもはや知能があるといえてしまう、というように思われる。
この手の批判者は内的な知能とそれによって実現される振る舞いを切り離して考えている。イライザは「内的な知能」は持っていないが、「それによって実現される振る舞い」は模倣できているため、「あたかも知能を持っているように」みえる。
→「知能というものを振る舞いのパターンと考えるべきか、その背後にあってそうしたパターンを実現している何かと考えるべきか。これについては決着をつけることはできそうにない」というのがテキストの結論である。
→知性そのものの正体がはっきりしていない。
この批判についてもう少し考えてみる。批判者の主張は「イライザのやり方(形式的記号操作)は私たちがやっているやり方(意味の理解)と違う。だから知能はない」というものである。*1
→そもそも「私たちのやり方=意味の理解」がなんなのかをはっきりさせなければならない。
サールの思考実験:中国語の部屋
アメリカの哲学者ジョン・サールは人工知能の実現不可能性の観点からチューリング・テストを批判し、「中国語の部屋」として知られる次のような思考実験を展開した。
- ある部屋に中国語を全く理解しない人物(仮にイギリス人のジョンとする)を入れておく。そこは外界から遮断されているが二つの窓があり、ひとつの窓からは中国語(漢字)で書かれた"質問"が入ってくる。
- ジョンはそれを単なる記号としか認識できない(意味を読み取れない)が、部屋に備え付けてあるマニュアルを参照しながら"質問"に対し形式的な変形を加え、もうひとつの窓から"回答"を出力することができる。
- マニュアルは非常に良くできているので、通常の中国語話者と変わりない"回答"を行うことが出来る。部屋の外部から見ると部屋の内部にいる人物(ジョン)は中国語を"理解"しているように見える。しかしジョンが実際にやっているのは形式的記号操作(=計算)にすぎない。
サールはこの思考実験から「心は統語論以上のもの、つまり意味論を有している」と結論づける。
統語論(統辞論;syntax)
=言語の記号的な側面。文を構成する記号をどのように並べ替えたり入れ替えたりすれば別の文として成立するか、などについて。
意味論(semantics)
=言語の内容的な側面。文全体の意味が構成要素の記号の意味からどのように合成されるか、などについて。
サールの主張は「心は、心の中の記号を形に応じて並べ替え・入れ替えするということだけをやっているのではない。それぞれの記号に意味を与え、記号の意味することを理解するということもやっている。機械は前者は出来ても後者はできない」というものだ。
→「アルゴリズムに従って動く計算システムは知能を持てない」
サールの議論に反論する
サールの議論は扱いが難しい。なぜなら、半分は当たっているが半分は当たっていないからであり、その間の線引きが難しいからだ。むしろ、次のようにいった方が良いかもしれない。
ラールの議論は、唯物論的な心の捉え方が共通して持つ大きな問題の存在を指摘するものではあるけれど、それをめちゃくちゃ誤解を招きやすい仕方で指摘しているために批判されるべきなのだ。
(改行、強調は筆者)
サールに対しては次のように反論できる。
(以後、サールの主張を緑、テキスト(戸田山)の反論を青で表現する。)
- チューリング・テストは知能のテストであって、意味の理解のテストではない。
→「知能=変化する状況に応じて柔軟な対応が取れること」「理解=言葉や事物を行動に結びつけることが出来ること」と整理すれば、前者のテストとしてチューリング・テストは有意義なものである。 - サールは「カテゴリー錯誤*2」を犯している。
→「中国語の部屋」の外にいる人が対話をしているのは部屋全体であって、ジョンではない。部屋の一部に過ぎないジョンが意味を理解していないからとって、部屋全体(特に良くできたマニュアル)が意味を理解していないとはいえない。
この種の反論はサールも想定していた。先回りするように次のように主張している。
- 部屋全体も意味を理解しているとはいえない。
→仮にマニュアルが実物として存在せず、ジョンが丸暗記している状態だとしても、ジョンが中国語を理解していないのは明らかである。
こういった再反論について批判を試みよう。なぜ、「マニュアルを丸暗記したとしてもジョンは中国語を理解していない」と主張したくなるのだろうか。
- ジョンは相変わらず形式的記号操作をしているに過ぎないから。
→(反論)私たちも無意識化(「現象学的レベル」以下のレベル)ではこのようなマニュアル参照的な操作をやっていないとは言い切れない。 - ジョンは中国語の"言葉"を事物や行動に結びつけることができないから。
→例えば中国語で「昼食として食堂にワンタンを用意してあります。食べましょう」という入力がなされ、ジョンは「ありがとう。はらぺこだったので助かります。すぐに行きます」という出力を返したとする。しかしジョンが実際に食堂に向かうことはない。
ジョンは会話能力の不足ではなく、意味を理解しないがゆえに行為に反映させることが出来ない。
これはなかなか強力な論拠のように思えるが、まだ反論の余地がある。
- そもそも「中国語の部屋」は会話をするためだけに設定された機械(純粋会話機械)である。会話の内容を実行に移すことが意味の理解として必須の条件ならば、純粋会話機械には意味の理解はあり得ない。
→思考実験を拡張させ、「中国語の部屋」に行動する身体(ロボット)を与える。「食堂にワンタンあり」という入力に対し、ジョンはマニュアル(増補版)を参照し「すぐ行く」という"回答"だけでなく、ロボットを行動させる操作も出力する。ロボットは食堂に行き、ワンタンを食べる。
→意味の理解抜きにしても言葉と行為を結びつけることが出来ている。
→意味の理解と行為の実行は切り離して考えるべき。
しかし、この種の試みにたいしてもサールは次のように批判を加えようとする。ロボット説は会話だけじゃなくて行為を考慮に入れている。だから、意味理解は単なる形式的記号の操作には尽きないということを暗黙のうちに認めている。
ここまでは、サールと私の間に意見の食い違いはない。ここでサールは、だからロボット説は純粋会話機械に対する自分の批判には直接関係がない、という言うべきだったと思う。
(強調は筆者)
→実際には「ここでジョンが行っているのは先ほどと同様に形式的記号の操作に過ぎない。たとえロボットが動き回ったとしても、それは電気配線とプログラムの結果であり、意味を理解しているとはいえない」と論じている。
→これはまた「カテゴリー錯誤」である。前半の「ジョンは意味理解を有していない」は正しいが、それは「部屋全体も意味理解を有していない」には繋がらない。
「意味を持つ」とは生きること
なぜロボットは心を持たないように思えるのだろうか。
命令に応じて環境の中で命じられて通りに行為するロボットだけなら、もう少し頑張れば作れそうに思える(あるいはもう存在している?)。
→しかしこのようなロボットがあるとしても、「意味の理解を有している」とは言い切れない。「意味の理解」とはどういうことかについて、解釈の幅があるからだ。
→おそらくは「心がない」という感覚を拭い去れないだろう。
この問題に関しては信原幸弘が「ロボット心理学」という論文の中で回答を与えてくれている。
→人間も機械も「知的」な振る舞いをして問題を解決することは出来る。しかし機械は人間の問題解決を代行するだけで、自分の問題を持っていない。
→人間は問題解決の主体だが、ロボットはそうではない。
→換言すれば「ロボットは人間の道具として作られた限りにおいては心を持たない」。
(問題解決への)欲求は環境への適応のための手段として見ることが出来る。しかし道具であるロボットにとって、環境に適応して生存することは意味をなさない。
→「ロボットは欲求を有意味に帰属させることが出来ない」
機械が心を持つのは「機械が自分自身の問題を持つようになったとき」である。つまり機械にとっても、環境への適応的生存が意味をなす=機能を生きるために使う、ようにさせればよい。
→心の有無は、機能の目的の存在様式の問題。
→「ロボットは心を持ち、十全な意味の理解を持つ前にまず生きなければならない」
このようにして「意味」について考えるための適切な考察のレベルがあぶり出されてきた。
つまりそれは生存するシステムを考えるレベルだ。そして、意味という概念が、目的といった概念と密接な関係をもつということも見えてきた。
(傍点の代わりに強調。改行は筆者)
後半では議論の焦点を「生きものが生存のために何かをする」ということに当て直して、さらに展開させていく。
【今回の三行まとめ】
- 機械が知能を持ち得るかに対する判定方法として、チューリング・テストというものが知られている。「入力にアルゴリズミックな反応を返す」ことでそれを突破する可能性があるが、これは「知能と振る舞いをどう分けるか」という点で批判の余地がある。
- サールは「中国語の部屋」という思考実験を通じてこの問題を考察した。様々な議論がなされたが、形式的記号操作と意味の理解を(少なくとも純粋会話機械を対象にしては)分けて考えるのは不可能なようである。
- 「意味」は「目的」に繋がり、それはさらに「生存」という観点に伸びていく。「意味」を考えるには「生きものが生存のために何かをする」ということを検討しなければならない。
【今回の宿題】
- 「中国語の部屋」の議論の着地点が不明瞭
……ひたすら長い。いつもの二本分弱書いて、これで一章の半分である。
書き終わったあとなんとか短く出来ないかと何度も見直したが(特に「中国語の部屋」の辺り)、これ以上短くすると議論を追えない気がしてどうにもならなかった。
色分けして議論の様子を見やすくしてみたつもりだが、かえって画面がうるさくなってしまったかもしれない。要改良。
次は認知から目的論的意味論の話になっていきます。
それでは
KnoN(150min)
*1:この「人間と機械のギャップ」については『知の編集工学』その6でも触れている。そこでは「知識」の有無がギャップの原因であると考察していた。
*2:部分と全体の関係を間違えること。