読者です 読者をやめる 読者になる 読者になる

KnoNの学び部屋

落ち着きのない大学院生が専攻に関係ない(むしろそっちのけで)学んだコトを記録しておく場所

哲学入門 その3(後編)

喉の痛みは引いたけど、かわりに鼻水が垂れてくるようになってしまった。

早く健康になりたい。

 

引き続き

哲学入門 (ちくま新書)戸田山和久、2014)

第三章 情報

の後半をやります。

 

哲学入門 (ちくま新書)

哲学入門 (ちくま新書)

 

  前半ではシャノンの情報理論を振り返り、「意味抜き平均情報」の概念を確認した。

 後半では情報の量に着目していたシャノンの議論を、ドレツキが情報の内容の理論に拡張していった様子を説明する。最終的な目的は「情報内容」に理論的定義を与えることである。

 

世界は情報の流れとして捉えることが出来る

 ドレツキは1981年に発表した『知識と情報の流れ(Knowledge and the Flow of Information)』において、シャノンの「意味抜き平均情報」概念(情報B)を下敷きに、情報の内容の理論を構築している。

 またお知らせ系の情報概念(情報A)をその特殊ケースとして位置づけ、知識を情報の流れという世界観に埋め込んだ。

  • この世界は情報の流れとして捉えることが出来る
  • 情報が流れるには解読者は必ずしも必要ない
  • むしろ知覚・知識の方を情報概念を元にして解明していくべき。
  • そのためには情報の意味論が必要。
  • 情報の意味論は、シャノンの情報理論をベースに構築できる。 

 

  シャノンの情報理論からスタートして情報A、情報B両方に当てはまる情報の意味論を構築するためには次の二つのことが必要である。

  • 平均ではなく一つの信号の持つ情報量を扱う
    →解決済み。現在では自己情報量の平均としてエントロピーを定義している。*1
  • 情報量に関係する概念だけから情報の内容を導く

 

 ということで、以降二つ目の課題について考えていく。

 

 

失われた情報量:エキヴォケーション

 ドレツキにならい、例を挙げながら考えていく。

例:8人の従業員が、自分たちから代表を一人選んで、その決定を社長に報告することになった。

 公平な抽選手段でトンズラーが選ばれ(この出来事をs1とし、トンズラー以外の人が選ばれるという出来事を、それぞれs2……s8としよう)、伝達役がメモに「トンズラー」と書いて社長に渡した。*2

 

◯情報の送信者について

 送信者=特定の誰かが選ばれるという出来事、と考える。するとトンズラーが選ばれる確率は1/8なので、その情報量は3ビットとなる。

 

◯情報の受信者について

 受信者=社長が特定の名前が書かれたメモを見るという出来事、と考える。トンズラーの名前が書かれたメモ(トンズラーメモ)を見るという出来事をr1とすると、その自己情報量は(8人の名前を見る可能性が1人の名前を見る可能性に減ったので)3ビットとなる。

 

◯送信者—受信者の情報の流れについて

 伝達過程の情報の減少具合により、次の3つのパターンが考えられる。

  1. 送信者側の出来事は完全に受信者に伝わる。
  2. 送信者側の出来事は全く受信者に伝わらない。送信者側の出来事に関わらず、受信者側に届く情報はランダムである。
  3. 1.と2.の中間。何かしらの事情があり、「抽選でドロンジョが選ばれてもメモにはトンズラーと書いて送信する」という取り決めがあったとする。社長は「トンズラーメモ」を受け取っても(受信者側の出来事)、「実際に選ばれたのがトンズラーなのかドロンジョなのか」(送信者側の出来事)を知ることが出来ない。

 

 2.や3.のケースでは途中で失われた情報量がある。これをエキヴォケーション(E)と呼ぶ。

エキヴォケーション(あいまい度;Equivocation)

=通信路を介して何らかの信号を受け取ったときに送信側でなにが送られていたかのわからさなさ、の平均値。元はシャノンが第二基本定理を証明するときに導入した。詳細についてはテキスト参照のこと。

 事象riという条件の下でsiが起こった条件付き確率を用いて、数学的には次のように定義される。

   E( r) = - Σ p( s| r)  log p( s| ri )

 

 エキヴォケーションEは定義により次の性質を持つ。

  • 何からのkについて、p( s| r)=1のとき(つまりk以外のiについてはp( s| r)=0)、E(r1)=0(1.のケース)
  • すべてのiについてp( si | ri )が同じ値になる時、E( r1 )は最大になり、その値はs1のもつ自己情報量と一致する(2.のケース)
  • 以上のどちらでもない場合、E( r1 )の値は0と上の最大値の間になる(3.のケース) 

 

 多少ごちゃごちゃと書いたが、まとめてしまうとこういうことだ。

  • 3.のケースにおいて、送信側の出来事(ドロンジョが選ばれた)の情報量3ビットに対し、受信側の出来事(トンズラーメモを見た=選ばれたのがトンズラーかドロンジョ、ということが分かった)の情報量は2ビットとなっている(確率が2/8)。
  • 通信の過程で1ビットの情報量が失われている(エキヴォケーションE( r1 )=1)。
  • この値E( r1 )は、送信者側の取り決めの具合によって0(1.のケース:完全伝達)から1(2.のケース:完全ランダム)の間で変化する。

 

情報量の関係が情報の内容と信号を結びつける:ゼロックス原理

 次いでドレツキは情報の流れについての基本原理として「ゼロックス原理」というものを置く。そしてこの原理から情報内容の定義が満たすべき要件を導こうとする。

ゼロックス原理

=AがBという情報を伝え、BがCという情報を伝えるなら、AはCという情報を伝える。

 

 →〈sがFである〉という情報をある信号が伝えるためには、その信号が伝える情報の量は、〈sがFである〉ということが生み出した情報量と同じでなければならない。

 

 この帰結の重要性は分かってもらえるだろうか。この帰結は、「sがFであるという情報を伝える信号」という具合に表現される情報内容と信号との関係を、「信号が伝える情報量=sがFであることが生み出した情報量」という情報量同士の関係と結びつけることによって、量的概念によって情報内容を捉えるための橋渡し役を務めているのだ。

 

 以上の議論から、情報内容の定義が満たすべき要件を与えることが出来る。

 

 もしある信号が〈sはFである〉という情報を伝えるなら、

  • 〈sがFである〉ことによって生じたのと同じ量の情報をその信号は伝えなくてはならない(=ゼロックス原理の帰結)
  • 現にsはFでなければならない(=情報は真理を含意する*3
  • 信号がsについて運ぶ情報の量は、〈sがGである〉ことによってではなく、〈sがFである〉ことによって生み出されたその量でなくてはならない

 この3つを満たす必要がある。

 

情報内容の理論的定義

 いよいよ情報内容に定義を与える準備が整った。

 そしてこの3つの条件全てを満たす情報内容の定義が次のようなものだ。

情報内容の(理論的)定義

信号rが〈sはFである〉という情報内容を伝える

 ⇔ rという条件の下での「sがFである条件付き確率」が1である

 

 実にシンプルな定義だが、これは確かに上述の3つの要件を満たしている。

 そしてさらに重要な帰結が「一つの信号は同時にいくつもの情報を伝えることが出来る(情報の入れ子構造)」ということだ。

情報の入れ子構造の定義

〈tはGである〉という情報が〈sはFである〉という情報に入れ子になっている

 ⇔ 〈sがFである〉ということが〈tはGである〉という情報も担う

 

 ドレツキの情報内容の定義は「ある出来事の生起は、他の出来事が起きたという情報を伝えることが出来る」ということを示している。

→情報は出来事から出来事へと流れていく。この情報概念は心を持つ解釈者がいなくても成り立つ。

 

 注目すべきは次の2点である。

  • 信号は表象である必要はない
  • 情報の内容は情報源と信号という二つの出来事間の客観的関係によって決まる

 

 さらに知識を次のように定義することによって、情報の流れとしてみた世界の中に「知識」(=情報A)を位置づけることが出来る。

知識の定義

エージェントAがPということを知っている

 ⇔ AのPという信念がPという情報によって因果的に引き起こされた

→「知識は情報によって生み出された信念である」

 

 ここで注意しなければならないのは「因果と情報の流れは必ずしも関係ない」ということである。

→因果関係は情報の流れの十分条件ではないし、必要条件ですらない。

→「情報の流れがあるためには、出来事同士が、「あれが起きているならこれも起きている」 という仕方で互いに結びついている必要がある」

→「われわれの因果的世界はそのままで情報の流れる世界でもある」

 

 こうしてドレツキによって「世界は情報の流れである」ということが説明された。

 主体の存在しない世界の中で生まれた「意味の原型」は、そこから表象がどのように湧いて出てくるのかを説明する足場となる。

 次章では「表象」がいかにして生まれたかに焦点を当て、考えていく。

 

【今回の三行まとめ】

  • シャノンの情報理論に「エキヴォケーション」「ゼロックス原理」というアイデアを加えることで、情報の量同士の関係を情報の内容と信号との関係に変換することが出来る。
  • この理論の元での「情報内容」が満たすべき要件を考えたとき、その定義は「rという条件の下での「sがFである条件付き確率」が1である」と表せる。
  • 知識を「AのPという信念がPという情報によって因果的に引き起こされた」と定義することで、情報の流れとしての世界の中に位置づけることが出来る。

【今回の宿題】

  • 数学的説明部分の確認

 

……後半もなかなかのボリューム。数式的な説明が出てきますが、概要を掴むためには丁寧に追う必要はありません。

 たぶん理解できていると思うんですが、「情報の量の関係が意味と信号の関係にはる」といわれると、やっぱり狐につままれたような気持ちになってしまうのも否定できない。

 これから先の内容も併せてこの章については復習して行きたいです。

 また午後にかなり食い込んでしまった。これから先の時間の使い方が難しい。

 

それでは

 

KnoN(150min)

 

行動を説明する―因果の世界における理由 (双書現代哲学)

行動を説明する―因果の世界における理由 (双書現代哲学)

 
心を自然化する (ジャン・ニコ講義セレクション 2) (ジャン・ニコ講義セレクション 2)

心を自然化する (ジャン・ニコ講義セレクション 2) (ジャン・ニコ講義セレクション 2)

 

 

*1:前回は詳しく説明しなかったが、シャノンの理論に必要なのはあくまで平均(エントロピー)のみであったため、経験的に直接その関数形を定義する形でエントロピーを考えていた

*2:「トンズラー」というのは、のちにでてくる「ドロンジョ」「ボヤッキー」と併せてアニメ「ヤッターマン」に出てくる悪役「ドロンボー一味」である。3人組の中ではパワーを担当。なぜか家にはトンズラーのストラップがある。

……なにを大真面目に解説しているのか、という気もしなくもない。

*3:「情報」というものが常に正しいことを示すものかについては、人によって直観が分かれる。が、それ自体は大きな問題ではない。
ここでは「情報は常に真理を示す」ことを前提として理論を組み立てる。