ミーム論 » 第17回【ミームネットワークのノード】

第17回【ミームネットワークのノード】

ニューラルネットワークの発展

 前回の記事では非常に簡単にではありますが階層型のニューラルネットワークを紹介しました。これは「階層型ニューラルネットワーク」と呼ばれ、私たちが普段「ニューラルネットワーク」だとか「AI」だとか見聞きするもののほとんどがこれに当たります。これをさらに発展させた「畳み込みニューラルネットワーク」というものがあり、これは隠れ層の中に「畳み込み層」と「プーリング層」を追加した階層型ニューラルネットワークです。

 これについても詳しい説明は省きますが、「畳み込み層」では入力情報の特徴を際立たせ、「プーリング層」ではさらにその情報の特徴を取り出し余計な情報を減らす役割を持ちます。これらの層を経ることで以降のノードが受け取る情報は特徴を際立たせたものとなり、従来の階層型ニューラルネットワークに比べて入力情報の特徴を捉える時間が早くなりました。

 このように2012年のディープラーニングの開発以降、階層型ニューラルネットワークはものの数年で劇的な発展を遂げているため私のような素人には到底ついていけないものなのですが、その概念をちょっとでも理解するとなかなかに面白いです。

ノードが持つ顔生

認知哲学 脳科学から心の哲学へ /産業図書/ポ-ル・M.チャ-チランドより引用

 さて今回の記事の本題に入ります。カルフォルニア大学サンディエゴ校のガリソン・コットレル(Garrison W. Cottrell)のグループは、階層型ニューラルネットワークを用いて顔を認識する実験を行ないました。この実験について紹介している「認知哲学-脳科学から心の哲学へ-」では何年に実験されたものかが書かれておらず詳細はわからないのですが、この書籍の初版が1997年であり3階層のニューラルネットワークと誤差逆伝播法を用いていることから第二次ニューラルネットワークブームである1890年前後のものと思われます。

 コットレル氏らが作ったニューラルネットワークは、64×64の画素を備えたノード(つまり4,096のノード)からなる入力層と、その入力から顔の認識を作り出す80個のノードからなる隠れ層、そして8個のノードを持つ出力層といった構成になっています。(図3・3)

 このニューラルネットワークに、11人の顔から撮った64枚の写真と顔ではない13枚の写真を繰り返し入力し、逆伝播法を用いて「顔か非顔か」「性別」「人名」という目標値を設定し学習させます。結果から言えば、このネットワークは最終的に100%の精度で各写真から個人を特定できるようになりました。この結果だけ見れば、写真と個人とをただ単に紐付けしただけのように見えるのですが、この実験の面白い所はここからです。

認知哲学 脳科学から心の哲学へ /産業図書/ポ-ル・M.チャ-チランドより引用

 ネットワークがどのようにして写真から個人を特定するシステムを構築しているのかを調べるために、隠れ層にある80個のノードから情報を抽出しました。このとき予測されたのは「鼻の長さ」や「両眼の距離」などといった局所的な顔の特徴を捉えるために、各ノードがそれぞれの特徴に焦点を当てた重みを持っているというものでしたが、実際には顔全体の入力刺激に対して各ノードが全体論的な顔性を内包していたのです。(図3・7)

 では入力された顔写真をノードが数値化して持っているだけなのかというとそうではなく、隠れ層のノードが持つ情報から顔写真を再構成すると、驚くことに実験に用いられた顔写真は一枚も現れて来ず、11人のどの顔とも一致しない顔写真が現れました。

 この結果の要点をまとめると、11人の顔写真による学習によって多様な顔のサンプルを各ノードが生み出し、入力層から得られた刺激に対して様々なパターンの顔写真から顔の全体的な特徴を学習して出力層へ情報を送っていたのです。さらに驚くべきは、このように訓練されたネットワークは実験に用いられた11人の新しい写真を用意したり、写真の20%を帯で隠したり(例えば目隠したり)しても個人を特定できました。そして、11人以外の全く新しい顔写真を入力しても顔性や性別を高い確率で特定できたといいます。

 この結果について共同研究者であるジャネット・メトカーフ(Janet Metcalfe)は各ノードが入力情報の全体性を内包していることを「ホロン」であると言いました。この「ホロン」という概念の提唱者はイギリスの哲学者アーサー・ケストラーです。

ホロン

 アーサー・ケストラーは「機械の中の幽霊」という著書の中で、進化や脳の構造などに見られる複雑な事象を還元主義的なアプローチで解明しようとする立場を否定し、絶対的な全体や部分などは存在せず全ての部分が全体としての質を備えていると考え「ホロン」という概念を提唱しました。

 「ホロン」は、ある特定の文脈においては全体ですが別の文脈においては部分となり得るような単位を示し、日本語では「全体子」とよばれています。ケストラーはまた「ホロン」を「亜全体」と表現し、全体でありながらさらに高次の全体における一部であることを示しました。

 コットレル氏らの顔認識のノードは各々が顔の全体的な特徴を捉えており、私たちが見ても「顔である」と認識可能なレベルで顔全体を把握していますが、与えられた入力に対する出力に至るとき、これらのノードはそのニューラルネットワークにおける部分として機能しています。

 階層型ニューラルネットワークにおける構造の全体は基本的には階層ごとに枝分かれしており、枝の節それぞれがホロンとして機能することでネットワーク全体を構築しています。これを会社組織になぞらえてホロンの持つ全体性と部分性の両面を例えると、法人格を持つ会社はその法人格が会社全体を表しますが、その社内は社長を頭にした幹部組織から各部署、各係、各担当、といったように細分化することができます。

 仮に社長からのトップダウンである仕事が行われるとしましょう。社長はその決定権において仕事の全体を担います。その仕事を担当する部署はその仕事において実務レベルで全体性を持ちます。その部署に属する仕事の担当者それぞれの個々人はその個人にとっての仕事の全体となります。

 逆の視点で言えば、個人がこなす仕事はその者の従属する係や部署にとっての部分であり、部署は別の部署なども含めて統合する上位の幹部組織にとっては部分です。これらホロン性を持つ複数の部署や意思決定により会社組織が成り立ち会社全体を構成しています。さらに言えば、会社組織は社会の中で無数に存在し、それらは社会全体にとって部分となります。

 このように高次にとって部分であり、低次にとって全体であるような二面性を持つのが「ホロン」という概念です。もう少し身近な例えで言えば、一冊の書籍は章で構成され、章は節で、節は段落で、段落は文章で、文章は単語でというように分割可能な単位がホロンの性質です。

 この概念は生物の持つ肉体の構造にも適用可能で、よりミクロな視点であるDNAにも同じことが言えます。人の体は個体として独立しているという意味で全体ですが、肉体は皮膚・脳・心臓・筋肉・骨といった各臓器に分割可能で、各臓器はそれぞれに別の機能を独立して備えた全体性を持つということができます。

 こうした臓器の独立性を認める例が臓器移植手術ですね。もし各臓器が全体性を持たず独立していなければ臓器を部分的に入れ替えたり機械化したりするような医療は今よりももっと困難を極めるものになるでしょう。

 各臓器を構成する様々なタンパク質は20種のアミノ酸の結合により形作られ、アミノ酸を作り出す情報の単位はコドンであり、コドンはA・T・G・Cの4種の塩基によるデジタル情報です。これら全ての階層がホロンであり、それぞれが全体性と部分性を持っています。

 このように「ホロン」という概念は複雑な構造を分割して理解するときに便利な概念で、様々な事象に対して応用可能なものです。そしてミーム論にもまた適用可能な概念であると私は考えています。これについて具体的にお話しする前にもう1つ紹介しておきたいものがあります。

相互結合型ニューラルネットーワーク

 ここまで紹介してきたニューラルネットワークは記事の最初に紹介したように「階層型ニューラルネットワーク」と言われるものですが、ニューラルネットワークの形にはもう1つ代表的なものがあります。それが「相互結合型ニューラルネットワーク」です。相互結合型ニューラルネットワークには「アソシアトロン」「ホップフィールドネットワーク」「ボルツマンマシン」などいくつか種類があり、連想記憶や最適化問題や情報のノイズ除去を得意としています。

 階層型ニューラルネットワークのノードが入力から出力まで各階層毎に区切られており刺激情報が一方通行なのに対して、相互結合型ニューラルネットワークには階層の概念がなくさらにノードが互いに結合しあっていることで刺激情報のやりとりが網の目状に走ります。そのため1つのノードに入力された情報がぐるりと回ってまた再入力されたりもします。

 そのような入出力の性質を持つため学習方法も階層型とは異なります。階層型では入力から出力までの一連の流れが1回分の学習となりますが、相互結合型では入力に対して各ノードがぐるぐると計算し合いその調整が止まるかループする状態になると1回分の学習となります。

ニューラルネットワークとミーム

 私がなぜ私のミーム論を語るためにニューラルネットワークのモデルとホロンの概念を紹介したかというと、脳のニューロンが階層型ニューラルネットーワークと同じ構造であるとは言えないまでも、シェマによる認知システム(学習)は階層型ニューラルネットワークの学習方法に近く、さらに人々のコミュニケーションによるつながりは相互結合型ニューラルネットワークに近いと考えているからです。

 つまり私たちヒトは、脳を用いて階層型ニューラルネットワークのような学習方法でシェマに情報を取り込む入力装置で、コミュニケーションによる相互結合型のネットワークを構築することで「文化」を出力するためのノードなのではないかというのが私の考えです。

 ある文化グループを相互結合型のネットワーク全体として見たとき、そこに属する人は包囲情報から絶えず情報を受け取る入力装置と言えます。入力装置としての人はシェマによる認知プロセスによって物事の特徴を抽象化(概念化)しどの情報に着目すべきかを自ら決定します。この役割は畳み込みニューラルネットワークの処理にも近いと言えるかもしれません。

 そして人々は習慣や行動として情報を出力する(ミーム表現型)ことで繋がりのある人々と情報を伝達しあいます。文化グループ内でそれぞれに出力された事象(ミーム表現型)は個々に見れば細部は異なる行動に見えますが、相互結合型ニューラルネットワークが最適化とノイズ除去を得意としていたようにコミュニケーションによる相互結合型のネットワークもまたミーム表現型の細部のノイズを小さくして人々の目には「文化」や「流行」として見えているのではないでしょうか。

次回はこれについてもう少し詳しくお話しできたらと思います。ではまた次回。

コメントを残す

メールアドレスが公開されることはありません。