AI(いわゆる「人工知能」)が話題に上がることの多い昨今。AIスピーカーに”命令”して(いや、”お願い”して)音楽をかけてもらったり、時にはヒトと簡単な会話をすることが出来たりと、『AI(人工知能)』というものが少しづつ”人間味”のようなものを獲得しつつあるような気がしませんか。一時期流行ったような家電搭載AI(冷蔵庫だとか炊飯器だとか)よりかはSF的感覚の”AI感”が強くなってきました。
最近ではAIが絵やイラストを描くようにもなりました。「Midjourney」や「Stable Diffusion」「NovelAI」といったAIによる画像生成サービスは、簡単なテキスト情報(例えば「夕暮れ時に飛ぶカラス」だとか)を与えるとテキスト情報を元にしたイラストを出力してくれます。
こうしたAIを活用したサービスがSNSなどを通じて広く認知され誰でも簡単に触れることのできるようになったことでAI技術の進歩を身近に感じられるようになった反面、「やはりまだまだ人には及ばないな」という控えめな意見や「これからはAIはヒトの持つ”感性的な部分”の領域にまで入り込んでくる」という危機感も芽生えつつあります。
AI研究が始まってから長く問題となっている「AI(人工知能)は”心”を持つか」という命題をその技術を享受する私たち一般層が肌身に感じながら考える時代となったと言えるのかもしれません。
目次 ・心の定義問題と哲学的ゾンビ ・心と体の二元論と唯物論 ・チューリングテスト ・「チャットボット」との会話 ・機械学習とディープラーニング ・中国語の部屋 ・AI(人工知能)というゾンビ
心の定義問題と哲学的ゾンビ
「AI(人工知能)は”心”を持つか」と問われたとき「そもそも”心”とはなんぞや」と問い返したくなる。「心」という”モノ”が一体何者で何処にあり何を指しているのか。
”心とは何か”という命題はAI(人工知能)の研究がさかんになる以前から人間とはなんぞやという問題と同時並行して議論されてきました。
あなたが今「思っている・感じている・考えている」という”それ”を言葉にして定義してくださいと言われた時、あなたはなんと答えるでしょうか。
色々な言葉と持てる知識を総動員して自分に宿る”心”についてプレゼンテーションし設問者を説得し終えた後、今一度自分へ問い返してみる。
「目の前にいるこの人間には私が説明したものと同じ”心”が宿っているのか?」
今あなたが”心”の中で構築した「心の定義」は他の誰かと同じものなのでしょうか。いや、そもそも会話してる相手に”心”なるものが存在しているという証拠を出すことはできるでしょうか。
自分自身の持つ”心”を言葉巧みにいくら説明したところで他の誰かの”心”を説明することができず、ひいてはその存在までをも疑わなくてはいけなくなる。
こうした自分自身以外のヒトが心を持っているか、その心がどういうものなのかを客観的に説明することが出来ないという問題を「哲学的ゾンビ」と言います。
哲学的ゾンビについて詳しくは「【哲学的ゾンビ】意識の観測問題と「アンドロイドのクオリア」」や「【クオリア問題】思考実験「科学者メアリーの部屋」」を読んでいただければと思います。
この「哲学的ゾンビ」は何も人間相手に限ったことではありません。今回話の中心となるAI(人工知能)にも全く同じことが言えるのです。
ヒトの持つ心とAIの持つ心を「哲学的ゾンビ」として同列に扱うことに抵抗を感じる方もいらっしゃるかもしれませんが、この後の話に重要な事なのでひとまず話を進めていきましょう。
心と体の二元論と唯物論
心の定義問題は大きく2つの派閥に分かれています。ひとつは「心を形而上のものとみなす派」、もうひとつは「心は唯物的(物理的)に理解することができる派」です。
簡単に説明しましょう。
私たちが物事を考えるときに使っているのは脳であろうということは何となく理解されているかと思います。脳科学が発展する以前には胸の辺り、すなわち心臓が心の在処であった時代もありました。いずれにしても心は脳なり心臓なり何処かの臓器か、はたまた肉体全体に満遍なく”自分の肉体に宿っている”という感覚はあるでしょう。
このような直感的な感覚のもと、「心を形而上のものとみなす」というのは端的に言えば「心は物理的に捉えることが出来ない」と考えているものです。肉体に心なるものが宿っているとして、その体を解剖し、分解し、構造をひとつひとつ詳らかに取り出してきても「心」なるものを発見することはできません(今現在も出来ていません)。
すなわち、心と言うものは物質的な何かでは無いと言う考え方で心と体は別々のものであると解釈します。体という入れ物の中に心という”何か”が入っていると捉えることもできるでしょうか。
もう一方の「心は唯物的(物理的)に理解することができる派」の考え方の方も、心が何か物質的な物として出現するとはあまり考えていません。しかしながら、物質的な構造が心を生み出している。ひいては構造によって心と呼べるようなものを作り出すことができると考えています。基本的に「AI(人工知能)」を研究する場合にはこちらの立場を取ります。
ヒトの脳はおおよそ800〜900億個の神経細胞によって構築されています。ひとつひとつの神経細胞には”意識”だとか”心”だとかを見出すことはできませんが、これら多量の神経細胞が網の目のように繋がって刺激情報を伝播することで全体の構造の中に”意識”や”心”が発現すると言うのが一般的な物理的現象としての”心”のあり方と解釈されます。
こうした意味において前者が「唯心論」、後者が「唯物論」的な心の見方ということになります。
「AI(人工知能)」の研究が「唯物論」の立場をとるというのは非常に重要なことで、仮に「唯心論的な心」を前提として考えた場合にはいくら高性能で大規模な構造を構築したところでそこには”人工的な心”を宿すことはできません。物理的な現象ではない心をいうものを想定しているのであれば機械に心が宿るかどうかはまさに神の御心のままにということになるため人間の技術や努力では如何ともし難いものとなっていまいます。
ですので基本的には「心を宿すAI」を研究している立場としてはどうしても「唯物論的」な心のあり方を受け入れざるを得ないのです。
もっとも、高性能なAIに”心なるものが”必須のものであるという条件はありませんのでAIの研究者がすべからく唯物論的な心の在り方を支持しているというわけではないでしょうが、少なくともわたしのような在野の人間が抱く”高性能なAI像”には心が宿るのではないかと感じてしまうものではないでしょうか。
また少々飛躍した話ですが、脳を模したような大規模構造を人工的に作ることで第三者である”神が心を与える”ということを完全否定できるわけでは無いですから議論は止まることを知らないわけですが、ここまでくるとそれはもう水掛け論でしかありません。
ということでここからは「唯物論的な心」を前提として話を進めていきましょう。
チューリングテスト
コンピュータがいつ発明されたのか。これについてはどのレベルでの機能なり計算能力を”コンピュータ”とするのかよって発明年代やその発明者が異なります。話が大きく逸れるのでここで詳しく話しませんが、私たちが普段使っているようなコンピュータの原型は一般的に1940年台だと言われます。
1940年代にはコンピュータが人間よりも早く複雑な計算をより正確に行うことができるようになっていました。それと同時にAI(人工知能)の研究も大きな盛り上がりを見せます。
機械に言葉を喋らせることもできるんじゃね?人間と同じように”思考”させることができるのでは?
コンピュータの原型ができてからおよそ10年後の1950年代、いよいよ「AI(人工知能)の研究」が始まります。が、ここで哲学的で大きな問題が立ちはだかります。機械による”思考”とは何なのか。すなわち”機械の心”というものを我々はどのように捉えるべきなのかという問題です。
そもそもがヒトの心だって定義が困難であるわけですから「機械の心」なんてものを定義できるはずもありません。しかしながらその定義は難しくとも前述した「唯物論的な心」を前提とした場合には”ヒトの心のようなもの”は発現してもおかしくありません。
では、その「心のようなもの」が発現したか否かをどのように見分けるのか。そこで提案されたのが「チューリングテスト」です。
チューリングテストは1950年代にコンピュータに関する科学と哲学を専門とするアラン・チューリングによって提唱された、機械(AI)が「知性」を持つかを確かめる方法として考案されました。その内容は簡単に説明すると以下のようなものになります。
【チューリングテスト】
あなたはこれから複数の人たちとパソコンを使ってチャットで会話することになります。
まず一人目、「今日はいい天気ですね」と話しかけると「明日も晴れるようですよ」とたわいのない会話が始まります。互いの趣味や最近の出来事なんかをお話しするかもしれません。
そして二人目、「今日はいい天気ですね」と話しかけると「来週は雨が続くようで残念です」なんてまたたわいのない会話が始まります。最近読んだ本の話やテレビタレントの不倫騒動の話でもするでしょうか。
続いて三人目、「今日はいい天気ですね」と話しかけると「ああ、洗濯をしてこればよかった!」なんてたわいのない会話が始まります。この人とは恋バナなんてしちゃったりして。
と、こんな感じで複数人の人々とチャットで会話を楽しむのですが、いまチャットでお喋りしていた人たちの中に一人(または複数、いや全員!?)会話することのできる「AI(人工知能)」が紛れ込んでいます。
あなたはいま会話してきた人たちの中から「AI(人工知能)」と「人間」とを正確に見分けることができるでしょうか?
このようなテストを何度も行い、判定者となった人々を確実に欺くことができるようになったら、その会話に参加している「AI(人工知能)」はチューリングテストを合格した「知性のあるAI(人工知能)」として評価されることになります。
このテストでは人間の持つ「意識」や「心」といったものを「知性」として捉え、その知性が機械(AI)にも宿っていれば”人間的”とするものです。
「チャットボット」との会話
パソコンなりスマホなり画面上で会話のできるAIのことを「チャットボット」と言います。一時期チャットアプリの「LINE」でこの「チャットボット」と会話するのが流行りましたね。2017年にLINEはチャットボットの技術力を競う「LINE BOT AWARDS」を開催し(一部で?)大きく盛り上がりました。
ネットショッピングやネットでサービスを利用する際にカスタマーサポートという形でチャットでのQ&Aや簡単な問い合わせを行うことがありますが2022年時点で多くの企業がこの「チャットボット」でのサポートを取り入れており、人間によるオペレーター人員の削減や業務負担の軽減に一役買っています。
チャットボットを活用したサポートを意識して利用したことがある方が多いかはわかりませんが、知らず知らずのうちに触れていることもあるかもしれません。
飛躍した例としては問い合わせメールを出した時に返ってくる「お問合せありございます。内容を確認し、担当者から……」などといったメールの自動返信機能も広義的には機械との会話の一種だと捉えることもできるかもしれません。
というのもこちらからの入力(質問や問い合わせ)に対して自動的に機械が出力(解答)してくるという点で利用者にとっては表面的に大差ありません。
では、「チャットボット」のような速いレスポンスでの会話ならともかく、お問合せメールの自動返信に対して「心が宿っているなぁ」と感じることはあるでしょうか。
まぁそれが無いとは言いません。企業側としてはいち早く返信して「メールは届いていますよ」「確認して対応しますよ」という”心”を伝えたいわけですから、そういう意味では”心の宿ったメール”ではあるのですが、自動返信機能自体がそういった”気持ち”をこちらに送ってきているとは感じないはずです。
自動返信機能としては送られてきたメールの問い合わせ内容に沿ってあらかじめ用意されたテキストを”自動的”に選んで送り返しているだけですからね。
話を「チャットボット」に戻すと、チャットボットは自動返信メールの機能をAIの技術を用いて大きく拡張したものと捉えると、与えられた入力に対して用意された返答が自動返信メールとは比べ物にならないほど用意されており、その返答も随時追加されたり変更されたりします。
チャットボットの場合、質問と返答のパターンを学習してより最適な返答ができるようにプログラムされている。いわゆる「機械学習」というものが取り入れられており、その点で自動返信メールとは一線を画す「AIの技術」が内部に仕込まれているため技術的(内部的)には「チャットボット」と「自動返信メール」は大きく異なります。
機械学習とディープラーニング
チャットボットの中身の話で「機械学習」という言葉を出しましたが、これもAIブームと一緒によく聞く言葉です。そしてそれに付随する形で「ディープラーニング(深層学習)」という言葉もよく耳にします。
本題から少し外れますので面倒な方は次の項までスキップしてください。
「ディープラーニング」は「機械学習」の方法のうちの1つと捉えられることもあれば、全く別のものとして紹介されることもあり在野の人間としては頭がこんがらがるところですが、ここで簡単に機械学習の方法について説明しておきましょう。私も専門家では無いので正確さに欠けますがお許しください。
機械(AI)に何かを識別させたい時、例えば複数の写真の中から「猫の写真」を選別させたいとします。
この時、あらかじめ人間が猫の写真に「これが猫ですよ」という正解を書き込んでおきます。この時「耳の形はこんなで」「鼻の高さや位置はここあたりで」「毛並みはこんな感じ」といったようなある程度「猫」に関する”特徴”を機械側(AI)に教えてそれをもとに学習させます。この時与える”特徴”を「特徴量」とか「ラベル」と言い、このような学習方法を「教師あり学習」と言います。
「教師あり学習」とくれば「教師なし学習」もあります。人間側が大量に用意した写真を機械側が「これが猫だ」というパターンを抽出していく手法です。「教師あり」に比べると膨大な量の猫の写真が必要になりますが、人間が「特徴量」を与えることなく機械が独自に「特徴量」を見出していき、この「特徴量」を人間側が「それいいね」「これあかんで」と修正を加えていきます。この手法では人間側が手入力で特徴を書き込んだり調整したりすることをしないので人間側が持つ個人的な主観を排除できたり、人間が捉えることのできない小さな特徴を捉えることができるため成功すれば識別精度は高くなる一方でちょっと間違えただけで精度がガタ落ちしたりします。(この方法には複数の分析方法がありますが割愛)
この2つの方法の折衷的なものが「半教師あり学習」というもので、基本的には「教師あり学習」のように特徴量を入力した写真を人間側がある程度提供するのですが、続いて機械に提示していく写真には特徴量(ラベル)を付けずに機械側に付けさせていきます。イメージとしてよく挙げられる例がスポーツのトレーナーと選手の関係でしょうか。初めはトレーナーにラケットの振り方を教えてもらい、ボールを打ち返す方法を教えてもらいますが、あとは選手が自ら練習しながらコーチングしてもらいつつ身につけていくといったイメージです。
紹介してきたように「機械学習」には基本的に「特徴量」というものが必要になります。それが人間が予め与えるものにせよ機械が見出すものにせよ「特徴量」というものを人間側が操作する必要があるわけです。
これら「機械学習」の手法の発展系が「ディープラーニング」となります。ディープラーニングでは「特徴量」に対して人間側が一切不介入の学習方法です。
手法としては「教師なし学習」に似ていますが、一番の違いは出力に対して正否のフィードバックだけで学習させていくことにあります。「教師なし学習」では「特徴量の調整」といういわば学習方法の手ほどきが必要だったわけですが、そういったことなしに機械側が出してきた「これが猫の写真?」「こっちは猫の写真?」といった出力に対して人間側は「それ正解」「それ間違い」と答えだけを返し、何が正解で何が間違っているのかの調整自体も機械側に行わせるというものになります。トレーナーの例えで言えば、選手はラケットとボールだけを手渡され、ボールが打てたか打てなかったかだけを見てボールの打ち方を学んでいくようなイメージでしょうか。(機械内部の構造もより複雑化されており、この点において”ディープラーニング”と呼ばれます。)
いずれの方法にしても機械学習とはつまるところ、人間側から与えられた課題に対して機械が計算方法やアルゴリズムを改変して人間の意に沿う答えを導き出してくるための”学習”を指します。
中国語の部屋
さて、AIの学習方法について軽く理解したところで本題にもどしましょう。「チャットボット」のようなものが今後ものすごく発展したとしてそこに心が宿るでしょうか。
ここでもうひとつ「中国語の部屋」という思考実験を紹介します。
とある英国人は中国語が全くわかりません。そんな英国人にある仕事が任されます。
彼はまず小部屋に入れられて分厚いマニュアル冊子が手渡されます。
マニュアルには彼が見たことのない漢字がずらりと並んでおり、全くの理解不能です。
彼の仕事は小部屋に入れられた「中国語の文章」に対してそれに対応する「別の中国語の文章」を部屋の外に出すだけ。
入れられた文章は「質問」であり、部屋から出す文章は「回答」であることだけがわかっています。
何が何に対応しているかは全てマニュアルに書いているので、その”質問”が何を意味して何を”回答”しているのかは理解できなくても彼は正確に「中国語」のやりとりを行うことができます。
部屋の外からは見れば「この部屋の中にいる人は中国語を理解している」と感じられるかもしれませんが、作業の本質を見れば小部屋の英国人は全く中国語を理解していないのにも関わらず。
この思考実験はチューリングテストに対するアンチテーゼとしてよく出てきます。
チューリングテストではチャットで会話していた相手が人間であれ機械であれ”人間味”が感じられればそれを「知性」として認めるものでしたが、行われていることは「中国語の部屋」と同じこと。
機械側が言葉の意味を理解しているか否かに関わらず、正確な回答(チューリングテストでは人間味のある回答)さえできれば「知性」を認めるということになります。
いやいや、部屋の中には”作業している人間”がいるんだからそこに”知性”はあるでしょう。と、そんな声もありますが、これを人の脳に置き換えてみましょう。
耳や目から入ってくる言葉に対して返答する時、脳では何が行われているのか。これがわからない。わかっていない。その仕組みはある程度わかっている(小部屋の中でマニュアルを参照しているように)のですが、”理解する”ということや”意味する”ということの本質がわかっていない。
ここでまた「意味とは何か」「理解とは何か」という哲学的命題が噴出してきたりもするわけですが、ともかく私たちが普段主観的に感じている”言葉の意味”のようなものをAI(機械)が”感じているか”を私たちはどのようにして確かめれば良いのでしょうか。
この「中国語の部屋」という思考実験でも、英国人とマニュアルが複合体として意味を構築しているという直感的には理解し難い解釈もあれば、たとえマニュアルを読み込んで英国人が”意味”を理解できたとして言語学的にせよ論理学的にせよ本質的には理解できていないという解釈(とくていの言語に対して母語話者と第二言語としての言語習得者に違いがあるのかなど)があったり、結局のところ問題は問題のままなのです。
AI(人工知能)というゾンビ
人工知能に心は宿るのか、言葉の意味を理解し我々人間と感情や思考を共感し得るのか。今後技術がもっともっと発展すればAIとの会話は極限まで生身の人間との会話に近くなっていくのでしょう。10年もすれば人間か機械かの判断は素人目にはほとんどできなくなっているかもしれません。
哲学的ゾンビの一般的な定義は「物理的化学的電気的反応としては、普通の人間と全く同じであるが、意識(クオリア)を全く持っていない人間(wikipediaより)」と言うもの。
AI に対する人格問題はAI研究が始まってからこれまで長い間にわたって議論されてきたテーマで、これまであくまでも対人間同士の関係の中で哲学的に(客観的に)目の前の人物には感情が備わっているのか、そこにクオリアは存在するのかという問題が「哲学的ゾンビ」であったわけですが、
流暢に話すAIに現実味が帯びてきた昨今では対人間ではなく対機械の関係において抱く”感情らしきもの”を観察していくことで機械から人間へと逆説的にクオリア問題や哲学的ゾンビのようなヒトがヒトたる”感情”を理解するきっかけになっていくのかもしれません。
心の定義を唯心論的に捉えるにせよ唯物論的に捉えるにせよ、AIに意識や感情なるものが宿る可能性はこれもまた否定できない。この2つの考え方としては、脳を模した大規模構造の中に意識が構築されていくことも神なる存在がモノに意識を与えることも考えられる。
こういった考え方をこれまでは人間の持つ主観と客観で意識の在処を探ってきたわけですが、AIに対して人間がクオリアの存在を感じることができたなら意識というものを客観的に観察する時の比較対象が人類史上初めてできるわけでこれはとても有意義です。
人間らしき人間でない存在と生身の人間を比較することで生物学的に意識を定義する段階に発展することができるのではないか。
そんな期待を込めて今回の雑談記事はこの辺りで締めておきます。