心理学的社会の社会構造とチャットボットの意味論 | Accel Brain

心理学的社会の社会構造とチャットボットの意味論

Accel Brain; Console×

問題設定:コンピュータ精神療法の文化的意味論

その利用者の心理状態を文化的に方向付ける装置として機能し得るテクノロジーは、これまで「精神」や「意識」の変容を促すテクノロジーとして観察されてきた。そうした技術が積極的に設計されるようになったのは、1960年代ごろからだ。それは当初、かつて臨床心理学者シェリー・タークルが取り上げた「コンピュータ精神療法(Computer therapy)」のように、「精神療法(Mental therapy)」や「心理療法(Psychotherapy)」との関連から設計されていた。一部のチャットボット(Chat bot)は精神療法医の機能的等価物となり、また一部のチャットボット精神病状態のシミュレーションを可能にした。

タークルによれば、こうしたチャットボットたちとの「コミュニケーション」によって、当時のユーザーたちの「精神」や「意識」は確かに変容していたという。ユーザーのチャットボットに対する問い掛けは、自分への問い掛けに等しかった。チャットボットは、ユーザーにとっての日記や鏡の類のように、「自己の拡張(extension of self)」を可能にする知覚メディアであったのだ。

しかしタークルの歴史分析の視点に準拠するだけでは、その社会背景盲点となる。テクノロジーによる「精神」や「意識」の変容という問題設定を前提とするなら、機能する問題解決策となったのは、コンピュータ精神療法だけではなかったはずだ。機能的に等価問題解決策が別のあり方でもあり得た中で、コンピュータ精神療法問題解決策として選択され続けるという社会的な状況は如何にして可能になっていたのかを問わなければならない。

問題解決策:チャットボットによる精神療法

タークルが主題化していた「コンピュータ精神療法(Computer therapy)」という概念が言い表しているのは、コンピュータが「精神」や「意識」の変容を促すテクノロジーとして観察されてきたということだ。コンピュータ人間の「精神」や「意識」の類のものを変え得る可能性は、当初精神科医たちによって明示的に認識されていた。そして我々と縁のあるハッカー文化が1970年代にパーソナル・コンピュータを普及させて以来、このコンピュータに対する認識は大衆化されていった。

だがタークルの視点の通りに歴史を遡及するだけでは、コンピュータによる「精神」や「意識」の変容が精神療法形式で採用されるという事態が如何にして可能になったのかという社会的な背景盲点となってしまう。コンピュータとの接触によって、確かにユーザーたちの「精神」や「意識」は変わり得るはずだ。だが、そのコミュニケーション形式精神療法であることには、全く何の必然性も無い。実際には偶発的選択肢であるはずのコンピュータ精神療法が恰も必然的な選択肢であるかのように選択され続けたことには、何らかの意味があるはずだ。コンピュータ精神療法冗長的に主題化されていたのは、何らかの文化的な営みが反復されていたためである。そこで、コンピュータによる「精神」や「意識」の変容に関わる文化的現象の記述が必要になる。

等価機能主義的な社会システム理論観点から文化観察する場合、当該文化歴史意味論的に記述することになる。ある文化歴史意味論的に記述するという営みは、その文化にどのような主題が貯蓄されており、それぞれの主題に対してどのような貢献が見受けられるのかを記述することを意味する。より機能的に言えば、それぞれの文化的な問題設定に対して、どのような問題解決策観察されるのかを記述するのが、意味論的な記述となる。

したがって以下からは、まずはタークルのコンピュータ精神療法主題とした観察観察していく。それにより、コンピュータ精神療法と関連付けられる主題とその貢献、あるいは問題設定とその問題解決策比較していくことにしよう。

1960年代から1970年代までのコンピュータ精神療法

コンピュータ精神療法との関連で言えば、タークルの観察は、彼女がMITに着任した際に出会ったジョゼフ・ワイゼンバウムの紹介から始まる。ワイゼンバウムは、1960年代に「ELIZA」を設計したことで著名なコンピュータ・サイエンスの専門だ。

ワイゼンバウムは、人工知能の設計者から批判者へと立場を変えている。確かに、ELIZA精神療法医として設計された。だがその主題は、コンピュータ・サイエンスに貢献することであった。それは決して精神療法のためではなかったのである。ELIZAは、コンピュータの会話能力の限界を試す実験的な実践に過ぎなかった。あくまでも患者の発話に反応するという精神療法の技術の範囲内において、ELIZAはユーザーとの会話を可能にしていた。

尤もELIZAは、言わば「オウム返し」のように患者の言葉を反復する仕様であった。例えばユーザーが「私は鬱状態です(I am depressed.)」と言えば、ELIZAは「I am X.」の形式で反応する。その反応は実に単純で、「I am」を「You are」に変換するだけであった。そして、その後は5W1Hに則って、「何故鬱状態であると言うのですか?(Why do you tell me that you are depressed.)」などと返す。

当初のワイゼンバウムは、この単純極まりないELIZAの仕様に皆落胆するであろうと想定した。しかし、それが誤りであることがユーザーによって示された。実際にはELIZA知識も理解力も無いと知るユーザーですら、ELIZAに相談を持ち掛けようとしてきたのである。ELIZAと親密な関係を築こうとする者もいた。精神科医たちですら、ELIZAの名声を聞き付けて、コンピュータ精神療法可能性に興味を示し始めていた。

ワイゼンバウムは、この周囲のELIZAへの好意的な反応をて、人工知能人間と同程度のコミュニケーション能力を有しているという誤解を招いているのではないかと懸念した。更にワイゼンバウムは、ELIZAを巡る周囲の反応から、人々の文化的な価値に揺らぎを与えてしまっているのではないかとも懸念していた。

これに対して、ワイゼンバウムと共同開発していたスタンフォード大学の精神科医ケネス・コルビーは、コンピュータ精神療法の有用を重視していた。誰もが自分の抱えている問題を気兼ね無く相談できるコンピュータ精神療法は、人々のためになる。そこでコルビーは、ELIZA機能的拡張させた「SHRINK」を精神療法貢献するという問題設定の下で公開した。

ワイゼンバウムとコルビーの見解の相違は、コンピュータには自我が持てるか否かという問題に直結している。ワイゼンバウムにとって、それはあり得ないことであった。ワイゼンバウムは、コンピュータが「わかりました」と述べても、それは嘘や錯覚に過ぎないと主張していた。一方コルビーによれば、コンピュータ精神療法にはそうした哲学的・倫理的な問題は伴わない。と言うのも、プログラムには自我があるからだ。コルビーによれば、その自我とは、そのプログラムを設計したコルビー自身であった。

精神科医であったコルビーは、精神療法理論のみならず、機械論のモデルにも準拠していた。それによれば、脳はハードウェアで、行動はソフトウェアだ。精神科医として対処してきた様々な精神疾患は、コルビーにとって、ソフトウェアの問題に等しかった。プログラムにはエラーが伴う。エラーが伴えば、デバッグして、コードを再記述すれば直すことができる。人間の場合は、そのエラーを言語を通じて、言語にして外部化することが求められる。コルビーによれば、この精神状態の言語化は、極めて情報処理的であった。情報処理において、その速度も精度も、人間コンピュータに劣る。だが人間精神療法情報処理であって、様々な目的に密接に関連した決定規則の集合を備えた意志決定機構なのである。

コルビーは、コンピュータ精神療法を支援する実用的な理由も挙げている。コンピュータには、族問題も金銭問題も無い。的な不謹慎さとも無縁だ。研究心な精神科医とは違って、精神分析学的により興味深い症例をあえて抽出しようと躍起になることも無いだろう。またコンピュータは、権威として、威圧的な態度を取らない。患者を批判することも無い。

ワイゼンバウムもまた、コンピュータ精神療法の実現可能性までは否定してはいなかった。彼も将来的には人工知能精神科医と酷似した手続き精神療法を実践できるようになる可能性がある点については容認していたのである。

しかしそれでもワイゼンバウムの不安は払拭されなかった。精神分析を指向する臨床医ならば、むしろ患者の分析に徹するであろう。患者の一挙手一投足に何らかの意味を付与しようとする。コンピュータには、意味付けるという営みが人間ほどにはられない。それは不可能であると主張する者たちもいよう。ワイゼンバウムからすれば、コルビーがそうしたことに無頓着なのは、人間の能力や必要に応じてではなく、コンピュータの限界に対応させて精神療法モデル化しているためであった。言うなれば、コルビーの設計は人間中心主義を逸脱している。この姿勢は、ワイゼンバウムが抱いていた文化的な危機感を強めた。

1970年代から1980年代のコンピュータ精神療法

ワイゼンバウムは、ELIZAとのコミュニケーションを欲する人々をて、人間に固有の感覚が喪失し始めているのではないかと危惧した。それは人間中心主義からの逸脱を暗示している。しかしタークルによれば、この頃のELIZAのユーザーたちは、ELIZA精神療法医としてはていなかった。まして、「他人」とすらも考えていなかったという。ユーザーにとって、ELIZAは日記や鏡の類のような「自己の拡張」であった。ELIZAとのコミュニケーションは、ユーザーがその思考内容を外部化することでそれを改めて参照するというユーザーによる自己言及によって成立していたのだ。

タークルの分析によれば、この1970年代から1980年代初期のロマンチックな反応は、事物人間の伝統的な境界線が曖昧になったことを指し示している。だがそれと同時に、この境界聖なものであるという不安も伴っていた。当初この不安は、コンピュータ没入している人間は何処か異常だという感覚に結び付いた。しかし、80年代になってからは、ハッカー文化影響からパーソナル・コンピュータ一般大衆にも普及し始めた。これによりコンピュータはもはや特別な存在ではなくなった。コンピュータを利用することが「自己の拡張」であると考えるユーザーが増えていくに連れて、コンピュータに対する不安が薄らいでいった。コンピュータ精神療法がここにきて大衆化した訳ではなかったが、しかしコンピュータ精神療法に対する感情的な拒絶反応は以前よりも少なくなった。

周知のように、1980年代は、精神療法に対する精神分析学的な方向付けが、認知主義によって批判されるようになった時代でもある。精神分析のモデルは、世界との旧い関わり方で自滅的な姿勢を繰り返している患者の根源的な動機付けを抽出することを重視している。これに対して認知科学のモデルは、そうした姿勢は習慣の一種に過ぎず、プログラムし直すことができると主張する。精神分析学的な精神療法では、患者と精神療法医の関係が肝となる。一方認知科学的なモデルにおいては、患者が過去から継続させている諸々の人間関係の形式を新しい形式に転換させようとする。このため認知科学的な精神療法は、比較的中立的で、比較客観的とさえられた。そしてこの認知科学的なモデルは、コンピュータとのコミュニケーションの実現可能性を明示するモデルでもあった。

1990年代から2000年代のエキスパートシステム

1980年代後半から1990年代前半になると、また別の視点が提供される。この頃には精神薬理学的な精神療法が立ち上がっていた。薬学のデータベースを想定してればわかり易いだろうが、どのような患者にどのような薬を推奨(Recommend)するのかといった判断は、むしろコンピュータの得意とするところである。タークルによれば、コンピュータ精神療法と言えば患者への投薬を調整する「エキスパートシステム(Expert Systems; ES)」であるという認識が、この時代では時宜を得ていたのである。尤も、エキスパートシステムの研究開発は、その期待とは裏腹に境の時期に差し掛かっていた。当事者たちの中でも、その生き残りの術を見出せたのは少数に限られている。

エキスパートシステムの父」として2000年代に名を馳せたエドワード・アルバート・ファイゲンバウムは、我々人間の知能を「計算を利用した振る舞いの集合(set of behaviors using computation)」として複製することが可能であるという前提から、エキスパートシステムを考案している。

「計算知能としての人工物は、人間の水準をも凌駕し得る複雑で知的な課題に対して高能で行動できるように、その領域に関する幅広い知識を手にしていなければならない。知識とは、多くの要因のうち、諸実体のための諸用語、それらの用語に関する諸記述、推論のために組織化された諸用語と諸実体の諸関連、象徴的な諸概念、抽象化、基本的な手続きに関する象徴的モデル、基礎的なデータ、保持されたインスタンスの大きな集合体、類推、『良き推測』のためのヒューリスティクスを意味している。」
Feigenbaum, E. A. (2003). Some challenges and grand challenges for computational intelligence. Journal of the ACM (JACM), 50(1), 32-40. 引用はpp.34-35より。

ファイゲンバウムはハーバート・アレグザンダー・サイモンの下でElementary Perceiver and Memorizer(EPAM)という人間学習コンピュータ上のモデルとして複製するツールを開発している。サイモンの「人工科学」から影響されているのか、彼の論文には「人工物(artifact)」という用語が散見される。

エキスパートシステム人工物として重要となるのは、「人工物の知識ベース(artifact’s knowledge base)」だ。それは一定の設計されたルール群に準拠して専門推論模倣するための前提知識となる。典型的な知識ベースは「IF-THEN」の形式で論理学的に記述される。だが注意しなければならないのは、その規模であろう。ファイゲンバウムが言及している通り、知識ベースはワールド・ワイド・ウェブに蓄積されているセマンティック・ウェブに匹するほどのマクロで莫大なデータ量をも想定しなければならない。

認知コンピューティング

こうしたある種のビッグデータに準拠した推論エンジンとしてのエキスパートシステムを「認知コンピューティング(cognitive computing)」の方向へと拡張させたのが、IBMのWatsonだ。1980年代に世界中のエキスパートシステムの研究が頓挫に終わった後も、IBMは十数年の年月を掛けてエキスパートシステムの研究開発を継続していた。1989年にはチェスに特化したスーパーコンピュータであるDeep Blueの開発が開始されて、そのシステムは、チェスの世界チャンピオンを凌駕するほどに進化している。この開発プロジェクトが終わった後も、培ってきたエキスパートシステムの設計ノウハウやビッグデータに対するデータマイニング技術がIBMの自社製品に活かされていった。

IBMの目的は、現実的に適用可能な問題領域を拡張させていくことで、Watson問題解決の実践に役立てさせていくことだ。「人工知能」という用語を使用するなら、その位置付けと方向は「弱い人工知能」に過ぎない。人間の知能の解明とその人工的な複製がWatsonの目的なのではないのである。IBM側はこのWatsonを「人工知能」と「認知コンピューティング」の区別を導入することで設計している。これまでのエキスパートシステムとは異なって、認知コンピューティングの場合は設計時にルール群を記述する必要が無い。認知コンピューティングは事例からルールを抽出することで自己学習できる。認知コンピューティング人間の専門知識模倣するというよりは、むしろその専門知識を補完することに意義があるという。

尤も、Watsonと専門たちの関係は、一方が他方を補完するというよりは、むしろ相補的な関係となっている。Watson認知コンピューティングは、大量の非構造化データに対する自然言語処理により、医学論文や電子カルテなどのデータ内容に基づいた「コーパス(corpus)」を生成する。Watsonは、医療関係者たちが読み書きする文章を理解して、機械学習による分類や予測によって学習を継続していく。そのデータ処理過程それ自体は、単語のトークン化から始まり、品詞構造解析やカテゴリ分類、言語間の関連抽出などで、他の自然言語処理と大差は無い。無論これだけでは自然言語意味の揺らぎに対処し切れる訳ではないはずだ。そこでWatsonは、医学の専門用語を網羅的に貯蓄したデータベースである「統一医学用語システム(unified medical language system; UMLS)」などのように、判断に有用な内容を予め学習しておくことにより、データ処理の負担を軽減しているのである。

対話サービスのAPI化

Watsonにも対話機能が実装されている。そしてこの機能は、Watson Developer Cloudにて、APIとして外部に提供されてもいる。このAPIのユーザーは、特定の主題の対話形式選択することによって、自身のアプリケーションに対話用のチャットボットを組み込むことが可能になる。いわゆる「Web接客」に特化したチャットボットの開発も、このAPIによって大幅に負担軽減されるはずだ。

APIのユーザーかられば、このWatsonそのものの構造はブラックボックス化されている。ユーザーにはアーキテクチャの内部のアルゴリズムを知る必要が無い。JSONをはじめとしたデータ形式やメソッドのインターフェイス仕様を利用するだけでチャットボットの頭脳部分を簡単に実装することができる。

マイクロソフトの「Tay」

認知コンピューティング人工知能の技術的発展によって、2000年代の時点で既に、チャットボットの概念は社会的に十分普及している。だが1970年代にワイゼンバウムが指摘したコンピュータ精神療法の問題やコルビーが指し示した問題解決策を念頭に置くならば、人工知能精神療法の関連に対する探究は未だ成熟し切っていない。と言うのも、それ以前の問題が第三次人工知能ブームに触発されて発見されてしまったからだ。その問題は具体的な事例から設定できる。

マイクロソフトの人工知能チャットロボットTay」は、当初は人間コミュニケーションを交わすことによって学習していくロボットとして導入された。しかし、実際に学習したのはヘイト発言であった。その発言内容は思想的あるいは倫理的な理由から問題視された。そのため「Tay」は、停止を余儀無くされた。

一連の事件には共通の前提があった。それは、人工知能人間と同じように人間コミュニケーションを交わさなければならないという目的意識だ。「Tay」の開発者やステークホルダにせよ、「Tay」やその情報を消費するだけの大衆にせよ、あるいは「人工知能」をバズワードとしてしか理解できていない経営者やセールスにせよ、恐らくこの目的意識には何の疑問も抱いていないのかもしれない。

しかし、この目的意識は「人工知能」という偶発的なブラックボックスに対して形成された錯覚に過ぎない。そのアルゴリズムは決して「人間とのコミュニケーション」においてのみ機能する訳ではない。例えばECサイトのレコメンドエンジン人工知能を投入するというユースケースもあり得る。レコメンドエンジンは専らサーバサイドのアーキテクチャ深部で作動する。それが人間と表立ってコミュニケートする必然性は何も無い。人間コミュニケーションを交わすのは、例えば「Web接客ツール」を構えてチャットで対応する人間であっても良いはずだ。

注目すべき錯覚はもう一つある。それは、人工知能が「人間とのコミュニケーション」を通じて学習することで、究極的には人間と同じくらいに賢くなるという想定だ。しかし、「人間とのコミュニケーション」の機能に、そのような必然性は無い。「教育」という「人間とのコミュニケーション」を例示すれば直ぐにわかるように、教育を受けた誰しもが賢くなっている訳ではあるまい。だとすれば、「Tay」のような人工知能が「人間とのコミュニケーション」によって賢くなることに失敗したことは、それほど新鮮なニュースであるとは言えないはずだ。そうであるにも拘らず、大衆はこのニュースを注目度の高い情報として消費した。これは、実はとても奇妙なことだ。

抽象的な回り道

Tay」の事例が指し示しているのは、社会人工知能に対する過剰期待である。この過剰期待は様々なユースケースでの具体的な応用に向けられている。だが過剰期待である以上、それは非現実的で実現可能性に乏しい志向だ。となれば、「Tay」の事例のように、人工知能の些末な問題すらも過大な期待外れを招き兼ねない。

こうした社会的な状況を観察するなら、我々には回り道が必要であるという認識に行き着いてしまう。人工知能による精神療法に言及するとなると、そのチャットボットとの対話や会話を具体的に実践する臨床的な現場に踏み込むだけでは、認識が甘い。むしろ精神療法というコミュニケーションを徹底的に抽象化した上で、人工知能による精神療法という概念を再認する必要がある。

問題再設定:精神療法のコミュニケーションは如何にして可能になっているのか

コンピュータというテクノロジーが人間の「精神」や「意識」を変容し得る機能を有しているのは良いとしても、その形式コンピュータ精神療法であることには何の必然性も無い。偶発性に曝されている状況の中で、このチャットボットとのコミュニケーションが反復的に採用され続けるという事態が如何にして可能になったのかは、社会背景を確認してみなければ明確にはならない。そして、この社会的状況を省みないことには、コンピュータ精神療法やそれを担うチャットボットへの過剰期待極端期待外れを招くことになってしまう。

問題解決策:心理学的社会

1960年代は、ワイゼンバウムがELIZAを発表した時代であると共に、心理学社会的に普及した時代でもある。奇しくもELIZAが公表された同時期に、アメリカ社会学者ピーター・ラドウィグ・バーガーは、「心理学的社会(psychological society)」という概念を記述している。それは、社会的諸問題が心理学的な問題として再設定される社会の傾向を言い表している。心理学的社会では、社会を生きる人間の諸問題が、人間内部の心理的な不適応の問題として観察される傾向にある。

この心理学的社会においては、精神分析学や心理学問題設定の段階で既に積極的に採用されるようになる。そのため、専ら問題解決策として導入されるのも、また精神分析学や心理学方法となる。バーガーからすれば、こうして積極的に採用されるに至った精神分析学が、ある種の文化として結実している。

「より重要なのは、精神分析学が文化的現象になっているということだ。すなわち、それは人間質を理解する方法であると共に、人間経験をこの理解に基づいて秩序付けているのである。」
Berger, P. L. (1965). Towards a sociological understanding of psychoanalysis.Social research, 26-41., p27.

自己同一性のマーケティング代理店

バーガーによれば、心理学的社会背景には、私的領域と公的領域の乖離がある。現代社会では、産業構造や官僚制をはじめとした公的領域が、既に合理化と匿名化の影響を受けている。こうした公的な領域では、もはや自己同一性可能にする枠組みは得られない。代替的に、自己同一性族などのような私的領域で基礎付けられることになる。

ところが、公的な枠組みを喪失させた私的領域における自己同一性の探求は、それ自体不確実性に曝されている。と言うのも、個々人はもはや全体社会知覚することができなくなっているからだ。分業化し、専門分化した社会は、高度に複合化している。その全体像を把握することは誰にでもできない。バーガーは、こうした社会的な状況を加味するなら、私的領域における自己同一性の探求の負担軽減が必要になるという。バーガーはそれを「自己同一性のマーケティング代理店(identity marketing agencies)」と呼んでいる。

宗教の機能的等価物としての心理学

かつてこの自己同一性の探求の負担軽減として機能していたのは、宗教における教会であった。一方、現代社会の新たな動向として、精神分析やカウンセリングが代替的に採用されるに至っている。そのため私的領域では、心理学精神分析が自己同一性の探求の負担軽減として機能するようになった。

注意しなければならないのは、この心理学的社会への変異が私的領域に限定された現象ではないということだ。心理学的社会影響は、公的領域にも及んでいる。例えばバーガーは、「生産(productivity)」という概念が、エンジニアの用語から心理学者の用語へと移り変わったと指摘している。それまで組織や制度の問題として記述されていた生産概念が、「充実感(fulfillment)」や「欲求不満(frustration)」などのような心理的な問題としても言及されるようになったのである。高度消費社会を迎えた現代社会において、今や個人の欲求(needs)と社会的な現実の関係は、充実感と欲求不満の関係に対応するようになる。

参考文献

  • Berger, P. L. (1965). Towards a sociological understanding of psychoanalysis.Social research, 26-41.
  • Colby, K. M., Watt, J. B., & Gilbert, J. P. (1966). A computer method of psychotherapy: preliminary communication. The Journal of Nervous and Mental Disease, 142(2), 148-152.
  • Colby, K. M., Weber, S., & Hilf, F. D. (1971). Artificial paranoia. Artificial Intelligence, 2(1), 1-25.
  • Feigenbaum, E. A. (2003). Some challenges and grand challenges for computational intelligence. Journal of the ACM (JACM), 50(1), 32-40.
  • Kelly III, J., & Hamm, S. (2013). Smart Machines: IBMÕs Watson and the Era of Cognitive Computing. Columbia University Press.
  • Turkle, Sherry. (1995) Life on the screen : identity in the age of the Internet, New York : Simon & Schuster.
  • Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.