近代社会の社会構造とハッカー倫理の意味論 | Accel Brain

近代社会の社会構造とハッカー倫理の意味論

Accel Brain; Console×

目次

派生問題:エンジニアの「共通言語」の認識は如何にして可能になるのか

構造推論のフレームワークは、アーキテクチャ構造に関する重要な情報抽出して分析する際に有用となる。それまでのアーキテクチャ設計において欠落していた情報を埋め合わせる上でも機能するだろう。組織構成するシステムや製品において繰り返し出現するアーキテクチャ構造を特定することによって、競争優位の確保、再利用可能性の促進、プロダクトライフサイクルの強化などを背景としたアーキテクチャ構造的な強みや弱みを特定する負担が軽減される。

こうした構造推論のフレームワークを提供しているArchitecting Software Intensive Systems: A Practitioners Guide.は、アーキテクチャ設計の優れた実践書だ。とりわけその「実践書らしさ」は「パターン(Pattern)」や「イディオム(idiom)」に言及する際に際立ってくる。

デザインパターンアーキテクチャパターン、スタイル(Style)、イディオムなどのように、「共通言語」を物語る概念は多数散見される。これらは過去のエンジニアたちの経験則を言語化することで共通認識の得られ難いという問題を解消する点で機能的に等価だが、機能的等価物が多過ぎる状況もまた一種の問題として設定できる。何故なら、無数の選択肢は視野狭窄を招き、選択負担を増大させるからだ。

実際、この実践書では、この「共通言語」が多過ぎる問題を解消するべく、「パターン」や「スタイル」などといった概念を再定義する試みを聡明にも回避している。この本ではこれら無数の「共通言語」をそれこそ抽象化して、単に「構造」という用語で一括りに語っている。

それよりもこの実践書では、構造パターン区別の導入と分析を方向付ける一般的な「フレームワーク」を紹介することに徹している。尤も、「フレームワーク」という概念もまた一端の「共通言語」であるかのように思えるが、そのあたりを深く追求するのは野暮というものだろう。個別具体的に構造選択の分析やパターンやスタイルの特定の状況におけるユースケースを記述するよりは、もう少し汎用のあるフレームワークを紹介した方が、現場の実践者たちの支持が得られ易い。その日限りの糧を与えるよりも、生涯を通じて食料の調達を可能にするノウハウこそが重要だ。

しかし、こうしたパターンやフレームワークなどといった「共通言語機能を有した概念に接する場合、注意しなければならないのは、そうした「共通言語」が<反事実的>に再利用され続けているという「歴史」だ。パターン、スタイル、イディオムなどといった諸概念の散乱した状況は、「共通言語」そのものの非共通性物語っている。とても「共通言語」の設定に成功しているとは言えない。しかし、それにも拘わらず、デザインパターンアーキテクチャパターン、あるいはフレームワークなどといった概念は、恰も追従すべき「規範」であるかのように選択され続けている。

こうした<反事実的>に規範として期待され続けているノウハウや方法再利用する場合、我々はそれがある種の「形骸」として成り立っている可能性に注意を払うべきだろう。さもなければ、実際には何の効果もメリットも無いにも拘らず、「馬鹿の一つ覚え」の如く、無価値にそれを選択し続ける羽目になる。

したがってここでは、こうした「共通言語」が<反事実的>に「規範」として期待され続けるという事態が如何にして成立可能になっていたのかを、概念の歴史意味論を振り返ることで明確にしておこう。

問題解決策:パターンランゲージ

共通言語」への視点として、ここでは建築のクリストファー・アレグザンダーと人工知能研究で名を馳せたハーバート・アレグザンダー・サイモンを比較することにしたい。アレグザンダーは、「共通言語」の一種であるデザインパターン歴史的なルーツを提供した著名な建築だ。一方、サイモンはアレグザンダーとほぼ同時代に、アレグザンダーと対照的な思想から「共通言語」の可能性を追究している。

セミラティス構造の設計

アレグザンダーは、1965年に発表した『都市ツリーではない』という論文において、「セミラティス(semi-lattice)」という概念を取り上げている。セミラティスとは、各要素が複数の集合に属しながら互いに関係を持ち合う物質的諸要素の重なり合いを表現する数学の概念だ。

アレグザンダーによれば、長い年月を掛けて自然に創り上げられた都市セミラティス構造を獲得しているのに対して、建築都市計画者たちによって設計された都市セミラティス構造の特殊例に過ぎないツリー構造を有している。ツリー型の都市では、各要素は特定の集合だけに属するだけで、それらの柔軟な重なり合いは持たないという。

セミラティス構造を強調するアレグザンダーの設計思想にあるのは、設計者の認識能力や予期能力には限界があるという前提だ。これは、サイモンの「限定合理性(bounded rationality)」にも相通ずる思想である。つまり、我々の設計に費やすことのできるリソースには限りがあるために、発揮し得る合理性にも限界があるという訳だ。それ故、建築都市設計者をはじめとした「専門」が将来に関する完全な「専門知識」を持ちながら全体を設計するという近代的な設計概念を自明視してきた周囲の建築たちかられば、アレグザンダーの思想は保守的であっただろう。

設計のパターンランゲージ

出発点としては、アレグザンダーとサイモンは確かに似ている。しかしその後の「設計」に対する姿勢は、対照的であった。サイモンは「人工物」の設計を称えていたのに対して、アレグザンダーはむしろそれを拒否していたからだ。

人為的な設計が介在しない「自然都市」には、独自のしさや価値がある。それは何処か活き活き(alive)としている。アレグザンダーはこの質を「無名の質(quality without a name)」と名付け、この質を実現するための設計方法を模索し始めた。

そして1977年になると、アレグザンダーは、このセミラティス構造を具体的に設計するためのツールとなる「パターンランゲージ(pattern language)」を提唱している。パターンランゲージは、建築のユーザーが「心地よい」と感じる都市や建築物を分析することで作成された。街やコミュニティに関するパターンから施工やインテリアに関するパターンまで、計253のパターン構成されている。各パターンには、設計における「問題」とその「解決策」の発想が一対になって記述されている。パターンランゲージのユーザーは、自身が直面している「問題」の状況に応じてパターン選択することができる。そしてユーザーは、その言語によって記述されている抽象的な「解決策」を自身が置かれている個別具体的な実践策として利用することができる。

パターンとは、ある文脈で反復して起きている問題を解決する方法だ。したがって、パターンランゲージを記述して共有することには、二つの利点がある。

第一に、パターンランゲージには設計の熟練者が持つ経験則が明文化されている。このパターンランゲージ活用すれば、設計の初心者であっても、洗練された「解決策」で「問題」を解決することが可能になる。

第二の利点は、設計に関する共通の語彙を共有することができる点にある。まさに「共通言語」の発想がアレグザンダーの時点であったという訳だ。

これにより、設計者とユーザーは特定の「問題」に対する「解決策」を共に考えることができるようになる。設計の「専門」がトップダウンで全体を設計するのではなく、ユーザーが設計に参加するというボトムアップ的なアプローチによって、よりユーザーの意向を反映させた成果物を提供することが可能になる。

ソフトウェア開発におけるパターンランゲージ

アレグザンダーの設計思想は、建築学のみならず、ソフトウェア開発に対しても強い影響を与えている。例えばケント・ベックらの「エクストリーム・プログラミング(Extreme Programming: XP)」の概念の背景にあるのも、このアレグザンダーのパターンランゲージによる設計という概念である。それ故に、このXPの思想においても、事前の設計よりも柔軟が重視される。ウォーターフォール(Waterfall)のように、要件定義、設計、開発、テストなどのフェーズを段階的に進捗させていくような開発方法とは異なり、XPにおいては細かい計画の見直しとその反復が求められる。

ユーザーによる過剰な要求や仕様の変更に伴うリスクを軽減するために、顧客や開発者間のコミュニケーションを重視する点においても、XPはアレグザンダーの設計思想と近接している。また、コーディング、テスト、リファクタリングに重点を置くことで、短期間のリリースを繰り返してツールを育てていく開発方法であるために、XPは主にプログラマによって支持を得ている。

パターンランゲージの発想をより直接的に継承していると言えるのは、「デザインパターン(design pattern)」であろう。GoF(Gang of Four)と呼ばれるエーリッヒ・ガンマ、リチャード・ヘルム、ラルフ・ジョンソン、そしてジョン・ブリシディースの4人は、デザインパターンという概念を初めてソフトウェア開発に導入した。アレグザンダーのパターンランゲージが建築設計の問題解決策のカタログであったとすれば、GoFデザインパターンは、過去のソフトウェア・アーキテクト発見した設計のノウハウ(know how)やハウツー(How to)を蒐集して再利用可能にするためのカタログに他ならない。

事プログラミングにおいては、素人と熟練者の生産には劇的なまでの落差が生じる。その差異は、概ね経験の違いに由来しているという。熟練者は、難易度の高い様々な問題を何度も乗り切っている。そうした熟練者たちが同一の問題に取り組むと、大抵の場合は皆類似したパターン解決策に辿り着く。この問題と解決策抽出したものが、デザインパターンである。

派生問題:パターンランゲージのパラドックス

パターンランゲージを提唱したアレグザンダーは、その出発点として、ツリーセミラティス区別を導入していた。ツリー構造の場合、各要素は一つの集合にしか属さない。セミラティス構造の場合、各要素は複数の集合に属する。

しかしながら、集合の定義が見直される時、セミラティス構造ツリー構造へと変貌してしまう可能性がある。と言うのも、セミラティス構造として観察されるあらゆる要素を総括するメタ集合を仮定するなら、各要素はそのメタ集合にしか属さないことになるからだ。これは、各要素をトップダウンの視点から俯瞰した場合に起こり得る。視点次第で、セミラティス構造ツリー化し得る。セミラティス構造は結局のところツリー化してしまう点で、その設計はパラドックスに直面することになる。

ツリーセミラティス区別は、人為自然区別に対応している。したがって、セミラティス構造ツリー化というパラドックスも、この<自然人為>というパラドックスで言い換えることができる。

ツリー型の都市人為的な設計によって構成されている。セミラティス構造都市自然構成された集合体だ。しかし、人為自然区別をそれ自体に適用させてるならば、この区別パラドックスに陥ることがわかる。すなわち、一言に「自然」と言っても、そこには<人為的自然>もあれば、<非人為的自然>もあるということだ。<人為的自然>は、無論純粋な自然ではない。それは、<人為を及ぼさないという人為>が帰結した逆説的な自然に他ならない。例えば日本の文部科学大臣が指定する天然記念物は、「自然保護」という名の<人為>によって成り立つ<自然>だ。同じように、セミラティス構造を設計する場合、<人為的な設計>による「人工都市」ではなく<非人為的な設計>による「自然都市」を生み出そうとするという意味で、<人為>が介在してしまう。

それ故、セミラティス構造を追い求めた設計が最終的に結実させてしまうのは、ツリー構造の建築物だということになる。アーキテクト人為的介入する限り、都市ツリーになってしまう。一方、逆にアーキテクトが全く介入しなかった場合であれば、都市セミラティスになるかもしれない。しかしその非介入が<人為を及ぼさないという人為>となる場合があるのならば、都市ツリー化してしまう。セミラティス構造ツリー化が起こり得るのは、本来ならば純粋に存在していた「自然」を<人為的自然>と<非人為的自然>という人為的な線引きによって枝分かれさせた場合だと言える。セミラティス構造を宿しているとされる「自然」は、人為自然区別によって、それ自体がツリー構造の内部に再導入されてしまう。

アレグザンダーのパラドックスは、人為的な設計を否定しつつも人為的に設計してしまうことに要約できる。そしてこのパラドックスは、アレグザンダーの思想から影響を受けたXPにおいても見出される。つまりXPも、設計よりもコーディングとテストを重視していながら、実際には高い設計力を有したアーキテクトを要請してしまっているのである。

XPの土台となるのは、仕様や機能を変えずにソフトウェアの内部構造を改修するリファクタリングである。ソースコードを知るプログラマ自身がテストケースを用意することで、リファクタリングとテストを繰り返していく。良くできたXPの開発体制においては、こうしたテストは自動化されている。自動化技術によって、改修に伴う新たなバグを意味するデグレードを防止しつつ、内部構造改善していくのである。

XPの利点はフットワークの軽さにある。XPでは、最初に全体像を設計する訳ではない。そもそもXPには設計に着手する明確な工程が無い。他の開発方法では開発の前段階で設計のフェーズが設けられていたのに対して、XPではよりコーディングに近い部分で開発しながら設計していくという。言わばプログラマが設計まで担いながらコーディングする訳だ。しかしこれは、プログラマに設計能力が求められるということである。もし業務分析に基づく運用や作業工程の設計やユーザービリティの分析に基づくユーザーインターフェイス設計に関する能力を持たないプログラマが開発すると、利用し難いシステムが開発されてしまう。設計よりもコーディングやテストを重視する開発方法でありながらも、設計能力の必要は高いままだ。

XPはコーディングやテストを重視する開発方法であると共に、仕様変更に対する柔軟な姿勢を示している。しかしだからこそ、テストそれ自体の複雑を高めてしまう。実際にコーディングしたプログラマ自身であれば、自身のソースコードを読むだけで、テストにおける着眼点も視えてくるだろう。だが開発者以外がテストする場合、仕様の共有が必要になる。設計書があるのならば、それが共有するためのツールとして役立つだろう。だがXPのプログラマにとっては、ソースコードが仕様書になりがちだ。そうなれば、ソースコードに熟知した者にしかテストはできないということになってしまう。

無論、XPを賛するプログラマたちにもテスト仕様を明確にする意識はある。例えば「テスト・ファースト(test first)」という考え方は、テストケースの作成を通じて仕様を明確にする意識から芽生えた発想だ。テスト・ファーストによるプログラミングでは、初めにテストケースを作成しておいて、そのテストをクリアすることを目指したプログラムを記述していく。テストケースを共有すれば、あるいは他者に仕様を伝達できるかもしれない。しかし、この場合のテストケースは、単に既存の開発方法における「設計書」を言い換えた概念に過ぎない。ベックは「テスト駆動型開発(Test-Driven Development)」を提唱しているが、単に設計から始まる開発とテストの言い方を変えただけに過ぎない。「設計駆動型開発」と表現しても、特に不自然な点は無いだろう。

ちなみに、パターンランゲージには専門主義の副作用を招く可能性があるということも留意しておいた方が良いだろう。確かにパターンランゲージの発想に基づいたデザインパターンを利用すれば、ユーザーとの共演による設計が可能になる。設計の専門に依存することなく、自ら設計へと着手するようになるユーザーも現れてくるだろう。

尤も、パターンランゲージは専門の必要否定する訳ではない。そもそもパターンランゲージを記述するのは、大抵専門だ。デザインパターンを記述し始めたのも、設計の専門であった。少なからず特定の問題の「解決策」に関する「専門知識」に精通する記述者がいなければ、パターンランゲージは成り立たない。それこそ、嬉々としてアレグザンダーについての「専門知識」を披露する<パターンランゲージの専門>が出現すれば、<パターンランゲージに関する一般人の知識>や<パターンランゲージを記述しようとする一般人の能力>は相対的に矮小化されてしまうことになる。

こうなると、恰もその<パターンランゲージの専門>がいなければパターンランゲージを作成して利用できるようにはなり得ない、などと錯覚してしまう一般人も現われるかもしれない。あるいはこの状況は、嬉々として「専門知識」を披露したがる専門たちを量産してしまい、様々な「識者たち」によって「共通言語」がばら撒かれる可能性を生み出している。冒頭で指摘したパラドックス、つまり「共通言語」の非共通性という状況が派生するのは、この状況から察するに、致し方無いことなのであろう。

こうした矮小化に自覚的に注意しなければ、一般人は<パターンランゲージという名の「専門知識」>を待つだけの存在に成り下がってしまう。そうなれば、一般人はいつまで経っても<パターンランゲージのエンドユーザー>に過ぎなくなる。非専門たる一般人も積極的にパターンを記述する役目を引き受けなければ、パターンランゲージ可能にする創造の限界は、すなわち専門の限界となる。セミラティスを意図して構想されたはずのパターンランゲージは、それを活用したコラボレーションを企画する者たちによって、ただのツリーになる。

問題解決策:人工物の設計

サイモンは、アレグザンダーと同じように人間の認識能力の限界を前提としていながらも、あえて自然よりも人為を重視する設計理論展開している。彼の理論では「共通言語」と非「共通言語」の区別は導入されない。彼がむしろ強調して導入している区別は、目的の階層分化だ。この区別を導入した場合、恐らくアレグザンダーのパラドックス解消されるだろう。

サイモンの設計理論は、人工的な事物と現象に関する知識を体系化する「人工科学(artificial science)」を土台としている。人工科学は、自然科学と対照的な位置付けにある。自然科学は、自然事物と現象についての知識の体系だ。一方、人工科学が取り扱う人工的な事物や現象というのは、単に工学的に開発されたツールに限らず、経済組織人間心理、工学、社会計画などが含まれる。サイモンは、設計を技術教育における一つの専門分野として捉えていない。むしろ設計、およそデザインと呼ばれているものは、人間についての固有の研究領域なのであって、あらゆる教養人にとっての中心的な学問の一つとして位置付けられる。

人工科学主題となるのは、我々自身の思考、判断、意思決定選択、そして創造の過程だ。自然科学とは異なり、人工科学人為が介在する過程と結果を問う。サイモンによれば、人工物は、ある目的の達成のために設計されている。その目的を達成するための手段が如何にして可能になるのかが、設計段階で分析される。無論場合によっては、所与の手段もあり得るだろう。だがアーキテクトは既知の手段とは別様にもあり得る代替案もヒューリスティックに探索する。だからこそ人工物の設計では、アーキテクトやソフトウェア・エンジニアを含めた人間思考、判断、意思決定選択、そして創造の過程が問題となるのだ。

サイモンの設計理論は、設計を専門の特権として封じ固める類の理論ではない。むしろサイモンは、誰もが設計者になり得ることを示唆している。現状をより好ましい状態に変えようとする者は、誰でも設計活動を実践しているとサイモンは述べている。人工物を生み出す知的活動は、病人のために薬剤を処方する活動や会社のために新規の販売計画を立案する活動と何ら変わりは無い。

限定合理性を前提としたサイモンの設計理論は、最適化の戦略ではない。むしろサイモンの設計は「満足化(Satisficing)」の処方と言える。最適化は、あらゆる可能選択肢の中から最も適した選択肢を選択することを意味する。一方で満足化は、あらゆる可能選択肢を吟味するのではない。一定の目標水準を定めて、その目標水準を達成し得るのならば、そこで代替案の探索を中止して構わないと発想する。

設計者が代替案の探索を中止しても構わないか否かを判断する尺度の一つとして利用できるのは、既存の人工物だ。例えばJavaScriptでアコーディオンを設計したいのならば、jQueryのライブラリを利用することによって、満足のいく開発ができるようになるだろう。こうしたjQueryのような人工物は、jQueryを利用して設計された新しい人工物にとって、自身の内部と外部の接面に位置する「インターフェイス(interface)」として機能している。そして忘れてはならないのは、こうしたjQueryのような既存の人工物も、以前他の設計者たちによって設計されていたということだ。サイモンと共に設計活動そのものも一つの意思決定と捉えるのならば、インターフェイスとしての人工物を設計する活動は以後の設計における「不確実性の吸収」として機能することがわかる。

サイモンによれば、人間の知的側面における活動自体は単純であるという。その行動が複雑を生み出すのは、主に人間が環境の複雑を対処しているためである。人間の行動に伴う複雑の大部分は、環境複雑に曝されながらより優れた設計を探索する努力から生じてくる。

このこともまた、ソフトウェア工学に直結している。インターフェイスとしての人工物を設計する者ならば特に、以後のアーキテクトやソフトウェア・エンジニアをはじめとした人間の活動から不確実性を吸収している。不確実性を吸収するということは、不確実性を自身の内部で抱え込むということだ。そのために、自己自身の不確実性を増大させて、結果的に複雑な行動を余儀無くされる。

「共通言語」のマッチポンプ

アレグザンダーの「パターンランゲージ」に由来する「デザインパターン」をはじめとした諸々の「共通言語」は、それ自体「非共通」であるというパラドックスを招いている。パラドックスは、原理的に解決可能であるからこそパラドックスと呼ばれている。しかし、そうであるにも拘らず、この問題は無害化され、不可視化され、解消されている。だからこそ、「デザインパターン」などのような似非の「共通言語」は、<反事実的>に、「規範」であるかのように受容され続けているのだ。

このパラドックス解決されずに解消され続けている状況は、言わば別のあり方でもあり得る問題設定を指し示す社会システムの絶え間無い問題隠蔽によって構成されている。このことはサイモンの組織論によってより明瞭に映ってくる。

満足化で代替案の探索を中止して構わないと述べた場合、満足するか否かを決定するのは目的の達成度となる。サイモンがこの満足化という概念を論じる際に念頭に置いているのは、企業をはじめとした専門組織だ。そしてサイモンの組織においては、組織が階層的に分化するのは目的が階層別に分類されるためだということになる。

限定合理性の状況下に置かれている人間には、大きな問題を一度に全て解決することができない。複雑な問題を解決するには、問題に対して区別を導入することで、問題を把握できるようにする必要がある。組織の目的は複雑で巨大な問題だ。故にその目的を中間的な目的や比較的小規模な目的に分類することが先決となる。そして、そうして区別された問題の解決を目的化した担当の構成員を配置していくことで、問題解決を専門職化していくのだ。これを前提とすれば、目的の階層分化によって、組織の階層分化が派生する。

これを前提とすれば、デザインパターン、スタイル、イディオムアーキテクチャパターン、フレームワークなどといった諸々の「共通言語」が<反事実的>な「規範」として社会的に受容され続けているのは、組織システム意思決定による「不確実性の吸収」によって可能になっていると推理して良いだろう。確かに組織の階層分化を見据えるなら、そうした似非の「共通言語」は階層の上部から下される意思決定となる。だがこの話には、実は階層の上下はさほど関係無い。何故なら、現状をより良く変えようと努めるのならば誰であれ設計者であるためだ。そして、目的達成において満足化することで一先ず良しとするというのは、限定合理性がある以上、如何なる設計者にも付き纏う条件付けだ。

元々「共通言語」はそれ自体「非共通」であるが故に量産されてきた。「共通言語」は膨大に溢れ返っている。故に、全てを吟味して、特定の「共通言語」を選択することの負担は過剰であると言える。それは限定合理性に抵触する。

これに対して、専門や識者がある特定の「共通言語」のみを選択するべきであると意思決定した場合、たとえ一時的であれ、それが「不確実性の吸収」として機能してくれる。その「共通言語」に関する意思決定に従う「エンドユーザー」であれば、たとえ一時的であれ、特定の「共通言語」を選択することの負担から免除される。

しかしながら、「共通言語」に関する意思決定を下す専門や識者、組織システムは、膨大に遍在している。現状を良くしようとするなら、誰もが設計者だ。だから、特定の「共通言語」に関する意思決定もそれ自体膨大となる。この事態は<共通言語の非共通化>を促進することになる。

総じて、フレームワーク、デザインパターン、スタイル、イディオムアーキテクチャパターンなどといった諸々の「共通言語」が<反事実的>な「規範」として社会的に受容され続けているのは、一つのマッチポンプとして、循環しているためであると言える。様々な「共通言語」が過剰に存在している状態が「共通言語」の意思決定を必要とし、様々な「共通言語」の意思決定が「共通言語」の過剰を助長する。この循環は、限定合理性と「不確実性の吸収」がある以上、解決可能で、まさにパラドックスとして結実している。

問題解決策:ハッカー倫理

共通言語」のマッチポンプを脱パラドックス化するには、専門組織や専門の専門言語への盲目的な追従を否定する観点が有用となる。この関連から利のある情報を提供してくれているのは、いわゆる「ハッカー倫理(Hacker Ethic)」に基づいた「対抗文化(Counter Culture)」の「社会運動(Social movement)」の事例である。この倫理は、機能する問題解決策の一つとして例示できる。しかし、スティーブン・レヴィがHackers: Heroes of the Computer Revolutionで整理しているように、真正のハッカー文化そのものは、近代社会の社会構造との関連から既に無常にも消滅してしまっている。「ハッカー倫理」を機能的再利用する場合、ハッカー文化無常なる消滅が如何にして成立可能になったのかを確認しておかなければならない。それは、「対抗文化(Counter Culture)」の「社会運動(Social movement)」が直面してきた典型的な問題に向き合わなければならなくなるということでもある。その上で、ハッカー倫理とその機能的等価物に対する比較観点を切り拓くことが求められる。

ここで取り上げるべき派生問題とは、ハッカー文化無常化という問題である。レヴィの歴史分析を前提とするなら、真正のハッカー文化は既に消滅している。今ここからハッカー文化を復刻させようとすれば、かつてのハッカーたちが直面してきた諸問題をも甦らせることになるだろう。ハッカー文化無常にも消滅せざるを得ない理由は、社会システムにある。実際、ハッカー倫理は近代社会の社会構造と相反する内実を示している。以下ではこのことを、ハッカー倫理意味論社会構造の関連を記述することにより明確にしていく。

ハッカー倫理の意味論

レヴィによれば、ハッカー倫理の思想は次のように表現される。

コンピュータへの接続――そして、如何にして世界が動作しているのかを教えてくれるものへの接続は、無制限かつ全体的でなければならない。」
Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc., p23.

情報は自由でなければならない。」
Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc.,p24.

権威を信じるな。脱中央集権化を促進せよ。」
Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc., p25.

ハッカーはそのハッキングによって判断されなければならない。肩書き、年齢、人種、地位のような偽証の基準によって判断されてはならない。」
Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc., p26.

コンピュータ芸術を生み出すことができる。」
Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc., p26.

コンピュータ人生をより良きものに変えられる。」
Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc., p28.

ハッカーたちにとって、コンピュータは誰もが利用できるツールとして開かれていなければならない。専門組織や専門が独占するツールであってはならないのである。このことは情報についても言える。ハッカーは、情報を秘匿にすることを良しとしない。あらゆる情報は接続可能で参照可能でなければならない。ハッカーは、情報を積極的に開示することの有用を主張するのである。これに対して、中央集権的な権威は、ツールの独占や情報の秘密主義を助長してしまう。国家であれ、企業であれ、官僚主義的な構造形成する組織には、ハッカーたちと価値を共有することができない。そうした権威主義に対するハッカーたちの姿勢は、極めて実力主義的だ。ハッカーたちは、学歴や資格や免許のような肩書きで評価されることよりも、ハッキングの腕そのものによって評価されることを期待している。

ヒッピーの対抗文化

こうしてると、ハッカー倫理は近代社会の社会構造矛盾した関係にあることがわかる。事実ハッカーたちは、産業構造対する関係を築いていた。その思想的背景として挙げられるのは、1960年代の時点で既に勃発していたヒッピーたちの運動だ。ハッカーに思想的な影響を与えたヒッピーたちの歴史は、「対抗文化(counter culture)」の歴史である。字義通りに言えば、「ヒッピー(Hippie)」という言葉は、「ヒップスターの雛」という意味を持つ。その意味は、黒人の真似をした1950年代のヒップスターに由来している。ヒッピーたちの活動の直接的な契機となったのは、「正義無きベトナム戦争」に対する反対運動である。それは愛と平和を訴え、徴兵や派兵に反発した若者たちの社会運動であった。

自然に回帰せよ(Back to nature)」というモットーに象徴されるように、彼ら彼女らが重視したのは、自然の中で自由に生きる生活様式である。ヒッピーたちは伝統的な価値や制度を積極的に否定することで、魂の解放を訴えた。中でも1960年代から1970年代のヒッピーたちは、マリファナやLSD(Lysergic Acid Diethylamide)をはじめとした薬物によって「悟り」を開こうとした。とりわけLSDは服用者の「自我の崩壊(collapse of ego)」を伴わせる。服用者はしばしば「幻覚(hallucinations)」を見ることになる。ヒッピーたちの間では、その精神状態は一般に「サイケデリックな(psychedelic)」情態として知られている。我々の主題との関連で言えば、LSDは言わば変性意識状態トランス状態を発動させるための薬物なのだ。

こうした対抗文化を思想的な背景とするハッカーたちは、近代社会の社会構造を簡単には信頼しなかった。ハッカー倫理が産業構造の重要な位置付けとなっている専門組織や専門権威や中央集権を否定しているのも、このためである。しかしながら、とりわけ1970年代のハッカーたちの主要な成果である「パーソナル・コンピュータ(Personal Computer)」が市場に投入されて以来、他ならぬハッカーたち自身が、ハッカー倫理に従事することを避け始めるようになった。ハッカーたちとて、完全に「社会(Gesellschaft)」の外部から「社会(Gesellschaft)」と対立していた訳ではない。ハッカーたちにも族があり、生活があった。族も生活も社会システムの内部で構成されている。故に族や生活を守るには、社会構造に従わざるを得なかったのだ。

ハッカー文化の起源

スティーブン・レヴィやエリク・レイモンドと共に、ハッカー文化の起源を辿ってみると、1960年代のマサチューセッツ工科大学(Massachusetts Institute of Technology: MIT)の学生たちの活動まで遡ることができる。1961年、MITが初めてPDP-1を購入すると、MITの学生たちは、このツールでプログラミング・ツールやソフトウェアを開発することになった。彼ら学生たちの自由奔放な性格は、大学の規則や社会の常識と対立することもあった。彼らは情報は自由に入手でき、技術を束縛してはならないという信念を持っていた。いわゆる「オープン・アーキテクチャ(Open Architecture)」の思想がこの時点で芽生えていたのかどうかについては、諸説ある。

いずれにせよハッカーたちの活動は、MITがAdvanced Research Projects Agency Network(ARPANET)を採り入れた1969年を境に、爆発的な影響力を手に入れた。ARPANETは、国防総省の高等計画研究局(Advanced Research Projects Agency: ARPA)のコンピュータ・ネットワークである。それは情報データの転送用として相互に接続された大型コンピュータやワークステーションのネットワーク網としては最も伝統的なツールであった。これが「インターネット(Internet)」の直接的な起源であるとも言われている。核攻撃を受けた後でも、アメリカ軍の通信能力を保持するという目的のために、1950年代に構想され、1960年代後半には構築されていた。そのネットワークにおいては、約6万台のコンピュータノードが接続されている。更には国内に限らず世界中のネットワークにも接続されている。ほとんどの大学、研究所、国防企業、軍事施設、政府の各部局が、ARPANETで接続されているのだ。このシステム特徴は、その脱中心性にある。それはあらゆるノードがあらゆるノードと接続されている。あるポイントであるノードにアクセスするということは、システムの全体にアクセスすることに他ならない。

こうしたアクセサビリティから、あらゆる情報やツールへの自由な参照や利活用を推奨するハッカー倫理が結実していくのは、想像に難くない。そして脱中心化されたネットワークに習熟しているハッカーたちの眼には、近代社会習熟している中央集権的で権威主義的な社会構造否定的に映ったとしても、不思議ではないだろう。

コンヴィヴィアル・ツール

ARPANETはハッカーたちの協働を後押しした。しかし当時のコンピュータを利用できる人間は限られていた。こうしたコンピュータは、国家やIBMをはじめとした専門組織だけが利用する専門の道具として認識されていた。そこには、一般市民が所有できるツールという発想は無い。そこで、早くからコンピュータの魅力に気付いていたハッカーたちは、コンピュータ専門組織によって独占されている状況に異議を唱え始めた。ここから、1970年代のハッカー文化象徴する出来事が生み出される。

今でこそコンピュータは、一般市民でも活用し得るツールとなっている。コンピュータが専門にしか利用できないと考える必然性は何も無い。だが当時、それは自明視されていた。だとすると、この自明如何にして覆されたのかが気になるところとなる。

リー・フェルゼンシュタインのようなハッカーたちを観察するなら、コンピュータ一般普及を目指したハッカーたちの思想的な背景として、文明評論のイヴァン・イリイチの存在が大きかったと言えるだろう。当時フェルゼンシュタインは、シリコンバレーで結成されたコンピュータの愛好集団であるホームブリュー・コンピュータ・クラブ(Homebrew Computer Club)を率いていた。彼はこのコミュニティの指揮を執ることで、パーソナル・コンピュータの設計を方向付けた。パーソナル・コンピュータはまさに大衆のためのツールとしてのコンピュータだ。それは専門組織による独占を否定する。

パーソナル・コンピュータ主題とした議論に加わる際、フェルゼンシュタインの脳裏に浮かんでいたのは、いつ産業構造が瓦解しても不思議ではないという憂鬱気質とも言える心象であった。この近代社会を代表する専門組織コンピュータを独占している状況は、彼にとって危機であった。しかしながら一方で、この危機感は単なる漠然とした不安ではなかった。フェルゼンシュタインの産業構造に対する認識はある理論武装に基づいている。と言うのも、コンピュータ専門組織に独占されている状況は、イリイチが丁度70年代の産業構造に対して指摘していた「価値の制度化(institutionalization of values)」という事態として説明できるのだ。

価値の制度化とは、過程と結果の混同を招く事態を指す。イリイチがこの現象を説明するために例示したのは、学校教育である。学校は、学生が学ぶために制度化されている。学ぶことが目的であるとすれば、教育はその過程である。その過程は絶対的な経路ではない。学ぶだけであれば、自宅学習や独学などという選択肢もあり得るはずだ。だが、学校制度が過度に期待されている状況では、自宅学習や独学などのように、個人で努力することの必要が実感し難くなる。個人は制度に依存することで学んだかのような錯覚に浸ることが可能になるからだ。学生は進級するだけで教育を受けたと錯覚するようになる。成人さえ、学歴や資格や免許を得るだけで能力があると思い込むようになる。こうして人々は、まるで最終目的を達成したかの如く、教育を受けるだけで満足するようになる。学びという本来の目的は度外視されるのだ。

学校化

イリイチが価値の制度化を問題視するのは、理由の無いことではない。制度を自明視している者たちは、制度とは無縁の能力を過小評価するようになる。そして制度に依存している者たちは、自的で自発的な学びを実践する能力を衰退させてしまう。

これはイリイチが「学校化(schooling)」と呼ぶ事態に直結している。学校が制度化する「学歴」、「資格」、「免許」のような形式は、専門の「希少価値」を高めるために機能する。通常これらの形式は、選抜された人間にしか与えられない。高学歴のエリートや教授の資格を有した御用学者たちの発言が注目を集めるのは、彼らが一般市民には持ち得ない珍しい知識や技能を有していると期待されているためなのである。

しかし、こうして制度が専門の「希少価値」を高めると、逆にこれらの形式を有さない一般市民の知識や技能が矮小化されることになる。「ブログ」や「ウィキペディア」よりも専門の論文の方が正しいと見做されるのは、そのためだ。政府や東京電力の記者会見で開示された情報が公的な知識として正統化される一方で、電子掲示板や質問サイトに書き込まれる情報は「風評被害」を巻き起こす噂話として扱われる有り様である。

こうして専門の「希少価値」が一般化すると、人は専門が説明する情報知識を享受することばかりに気を取られるようになる。自ら技能を開発することよりも、専門が認める技能を追い求めることの方が、重要になってくる。その結果我々は、自ら知識や技能を生み出すことを放棄するようになる。つまり我々は、自発的で自的な「学び」を実践する意欲を失うと共に、専門から「教育されること」を欲するようになる訳だ。

コンヴィヴィアルな社会のためのツール

イリイチがこの価値の制度化に対して提示した打開策は、「コンヴィヴィアル(Convival)な社会」を実現することであった。「コンヴィヴィアリティ(Conviviality)」とは、専門組織や制度とは関わりなく、皆が愉しみ合う自的で共生的な関係を意味する。

この社会を実現する上で鍵となるのは、「ツール(Tool)」である。ツールは、鉛筆のような道具のみならず、学校をはじめとした専門組織も含意する。社会関係を構造化するのがツールなのである。例えば言語や図書館は、本来コンヴィヴィアルだ。こうしたツールは、資金の割当も御用学者も要さない安価なツールである。だが専門組織は、これらを産業的な効率を追求するための「操作的なツール(manipulative tools)」として利用する。それ故イリイチは、コンヴィヴィアルなツールを専門組織から奪還することが必要であると主張したのである。

このツールの理論を前提とするならば、イリイチの「脱学校論」を急進的な「学校廃止論」や「学校廃絶論」として読み解いてきた教育学者たちの読解が、説得力を失う。彼が否定したのは「学校の存在」や「学校教育制度存在」ではない。彼はあくまで学校制度の「ツールとしての使い方」を批判していたのである。彼の議論は、決して教育現場から遊離した非現実的な急進主義の想なのではない。彼の議論を引き継ぐ者たちは、社会関係を構造化するツールへの着眼を重視しなければならないのである。

コンヴィヴィアル・ツールとしてのコンピュータ

当時のコンピュータは、まさにイリイチが言う通り、IBMをはじめとした専門組織に過剰効率や計画策定のための操作的なツールとして利用されていたのだ。

その一方で、イリイチが提唱したコンヴィヴィアル・ツールという概念は、フェルゼンシュタインのような70年代のハードウェア・ハッカーたちに思想的な影響を与えた。彼らハッカー集団は、反産業主義的で反官僚主義的な倫理を抱きながら、当時IBMが独占していたコンピュータを「大衆のためのツール」として解放しようと奮起した。彼らが自ら開発した小型コンピュータは、「コンピュータは専門にしか使いこなすことができない」という学校化された領域での典型的な固定念を一掃した。コンピュータは、資金の割当も専門も要さない安価なツールとして大衆の下に行き届くことになった。ハッカーたちは、操作的なツールとして利用されていたコンヴィヴィアル・ツールとしてのコンピュータ一般市民に解放したのである。

ハードウェア・ハッカーたちの多くは大学時代にベトナム戦争を目の当たりにしている。1960年代に勃発した反体制運動や反戦運動は、彼らからすればまだ記憶に新しい出来事であった。こうした対抗文化ハッカーたちにも受け継がれていた。だが彼らは、抗議デモや破壊活動のような形で反体制運動を実践した訳ではなかった。彼らにとって、当時のコンピュータを脱中心化して大衆解放することが、反体制運動となったのである。

ハッカーたちが毛嫌いしたのは、コンピュータの利点についての情報がこうした専門組織の制度化によって独占されていた状況である。コンピュータを扱うだけの技能を有していたハッカーたちは、当時既に、コンピュータメディアとした新しいコミュニティの可能性直観していた。フェルゼンシュタインらがタイム・シェア社から寄付されたテレ・ターミナルをコンピュータに接続して開発した「電子掲示板(Bulletin Board System; BBS)」を開発したのも、市民に開かれた情報の共有を可能にするためであった。インテル社が1973年に開発した8ビットマイクロプロセッサとなる「8080」をヒントに個々人で利用できるパーソナル・コンピュータ可能性を見出したのも、コンピュータ大衆のためのツールとして活用するためであった。

祭儀としてのハッカー文化

大衆のためのコンピュータを目指したハッカーたちの営みは、成功を収めたと言える。彼らが開発したミニ・コンピュータ大衆化を果たしたのだ。スティーブ・ジョブズらがApple Computerを人化した1977年には、ヒッピー・スタイルの『ドクター・ドブズ・ジャーナル』の初代編集長として「テクノゴシップ」の情報屋を名乗っていたジム・ウォーレンらの働き掛けによって、第1回ウェスト・コースト・コンピュータ・フェア(West Coast Computer Faire: WCCF)が開催された。ハッカーのみならず、それまでコンピュータとは縁が無かった市民からも、このコンピュータ・フェアは注目を集めた。

ハイパーテクストを創案したことで知られるテッド・ネルソンは、このコンピュータ・フェアでIBMに対するハッカー文化の勝利を高らかと宣言したことでも有名だ。小さなコンピュータが電話や車と同様に抜本的な変化を起こすことを予言した。ツールを造るツールを造ることが流行となり、「祭儀(cult)」となり、消費市場へと参入していく。コンピュータが新世界展開していく。ネルソンはそう確信していた。

派生問題:金融市場の社会構造とハッカー倫理の意味論

ところが、このハッカー文化のコミュニティは、そう長続きしなかった。ジョブズらによりアップル社が設立されて以来、そのハッカー精神は、市場の競争に圧迫されることになったのである。彼らが生き残るには、情報開示や技術の共有を重視するハッカー倫理よりも、自身が肩入れする企業の秘密主義を優先せざるを得ない。

これに付随して、パーソナル・コンピュータ市場の競争に参入したアップル社をはじめとする企業組織は、遅かれ早かれ官僚制の質を持つことになった。事態は急速に進展した。<資本主義の精神>は、もはや純粋な<ハッカー精神>を置き去りに進展していく。金儲けを無視したハッカーたちは、資金難にしむことになった。その一方で、コモドール社のPET2001に象徴されるように、巨大資本の大企業は、組み立て作業が不要の電製品のようなコンピュータを発売した。市場の生き残りを賭けた競争に巻き込まれたハッカーたちの大半は、手作りでハードウェアを生み出すためのキットよりも、出来上がったコンピュータの工業生産へと方向転換せざるを得なかった。さもなければ、大衆は誰も買わないからだ。需要があるとされたのは、ワープロや会計計算のような仕事に必要な余分な機能のないコンピュータである。ハードウェア・ハッカーたちがそれまで開発していた構造深部に沈潜することの魅力を強調するマシンは、もはや用済みとなった。

だが無論、「ハッカー」という人格形式は消滅した訳ではない。この「ハッカー」という<形式としての人格>の意味論は、経済システム社会構造との関連から変異することとなったのである。1970年代のハードウェア・ハッカーたちの人格対抗文化歴史意味論を前提とした「運動」というシステムによって記述されていたのに対して、1980年代のハッカー人格は、あくまで経済システム法システムの内部に包摂された人格として形式化されていたのだ。

ジョン・ハリスをはじめとする「ゲーム・ハッカー(Game Hacker)」たちの人格は、この典型的な形式として観察されている。1980年代以降、ハッカー人格形式化に貢献したのは、経済システム市場と関連する企業の官僚主義的な組織システムであった。露骨に官僚主義化を推し進めた事例として引き合いに出せるのは、ケン・ウィリアムズ率いるオンライン社であったと言えるだろう。1980年代の当初、ケンはジョン・ハリスをはじめとしたゲーム・ハッカーたちを手厚く奨励していた。だがケンは、直ぐにハッカーとは手を切りたいと考え始める。何故なら、真正のハッカー倫理があまりにも市場の競争に不適合であったためだ。ハッカーは官僚制を毛嫌いする。彼らは競争に勝ち残るための企業の秘密主義よりも情報の開示を要求する。それも無料での開示を要求するのだ。しかしこうした思想や価値を抱いていては、事業で利益を得ることなどできない。ハッカー倫理を純粋に受け入れるような企業があるとすれば、その組織は破綻するだろう。

ハッカーたちの対抗文化市場の論理に絡め取られている。今や彼らの文化コンヴィヴィアリティのための運動を見出すのは困難極まりない。本音ではハッカー主義を標榜したいと考えているハッカーたちも、勿論現存するだろう。だが少なからず建前の上では、企業の方針に従わなければならない。さもなければハッカーたちは、社会的に抹殺される。かくして、パーソナル・コンピュータ産業が形成されたことにより、コンヴィヴィアルな社会理念無常化してしまったのである。

しかし、こうした社会構造による摩擦や軋轢が生じても、ハッカー倫理意味論は消滅しなかった。何故なら、他ならぬ「ハッカー」という人格形式が、<資本主義の精神>と<ハッカー精神>の矛盾主題としたコミュニケーションの回帰的なネットワークを構成していたためである。この<矛盾についてのコミュニケーション>は、当初は社会システム免疫システムとしての闘争を引き起こしていた。だがこの主題は次第に機能的問題領域に導入されるようになる。機能システムとしてのが、社会システムの第二の免疫システムとして関与することとなったのである。

実際、1980年代に勃発したゲーム著作権を巡る的な紛争は、まさに<資本主義の精神>と<ハッカー精神>の対立を近代社会の内部に導入する契機となった。それ故、ハッカーたちの的紛争の歴史意味論は、近代社会の内部にハッカー倫理を導入することが如何にして可能になるのかを考証する上で、有力な手掛かりを提供していることがわかる。

問題解決策:1980年代におけるゲーム・ハッカーたちの著作権紛争

ジョン・ハリスは1980年代のゲーム・ハッカーを代表する中心的な人物であった。彼は自身の作品が周囲から創造的な産物として認められたことを誇りに思った。しかしジョンをはじめとした優秀なハッカーたちでも、ハッキングが人生の全てという訳ではなかった。とりわけジョンはガール・フレンドが欲しかったのである。

ケン・ウィリアムズはハッカーたちのこうした悩みに真剣に向き合った。ジョンが幸せになれば、ヒットするゲームを製作してくれるだろう。そう考えたケンは、ジョンが抱える問題を解決しようとした。スティーブン・レヴィによれば、ジョンのガール・フレンドを見付けることが、ケンが率いるオンライン社の非公式の目標になっていたという。だがそれは並大抵のことではなかった。ジョンには女運が無かったのである。

このジョンの問題が言い表しているのは、この頃のハッカーたちがハッキングそれ自体の魅力だけではなく近代社会における人並みの幸せにも魅了されていたということである。オンライン社のように、コンピュータゲーム市場に参加している組織システムに属したハッカーたちは、もはやハッカー倫理とは程遠い売り上げの数値だけを追求するようになったのだ。

「パックマン騒動」

1970年代のハードウェア・ハッカーたちが求めた自由なコミュニケーションは、官僚主義的な国家、産業主義的な企業、そして権威主義的な組織コミュニケーション矛盾する対立関係を形成していた。それ故にハッカーたちの運動は、社会システム免疫システムとしての闘争を勃発させていた。しかしながら1980年代以降のハッカー文化においては、競合の相手が移り変わることになる。1970年代の「運動」というシステムとして構成されていた対抗文化とは異なり、1980年代のハッカー文化は、あくまで近代社会の内部における闘争という形を取ったのである。この近代社会の内部における闘争は、機能的な分化という社会構造を前提としているために、各種の機能システム機能的問題領域でも主題化されることとなった。それ故にハッカーたちの闘争は、単なる「運動」ではなく、社会システムの第二の免疫システムでもある法システムとの関連も強めることとなる。つまり闘争形式が、的な紛争になったのである。

ゲーム・ハッカーの中心人物であるジョン・ハリスによって引き起こされた「パックマン騒動」は、この的な紛争の一例である。ジョンは1970年代のハードウェア・ハッカーたちの活躍によって普及されたパーソナル・コンピュータを使いながら育った。彼もまた生粋のハッカーであった。だが彼は社会的には落ちこぼれであったという。彼の父親はハッキングの良さを理解しなかった。それどころか父はジョンをから事実上放り出したという。そうした庭事情を持つジョンには、フェルゼンシュタインのように仲間に恵まれることもなかった。恋愛も中々上手には進展しなかったという。

それでもジョンはハックを続けた。当時彼はアタリ・コンピュータのユーザー団体に入り、プログラムを改良して配布するというハッカー的な活動を展開していた。彼が開発したゲーム市場で売りたいと言った者が現われても、彼は快く了承した。1981年にサンフランシスコで開催されたコンピュータ・フェアでも、彼はアタリ社における最高峰のプログラマの一人であるクリス・クロフォードのプログラミング・セミナーに参加して、説明上手なクロフォードに感銘を受けたという。

だがアップル社に対抗するアタリ社によって開発されたアタリ800は、ハッカー倫理に反して閉鎖的なシステムであった。と言うのも、アタリ800には既存のアセンブラリ言語の技能を適用させることができなかったからだ。スティーブン・レヴィによれば、アタリ800のマニュアルは複雑怪奇でよくわからなかったという。ジョンは己のハッカー精神に則りアタリ800について色々と電話で訊ねた。だがアタリ社は彼の相手をしなかった。

アップル・コンピュータ用のゲームを開発することで大儲けしたケン・ウィリアムズは、この頃から既にジョンの若き才能に目を付けていた。彼はベテランだけが有能ではないと言うことをよく心得ていた。あくまでアタリのコンピュータで設計に着手しようとしたジョンに、ケンはアタリ・コンピュータプログラムを造るようにと依頼した。ケン・ウィリアムズは財力にものを言わせ、ジョンをエスコートした。飛行機の切符を買ってやり、空港までジョンを迎えに行き、ジョンの住む場所まで手配した。そしてケンはジョンに自由に働いて良いということを承認した。

ジョンがケンの下に持ち掛けた最初の企画は、『パックマン』に酷似したゲームをアタリ・コンピュータで複製するというものであった。スティーブン・レヴィも評価するように、これは優れてハッカー的な提案である。機能する有用なプログラムや面白いプログラムをあるコンピュータ用のものから別のコンピュータ用のものへと書き換えるのは、ハッカーが讃える精神の一つなのである。アップルでは既にパックマンのようなゲームの企画が成立していたのだが、ケンの裁量によって、ジョンの提案が採用されることになった。ジョンはその後ハッキングに没入した。彼のスタイルは即興を重視することだ。彼は思い付くがままに次々とプログラムを打ち込んでいった。

創造的な模倣

スティーブン・レヴィによれば、ジョンのパックマン型ゲームは、創造的な模倣発展を示す好例であるという。プログラマは、既存のツールの機能を遥かに凌ぐ新しいツールを開発していくのだ。しかしジョンが自信を持ってこのゲームをケンの目の前で展示した時、一つの問題が生じた。コイン投入式アーケード・ゲームを無許可でホーム・コンピュータ用に書き換えるのは著作権違法であると主張する企業が出現したからだ。

ケンはジョンが設計したパックマン型ゲームがあまりにも本物に酷似し過ぎていたために、売ることを躊躇した。彼は最終的に売るべきではないと判断してしまった。『ジョーブレイカ―』と命名されたこのゲームを非難したのは、とりわけアタリ社であった。と言うのもアタリ社は、『パックマン』に多大な資金を提供していたからである。ケンはアタリ社との対関係を形成することを避けようとしていたのだ。

形式としての著作権

市場の売上を重視する官僚的な支配が、ハッカー倫理に取って代わる。ジョンはまさにその只中にいた。後にアタリ社は自ら資金を注ぎ込んだ『パックマン』を改良するのではなく、事もあろうにジョンの『ジョーブレイカ―』の使用権を購入するという手段に躍り出た。これはハッカー倫理から懸け離れた「実社会」の企業戦略であった。しかしジョンはそうしたアタリ社には応じず、そのゲーム市場で展示した。そしてそのゲームはやがてベストセラーとなった。アタリ社は即座に圧力を掛けてくる。ケンは狼狽えた。ジョンのゲームを巡り、アップル社とアタリ社との間に矛盾した対立関係が形成された。つまり免疫システムとしての闘争が勃発したのだ。そこに免疫システムとしての法システム介入してくる。その大義名分となったのは「著作権」である。つまり『ジョーブレイカ―』が『パックマン』の著作権を侵害している可能性主題化されたのである。

ここまで来れば、既にジョンたちのコミュニケーションが「運動」というシステム構成していないことが明確となる。彼らのコミュニケーション背景にあるのは、近代社会の社会構造に対立する主題を貯蔵させた対抗文化ではない。その背景にあるのは著作権という的な主題を貯蔵させた近代社会の内部における意味論である。廷でのジョンは、いつもの調子でゲームを語ることができなかった。彼にできたのは、プログラミングなど何も知らない弁護士たちを相手に動揺しながら応答するだけであった。コンピュータの中にある真理は、ここでは何の価値も無い。ましてやコンヴィヴィアリティなど、主題化されるには程遠かった。ジョンのハッカー精神は、裁判という組織システムによる価値の制度化に屈したのだ。

問題解決策:1990年代における金融ハッカーたちのアルゴリズム戦争

近代社会の内部の論理に絡め取られたハッカーたちの精神は、しかし1990年以降も消滅した訳ではなかった。確かに近代社会資本主義の精神は、ハッカー精神を駆逐したかのように視えるかもしれない。だが<ハッカー精神>と<資本主義の精神>の区別は、<資本主義の精神>の側に再導入(re-entry)されることになる。このことは、市場の論理にむしろ適応しているハッカーたちの人格観察すれば、よくわかることである。

金融市場社会構造を前提とした「取引(Trade)」の意味論は、金融ハッカーたちが開発した「アルゴリズム(algorithm)」によって激変することとなった。いわゆる「アルゴリズム取引(Algorithm Trade)」は、ジョシュア・レヴィンを筆頭とする金融ハッカーたちが市場に放ったボット(bot)たちによる高速の取引可能にしている。

「情報は自由でなければならない」

金融市場の1980年代は、まだ株式の売買が仲介役のマーケットメイカー(Market Maker)を通じて実施されていた時代であった。仲介人が取引手数料を掠め取ることを忌み嫌っていたジョシュア・レヴィンは、そのハッキングの型破りな技術力を駆使して、米国の証券市場を激変させた。コンピュータ取引システムの「ウォッチャー(Watcher)」、アルゴリズム取引の原型である「モンスターキー(Monster Key)」、そして電子取引ネットワークの「アイランド(Island)」を創設したのは、全てレヴィンただ一人である。

レヴィンは「情報は自由でなければならない(Information wants to be free.)」というハッカー精神を旗印に、コンピュータを介して世界を変革することを目指した天才ハッカーの一人であった。彼は金融市場アーキテクチャに関する技術的な情報蒐集しながら、革命的な未来像を叙述していた。彼の参照問題は、コンピュータ制御下ならば市場はどのように機能し得るのかではない。如何にして機能すべきなのかこそが、彼の主題なのであった。

当時の金融市場社会構造は、「情報は自由でなければならない」というハッカー倫理とは相反する状況にあった。マーケットメイカーたちは、むしろ株式に関する情報を不自由にしている。レヴィンにとって、マーケットメイカーが取引手数料による利益を得るのは、不当な犯行為であった。実際、後の米国証券取引委員会では、この行為は犯として認定されている。

レヴィンの問題意識は、単に利権団体の社会構造に向けられていた訳ではない。実際、そうした組織存在は、「情報は自由でなければならない」というハッカー倫理を実現させていく上では枷でしかなかった。トレーダーが電話で注文するために右往左往し、取引のメモ用紙に数字が走り書きされていくのをて、レヴィンはそれが無意味で旧いデータの通信に過ぎないことを直観的に認識していた。そうした旧いデータは、しばしばデータですらなく、単なる無用なノイズでもあった。

この観点から彼は、株式取引に関する全ての情報データコンピュータを介して流れていく市場を思い描いた。コンピュータがあれば、買い手と売り手のマッチングに仲介人は不要となる。トレーダーたちは、取引したいどの株についても、その価格をはじめとした情報を簡単に画面上で検索することが可能になる。わざわざ取引所の人間に確認を取らずとも、取引可能な株やその株価が直ぐにわかるのである。

ウォール街の逸脱者たち

レヴィンの発想は、投資家に仲介人を迂回させることで、投資家同士を直接的に取引させるということであった。価格が下がれば売りと買いの注文を自動的に突き合せられるプログラムを設計すれば、もはや仲介人は不要となる。人間が仲介する必要が無くなるのだ。だがこの発想が現実化すれば、ウォール街から<ウォール街それ自体>を締め出すことになる。それが他ならぬウォール街から肯定されるはずもない。レヴィンのこの提案を受けたウォール街の大物たちは、彼の発想を狂気の沙汰であると断定した。

しかしウォール街の全ての人間がレヴィンを否定した訳ではない。シェルドン・マシュラーのようなウォール街の逸脱者(Outsider)たちにとって、レヴィンの技術力はむしろ有用であった。マシュラーはデイテック証券でSOESという小口注文自動執行システム株価変更表示の一瞬の遅延を的な抜け穴として不正利用することで、マーケットメイカーから利益を掠め取っていた。その荒々しい方法から、彼はウォール街全体をに回していたのである。SOESを使いこなす上で、マシュラーはレヴィンの技術力が有用であると考えていた。合法違法かという的なコミュニケーションは、ここでは問題とはならない。レヴィンはマシュラーの期待に応じて、「ウォッチャー」というシステムを実装した。それはマーケットメイカーが知り得なかった情報コンピュータの画面に表示することで、注文を即座に執行することを可能にする。

ウォッチャーはデイテック社のトレーダーのみならず、SOESを利用するデイトレーダーたちにも幅広く普及した。これにより、不自由で不公平なナスダックのマーケットメイカーたちの利権は弱体化することとなった。そしてレヴィンは追い打ちを掛けるかのように、「アイランド」を設計する。それは価格のマッチングをはじめとしたマーケットメイカーの役割を完全に自動化した電子取引市場である。この取引市場では、マーケットメイカーによる不当な搾取など起こり様もない。株取引に関する全ての情報コンピュータに公開される。投資家たちは、それぞれ自由かつ公平に、速く安い価格で株を売買できる。アイランドはハッカー倫理を体現した電子取引所として現実化したのである。

アイランドのアーキテクチャは、最先端のデータセンターと最高級のハードウェアで構築されることで、ナスダックのシステム以上の能を発揮した。レヴィンはこの時代で既に分散コンピューティングを実装することで、サーバの冗長化を実現していた。この負荷分散により、注文の高速処理が可能になった。こうしたアーキテクチャを設計して実装したのは、レヴィンが率いるチームではない。驚くべきことに、レヴィンただ一人が、このアーキテクチャの設計と実装を成し遂げたのである。

しかしレヴィン自身は、自身が所属する企業で一切の役職も持たなかった。彼を気遣った経営層から「取締役副社長」という肩書を付与されたこともあったが、彼自身は肩書をむしろ拒否していた。彼には人間を管理する動機が無かった。彼は唯自分のやりたいことだけをやっていただけだ。レヴィンが求めているのは、金でもなければ地位でもない。名誉や社会的な承認などでもない。彼は一貫して「情報は自由でなければならない」を体現し続けていたのである。

ボットの発現

尤も、アイランドの社会的な影響力が高まると、それに連れて企業の規模とアイランドへの要求水準も跳ね上がることになる。やがてレヴィン一人の開発リソースではアイランドの保守は困難となった。そのためデイテック社は、この関連から経営体制やプログラマの開発体制を一新しようとした。だがこの「一新」には、幾つかの「膿出し」が伴った。と言うのも、もともと周囲から目を付けられていたマシュラーやその部下たちの違法取引が、この過程で問題視されたためである。

こうした組織システム構造変異を経て、レヴィンのハッカー精神は次の段階へと突入した。レヴィンらの次なる一手は、世界初となる「メイカー/テイカー(Maker/Taker)」のモデルをアイランドのアーキテクチャ上に実装することであった。このモデルでは、注文の主から手数料を徴収するだけではなく、市場に流動をもたらす注文の主には報酬金を支払うことになる。これにより、電子取引市場の流動を高める取引にインセンティブを与えようとした訳だ。

しかしながら、この一手は諸刃の剣となった。と言うのも、流動に対する報酬という制度は、<安く買って高く売ること>と<高く売って安く買い戻すこと>以外の第三の道として成立することで、レヴィン自身が毛嫌いしていた中間搾取の余地を与えてしまったからだ。しかもこのオープンスペースに食い込んできたのは、人間の仲介人ではなく、「高頻度取引(High-Frequency Trading: HFT)」のアルゴリズムとして実装されたボットである。レヴィンはこの制度が怪物を生み出したことを痛感し、後悔したという。

「人間」不在の金融市場

金融市場に自由と公平をもたらすことを理念としていたレヴィンのアーキテクチャは、マーケットメイカーを駆逐する代償として、HFT業者によるボットの参入を促進することとなった。この意味で、レヴィンの理念極端に達成されたのだと考えられる。ウォッチャーやアイランドのようなアーキテクチャは、ウォール街の仲介人を締め出すはずであった。だが彼ら仲介人だけに留まらず、これらのアーキテクチャは、「人間」それ自体を経済的なコミュニケーションから締め出したのである。結果的に、今や金融市場は、高速のアルゴリズムによって駆動するボット同士が、「人間」を無視したまま、株取引を巡る競争を展開することとなる。「人間」はもはや、このコミュニケーションシステム外部環境に位置付けられることとなる。

能のサーバ、高速のネットワーク通信、大規模ハードウェアのようなアーキテクチャを前提として、より速く優秀なアルゴリズムが搭載されたボットたちが、「人間」の投資家や仲介人から利益を搾取していく。アルゴリズムは他のアルゴリズムを触発することで、注文が市場電光石火速度で飛び込む。このボットたちの振る舞いは、その計算機ならではの速度を抜きにしてれば、他ならぬレヴィン自身が忌み嫌っていたマーケットメイカー以外の何物でもない。アイランドのようなアーキテクチャ上でプレイするボットかられば、市場は確かに自由で公平かもしれない。だが「人間」にはその実感は得られない。これは天才レヴィンの頭脳でも予測し得ない皮肉であった。

そして、米国証券取引委員会は遂に、証券不正取引観点からデイテック社を告発するに至る。レヴィンはデイテック社を離れざるを得なくなったものの、彼のハッカー精神が衰えることはなかった。しかし米国証券取引委員会に罰せられた経歴は、彼の大きな障害になっていた。彼は幾つかの新しいアーキテクチャを設計することによって、コンピュータを利用した新たな革命を起こすことを目指したが、それがサービスとして実装される機会はついぞ訪れなかった。

問題解決策:2000年代におけるビッグデータ時代の個人情報保護法の意味論

金融市場において、「情報は自由でなければならない」をはじめとしたハッカー倫理は、「未解決問題(Cold case)」を残した。米国証券取引委員会は単なる的なコミュニケーション展開したに過ぎない。法システムは一部の取引関係者に的な罰則を与えただけであって、ボットたちのアルゴリズムによる「人間不在の競争を制圧した訳ではなかった。むしろボットたちの経済的なコミュニケーションは、金融市場を舞台としたアルゴリズム戦争として構成されている。

人間」のトレーダー人格のように学習し、予測し、適応することができるアルゴリズムにとって、金融市場はもともと扱い難い存在であった。その理由は、金融市場は「人間」の影響下で展開されているためである。「人間」が複雑な生態系を展開する限り、金融市場アルゴリズムで駆動するボットたちとは馴染み難い環境であった。専門やマーケットメイカーの行動は、少なからず当時の情勢では、予測が困難であった。売買注文は可変である。取引には間違いが伴う。精確なコマンドで実行されるコンピュータ制御されたボットにとって、「人間」が関与する金融市場複合性が高かった。

しかしハッカー倫理に基づいた金融市場の変革は、この「人間存在の問題を一掃することとなる。アルゴリズム同士が直接的に競争する新しいプールは、コンピュータアーキテクチャが主導するプールに他ならない。ボットたちは、このアーキテクチャの環境でそれ固有の論理の生態系を発展させることで、自らを進化させることができるようになった。とりわけ2000年代前半になると、ビッグデータデータ分析技術が金融市場にも応用されるようになる。それまでは既知のパターン学習する静的なモデルに過ぎなかったボットたちであっても、ビッグデータ学習する機械学習アルゴリズムとしての機能を手にすることで、未知なるパターン発見探索することも可能になる。

2000年代前半はビッグデータの分析基盤となる技術は加速的な発展を遂げた時代である。コンピュータ分散型ネットワークで容量を利用し合うクラウド・コンピューティングは、一つ一つの企業に爆発的なデータ分析能力を与えた。クラウドサーバは独自のサーバファーム(Server farm)を構築した場合よりも遥かに低い費用で運用することができる。

データサイエンスもまた、この時代に大きな進展を見せている。同時代の自然言語処理やベイズ統計に基づいた学習アルゴリズム理論は、ビッグデータから利益抽出する経営戦略に現実味を持たせた。各企業が自らの公式Webサイトを所有するようになれば、投資家を対象としたIRサイトも公開されるようになる。こうした株式に関するWebページを対象にWebクローリングとWebスクレイピングを実行すれば、自然言語処理で認識可能パターン抽出可能になる。こうして設計された「人工知能(Artificial intelligences)」は、ウォール街のアナリストたちの人格機能的等価物として、売買すべき株式銘柄を推論し、投資投機の戦略をレコメンドすることを可能にした。

ビッグデータ時代の個人情報保護法

データサイエンスの分析技術は、分析方法を知る者ならば誰でも利用できるツールだ。しかし、データそのものは誰もが利用できる訳ではない。セキュリティやプライバシーの問題があるために、その類の専門組織の専門たちにしか参照できないデータは山ほどある。

まだビッグデータという概念が登場する前までは、データの価値は蒐集された時点での目的に見合った価値に限定されていた。しかし、ビッグデータの価値は、再利用の価値も含意している。当初は他の目的で蒐集されたデータ同士を結合することによって、双方のデータの相関関係を分析することも可能だ。

一例を挙げよう。例えばAmazonのレビューは匿名化されている。Amazonからレビュワーの個人情報が公開あるいは流出されない限り、レビュワーの個人情報は特定されない。しかしながら、もしもそのレビュワーが実名でアカウントを登録している別のソーシャル・ネットワーキング・サービス(social networking service:SNS)上で、類似した商品を似たようにレビューすれば、Amazonにおけるレビュー内容とそのSNS上におけるレビュー内容とを突き合わせることによって、Amazonのレビュワーが誰なのかを特定できるようになるかもしれない。このレビュワーの個人情報の特定は、無論Amazonが個人情報蒐集する際に目的化していた訳ではない。あくまで相関分析の分析対象データとして再利用した場合に、個人情報が特定される可能性が派生するのである。

このビッグデータ再利用価値を前提とするなら、大抵の国における個人情報保護法は、機能不全に陥る。個人情報蒐集する際にインフォームドコンセント(informed consent)が重視される国の場合であれば、どのような目的でどのデータ蒐集するのかを事前にデータ提供者たる個人に説明することになっている。データ提供者たる個人がそれに同意すれば、データ蒐集が開始される。つまり、正しい情報の提示に基づく合意形成が先決とされるのだ。

しかしながら、それ以降も別の目的で再利用されないなどという保証は無い。確かに合意を求めて情報を提示する時点では、意図されている目的を提起することは不可能ではないはずだ。しかしこう考えるだけでは、ビッグデータ再利用に関する合意形成如何にして可能になるのかがわからない。

まだ閃いてすらいない再利用のアイディアを正しい情報として提示するのは不可能である。まさか再利用する度に、データベースに蓄積されているデータに対応する個々人の一人一人に許可を求めなければならないなどといったコストパフォーマンスい制度に合意する者はいないだろう。むしろ、データ蒐集時や利用時に個別に合意を求めるよりも、データ分析者や蒐集者をはじめとした「データの利用者(User)」に責任を負わせる形式が望ましい。こうすることで、個人情報を利用する際に、その個々人に如何なる影響が及ぶのかを慎重に検討するようになると期待できる。

いずれにしても、ビッグデータとその分析技術には、マーケターやエンジニアたちが「ビッグデータで何ができる?」と揃い踏みで目配せしながら問うくらいには、複合性と不透明偶発性が伴い続けてきた。そうした技術を前提として考えるならば、普遍的妥当性を有した自然法を確立させることよりも、経験的に再記述されていく実定法観察することに注力した方が良い。

ビッグデータのリスク

ビッグデータの分析技術はプライバシーの問題を引き起こすというよりも、その質を変えてしまう。単にプライバシーが侵害されるリスクが高まるのであれば、そのリスクを低減させられるようなを整備すれば良い。だが問題の質が変わるとすれば、法システムは先手を取れなくなる。上述したデータ再利用価値によるプライバシーの侵害という問題は単なる一例に過ぎない。ビッグデータ論者のヴィクター・マイヤー=ショーンベルガーとケネス・クキエは、このプライバシーのリスク以外にも、ビッグデータによって二つのリスクが生じ得ると述べている。第一にそれは、傾向と習リスクである。そして第二に挙げられるのは、データの独裁の犠牲者になるリスクだ。

傾向と習性

傾向と習リスクとは、データが指し示す個々人のパーソナリティがその個々人に対する独断と偏見を招いてしまうリスクである。例えばECサイトで犯者と類似した組み合わせの商品を購入しているユーザがいれば、そのユーザはを犯す確率が高い人間として監視の対象となってしまうかもしれない。それこそ、映画の『マイノリティ・リポート』のオープニングシーンのように、を犯すと予測された人間が実際にを犯す前に逮捕されてしまうことにもなるかもしれないのだ。実際、米国では仮釈放するか否かの判断材料にデータ分析による予測を採用している州もあるという。データ分析による予測に基づいた犯防止策を導入する警察署も増えているという。警察は、ビッグデータ技術を用いて、特別な監視が必要となる地区、団体、個人を特定しているのである。

こうしたビッグデータ技術による予測が過信されると、いずれ犯者になる可能性が高いという理由だけで制裁を加えようとする者たちが現われるかもしれない。つまり、事後制裁ではなく事前制裁である。しかしながら、この類の過信は大方、相関と因果を混同することで生じる。ビッグデータの分析によって明らかとされるのは、大抵の場合は相関関係だ。犯の予測に応用される場合、こうした分析技術は単に分析対象者の傾向と習が犯者のそれと類似していることを示すに過ぎない。決してその傾向と習原因となって犯という結果を生み出すと述べている訳ではない。

データの独裁

データの独裁というリスクが懸念されてくるのは、この関連においてである。例えばデータ駆動型の分析によって数多のツールを開発してきたGoogleは、時にあまりにもデータ至上主義的であるが故に非難されることがある。

Googleでデザイナーを務めていたダグラス・ボウマンがGoogleの行き過ぎたデータ至上主義に嫌気がさして辞めたことは有名な話だ。ボウマンは「線幅は3ピクセルが良いか4ピクセルが良いか5ピクセルが良いか」で議論したことがあったという。Googleの社員はデータの数値を信じるばかりで、デザイナーの話は聞いてくれなかった。意見があるならそれを証明するデータを用意しろと迫られるのである。ヴィクター・マイヤー=ショーンベルガーとケネス・クキエは、このGoogleの状況をデータの独裁の一例として取り上げている。Googleはデータの魔力に翻弄されないように認識を改めるべきだという。そして必要となるのは、ビッグデータ制御されるのではなくビッグデータ制御する方法なのだというのだ。

アルゴリズミスト

そこでヴィクター・マイヤー=ショーンベルガーとケネス・クキエは、「アルゴリズミスト(Algorithmist)」という専門存在が要請されるようになると主張する。アルゴリズミストという職種には二つの形式があるという。社外から企業を監査する独立したアルゴリズミストも必要となれば、社内でデータ管理を監視するアルゴリズミストも必要となる。丁度会計の分野で、社内の会計部門と社外の会計監査が存在するのと同じ理屈だ。

二種類のアルゴリズミストに求められる共通の業務となるのは、コンピュータ・サイエンス、数学、統計学の専門知識を有していながら、ビッグデータによる分析と予測を評価することである。会計士が実践するのと同じように、公平と機密保持を重視しつつ、情報源の選択、分析と予測のためのツールの選定、分析結果解釈についてを評価していく。分析を巡って矛盾や紛争が生じた場合には、その際に利用されたアルゴリズムや統計方法、あるいは分析対象データを調査する。

ビッグデータの処理においてアルゴリズミストたちは、リスクの低減のための規制に注力するのではなく、市場志向型の問題解決策を提示する存在となる。これもまた、20世紀初頭に膨大な財務情報を処理するために会計士や会計監査が活躍し始めたことと類似している。当時、一般人の理解を超えるほどに溢れ返っていた数値データの洪水に対して臨機応変に対応できる専門が求められるようになった。この需要に市場の原理が働いた結果として、財務監査を専門とする企業が次々と生み出されていったのである。

アルゴリズミストは、ビッグデータの分析技術のブラックボックスの内部を知ることのできる専門の名称だ。外部のアルゴリズミストは裁判所の命令や政府の依頼に応じて、ビッグデータの分析の正確や有効を公平な立場から監査する。ビッグデータ企業を顧客として迎え入れることもある。一方、社内のアルゴリズミストは、組織内に席を起き、社内のビッグデータ関連業務を監査する。会社の利益のみならず、自社のビッグデータ展開による人々の利益も考慮して監査する。オンブズマン制度のようなものだ。

アルゴリズミストのパラドックス

こうしてビッグデータ展開を監査する専門を設けることによって、確かに上述した傾向と習リスクデータの独裁のリスクは低まるかもしれない。アルゴリズミストがいれば、ビッグデータの分析ツールがブラックボックス化することもなくなるかもしれない。しかしながら、このアルゴリズミストという提案は、ビッグデータやその分析技術の専門主義化を助長する。この派生問題は、ヴィクター・マイヤー=ショーンベルガーとケネス・クキエがまさにGoogleを例示して指摘したデータ至上主義的な独裁を招いてしまう危険がある。

アルゴリズミストが登場すれば、アルゴリズミストが有する専門知識が希少価値を発揮する。それと同時に、こうした専門知識を持たない一般市民の存在が矮小化されることになる。一般市民はアルゴリズミストから教育を受けることを欲するようになる。逆にデータサイエンスをはじめとした専門知識を自ら学びたいとは思わなくなる。大学にはアルゴリズミストデータサイエンティストを要請するカリキュラムが盛り込まれるようになる。ビッグデータ主題として、学校化が繰り返されることになる。

だがアルゴリズム戦争は、この専門主義によるデータ価値の制度化棄却している。アルゴリズミストも「人間」である以上、無数のアルゴリズムが攻防を繰り広げる戦線では、何の役にも立たない。アルゴリズミスト理念パラドックス化していることを見抜けるなら、この指摘は造作も無いことだ。ビッグデータ制御しようとするアルゴリズミストは、その調査それ自体がデータの分析に依存している。複合的な「システムシステム(System of Systems)」として構成されているアルゴリズムを解析するには、解析用のアルゴリズムが必要になる。それ故にアルゴリズミストは、ビッグデータ制御されながら、ビッグデータ制御しようとする。アルゴリズミストが動的に変化する全てのブラックボックスを十分に解明することはあり得ない。一部にスポットライトを当てれば、確かにそれがホワイトボックス化されるかもしれない。だがそれは常に、別のブラックボックスを機能的に利用している場合に限られるのである。

アルゴリズミスト理念に伴う根源的なパラドックスは、もし仮にその理念を体現した際に、自らも解明されるべきアルゴリズム機能的等価物になってしまう点にある。もし仮にアルゴリズミストが全く何のツールにも依存せずに、アルゴリズムの全貌を知り尽くす存在になり得たとするなら、そのアルゴリズミストはもはや「人間」を超越している。その存在は、それ自体既にブラックボックスとなる。そうなると社会は、アルゴリズムを解明するアルゴリズミストを解明するアルゴリズミストを必要としてしまう。この要求無限後退を派生させる。アルゴリズミストは、アルゴリズムを解明すればするほど、その不確実性の吸収を実行することで、自らを不確実にする。アルゴリズミストの解析は、アルゴリズム複合性の縮減として機能することによって、自らの複合性を増大させる。それ故に、アルゴリズミストが自らの手でアルゴリズムを解明し尽くせるのならば、その理念自己言及パラドックスを派生させるのである。

したがって、アルゴリズミストアルゴリズム戦争の主導的な立場に立つことはあり得なかった。それどころかこのパラドックスは、主題にすらなっていない。何故ならこのパラドックスは、アルゴリズム戦争を主導してきたボットたちにとっては無縁の問題であり続けたからだ。そしてアルゴリズムは、アルゴリズムそのものを利用することで、更なる「人間不在の戦線を繰り広げていく。この戦線の展開そのものが、「人間」故に生じる諸々のパラドックス脱パラドックス化として機能しているのである。

問題解決策:2010年代における人工知能のアルゴリズム戦争

2010年代になると、ビッグデータ機械学習株式投資に利活用するという理念が、ますます現実味を持つようになる。とりわけキネティック社は、その著名な企業の一つである。確実な人工知能トレーダーを制作するというのが、同社のであった。それは金融アナリストを無から造り上げることを意味する。その理念には、機械が常に正しいという信念があった。彼らは機械が完璧であると確信していたのである。たとえそれが経営戦略として上手く進捗しなかったとしても、極端な資金調達不足に陥らない限りは、この信念が砕けることはあり得なかった。

「それはほとんど宗教(religion)であって、何よりも機械の力に対する信仰(faith)であった。機械は全てを知っている。機械を信じよ(Trust the machine)。」
Patterson, S. (2012). Dark Pools: The rise of the machine traders and the rigging of the US stock market. Crown Business., p305.

キネティック社の人工知能戦略の主導的差異構成しているのは、<ルールベースの静的な取引モデル>と<機械学習の動的な取引モデル>の区別である。キネティック社は後者の機械学習アルゴリズムに全てを賭けていた。無論この観点では、それまでの金融アナリストを支えてきた「クオンツ(Quants)」のようなドメイン知識は度外視されることになる。キネティック社が重視したのは、環境の変異に従って金融市場適応する能力を機械に与えることであった。それにより、可能な全ての戦略を網羅できるほどの可変性の設計に注力したのである。そのため同社の研究開発の主題となっているのは、変わることのない戦略に関する長時間の検証ではない。変化する状況に対するアルゴリズム適応能力の検証こそが主題となっていた。

しかし、キネティック社のアルゴリズム利益を上げていなかった。結果かられば、彼らの信仰期待外れに終わった。2011年の8月には、このアルゴリズムの共同開発者たちはキネティック社の取締役会で解雇されることとなった。

群衆の機能的等価物としてのマルチエージェント

キネティック社は失敗に終わったものの、「思考しながら取引する機械(thinking trading machine)」という理念は残存し続けた。それは人工知能解決すると期待される問題が残存しているためである。「人間」の投資家投機たちは、市場群集心理に振り回されてしまう。機械にはそれが無い。故に人工知能要求される機能とは、取引決定に「人間」の意志が介在しない金融市場を体現することである。

ボット同士が、互いに株式を交換し合う。その営みを担う者たちを一種の「マルチエージェント(Multi-agent)」と捉えるなら、無数のボットたちは群衆機能的等価物となる。だがマルチエージェント群集心理に支配されない。ボットたちにとって重要となるのは、数値と事実、そしてデータのみである。

今や大衆の中に住まっているのは「人間」だけではない。大衆は既に、無数のボット、すなわちマルチエージェントも身籠っている。金融ハッカーたちが叙述した「人間不在金融市場理念は、大衆の中の形象として刻印されているのである。

想像してみて欲しい。毎秒、何百、何千もの注文が高速ネットワークを介して市場に飛び込み、そのいずれもが相互に先を越そうと競争している。市場株価が上下に動作するのと同じ速度で注文は取り消され、違う価格で再度提出される。(略)注文の猛烈な頻度市場に飛び込む狂ったような速度が合成され、全く新しい市場の生態系が築き上げられる。それは投資家労して稼いだ収入を預けておく場所というより、映画『マトリックス』の中の何かのように思えた。」
Patterson, S. (2012). Dark Pools: The rise of the machine traders and the rigging of the US stock market. Crown Business., p37.、ただし強調は筆者。

脱パラドックス化の形式としてのアルゴリズム戦争

金融市場観察してみると、ハッカー倫理意味論に方向付けられているハッカー人格は消滅していないことがわかる。金融ハッカーたちが設計したアーキテクチャアルゴリズムは、人工知能に固有の生態系に準拠したマルチエージェントたちのアルゴリズム戦争を勃発させた。この「人間不在闘争が続く限り、金融市場は常に既存の人工知能と相対し得る人工知能要求し続ける。このことが意味するのは、そうした人工知能を設計し得るハッカーが常に要求され続けるということである。

ハッカーたちのコミュニケーションは、確かに当初は対抗文化歴史意味論に準拠した「運動」というシステム構成していた。ハッカーたちの人格は、この意味論によって、機能的分化した社会構造の外部に自らを位置付けていた。しかし今やハッカーたちは、経済システム自己言及的構成している金融市場の中で、経済機能的問題領域における<機能する問題解決策>として再導入(re-entry)されている。

尤も、1980年代の著作権紛争にせよ、ビッグデータ時代の個人情報保護の問題にせよ、1990年代から現代に至るアルゴリズム戦争にせよ、この再導入の過程では、無数の闘争が、社会システム免疫システムとして発動していた。この歴史的経緯をるに、ハッカーたちのコミュニケーションは、<矛盾するコミュニケーション>や<矛盾についてのコミュニケーション>を主題にすることで活性化し易いと推論することができる。この推論を現代の金融市場に当て嵌めてるなら、「人間不在アルゴリズム戦争に決着を付けさせないことが、ハッカー倫理の存続に役立つことになると考えられる。

既に述べたように、<資本主義の精神>と<ハッカー精神>の区別は、<資本主義の精神>の側に再導入された。無論、区別区別の内部への「再導入」は、パラドックス以外の何物でもない。1990年代以降、このパラドックス脱パラドックス化は、ハッカー人格問題解決策として必要としてきた経済システム機能的問題領域で実行されてきた。そして今や、我々は「人間」によって導入されていた<資本主義の精神>と<ハッカー精神>の区別に伴う排除された第三項を直視せざるを得なくなった。アルゴリズム戦争によって導入されている「人間」とボット区別は、「人間精神区別棄却している。アルゴリズム戦争が続く限り、<資本主義の精神>と<ハッカー精神>の差異は、もはや矛盾でもなければパラドックスでもないのである。

参考文献

  • Alexander, Christopher. (1965) “A city is not a tree,” Architectural forum. Vol.122, No.1.
  • Alexander, Christopher, S. Ishikawa, and M. Silverstein. (1977) Pattern languages, Center for Environmental Structure 2.
  • Alexander, Christopher. (1979) The Timeless Way of Building, Oxford University Press, New York.
  • Beck, Kent., Johnson, Ralph. (1994) “Patterns generate architectures,” Object-Oriented Programming. Springer Berlin Heidelberg, pp139-149.
  • Beck, Kent. (1999) “Embracing change with extreme programming,” Computer 32.10. pp70-77.
  • Beck, Kent. (2003) Test-driven development: by example. Addison-Wesley Professional.
  • Buschmann, F., Henney, K., & Schimdt, D. (2007). Pattern-oriented Software Architecture: On Patterns and Pattern Language (Vol. 5). John wiley & sons.
  • Clough, Bryan., Mungo, Paul. (1992) Approaching Zero: Data Crime and the Computer Underworld, Faber and Faber; 1st ed. edition.
  • Gamma, Erich., Helm, Richard., Johnson, Ralph., Vlissides, John. (1995) Design Patterns: Elements of Reusable Object-Oriented Software, Reading: Addison-Wesley.
  • Gintis, Herbert. (1972) “Towards a Political Economy of Education: A Radical Critique of Ivan Illich’s Deshooling Society”, Harvard Educational Review, Vol.42, No. 1, pp.70-96.
  • Illich, Ivan. (1970) Deschooling Society, New York; Harrow and Row.
  • Illich, Ivan. (1973) Tools for Conviviality, Newyork.
    Kay, Alan. (1984) “Computer Software”, Scientific American, Vol. 251, No. 3, pp41-47.
  • Levy, Steven. (1984) Hackers: Heroes of the computer revolution, New-York, Delta.
  • Levy, Steven. (2010) Hackers: Heroes of the Computer Revolution – 25th Anniversary Edition, O’Reilly Media, Inc.
  • Nelson, Theodor Holm. (c1992) Literary machines : the report on, and of, project xanadu concerning word processing, electronic publishing, hypertext, thinkertoys, tomorrow’s intellectual revolution, and certain other topics including knowledge, education and freedom, Sausalito, CA : Mindful Press.
  • Mayer-Schonberger, Viktor., Cukier, Kenneth. (2013) Big Data: A Revolution That Will Transform How We Live, Work and Think, John Murray Publishers Ltd.
  • Patterson, S. (2012). Dark Pools: The rise of the machine traders and the rigging of the US stock market. Crown Business.
  • Raymond, Eric Steven. (2001) How To Become A Hacker. URL: http://www.tuxedo.org/~esr/faqs/hacker-howto.html
  • Shalloway, A., & Trott, J. R. (2004). Design patterns explained: a new perspective on object-oriented design. Pearson Education.
  • Simon, Herbert Alexander. (1969) The sciences of the artificial, Cambridge, MA.
  • Simon, Herbert Alexander. (1976) Administrative behavior: a study of decision-making processes in administrative organization, 3th Edition, Free Press.
  • Simon, Herbert Alexander. (1977) The new science of management decision, revised edition, Englewood Cliffs.
  • Simon, Herbert Alexander. (1996) The sciences of the artificial, 3rd, MIT press.
  • Turkle, Sherry. (1984) The second self : computers and the human spirit, New York : Simon and Schuster.
  • Turkle, Sherry., Papert, Seymour. (1992) “Epistemological Pluralism and the Revaluation of the Concrete,” Journal of Mathematical Behavior, Vol. 11, No.1, pp.3-33.
  • Turkle, Sherry. (1995) Life on the screen : identity in the age of the Internet, New York : Simon & Schuster.