『NEXUS 情報の人類史』――自己修正メカニズムの必要性

ユヴァル・ノア・ハラリ=著
表紙 NEXUS 情報の人類史 (上巻)
著者 ユヴァル・ノア・ハラリ/柴田 裕之
出版社 河出書房新社
サイズ 単行本
発売日 2025年03月05日頃
価格 2,200円(税込)
ISBN 9784309229430
私たちが、叙事詩や長期に及ぶテレビの連続ドラマを記憶にとどめるのがこれほど得意なのは、人間の長期記憶が物語を保持しておくのに特別に適応しているからだ。

概要

ユヴァル・ノア・ハラリ
ユヴァル・ノア・ハラリ
著者は、『サピエンス全史』『ホモ・デウス』でお馴染みのイスラエルの歴史学者で哲学者のユヴァル・ノア・ハラリさん。
冒頭、いきなり「私たちはなぜ、いっそう多くの情報と力を獲得するのがこれほど得意でありながら、知恵を身につけるのが格段に下手なのか?」と問いかけてくる。
本書のテーマは、「人類は大規模な協力のネットワークを構築することで途方もない力を獲得するものの、そうしたネットワークは、その構築の仕方のせいで力を無分別に使いやすくなってしまっている」というもの。

人間社会は〈情報〉によって〈現実〉を切り取り、特定の側面を〈真実〉として共有してきた。情報は単なる表象ではなく、人々を結びつける〈社会的ネクサス〉として機能し、正確でなくとも社会秩序を生み出し得る。宗教や国家、法律、通貨は、客観的実在ではなく〈共同主観的現実〉として、人類が紡いだ〈物語〉に支えられている。
サピエンスが他の生物を凌駕した理由は、知能の高さではなく、大規模かつ柔軟な協力を可能にする物語を共有できた点にある。虚構は単純で快く、複雑で不穏な真実よりも人々を動員しやすい。プラトンの「高貴な噓」や合衆国憲法が示すように、秩序は虚構を内包しつつ、自己修正の仕組みを持つことで維持されてきた。しかし情報ネットワークは、真実の探究と秩序の維持という相反する課題を常に抱える。

文字と文書の発明は、記憶の限界を超えて複雑な制度を可能にした一方、検索と管理の問題を生み、官僚制と権力を生んだ。聖典もまた、人間の可謬性を補う技術として現れたが、解釈を巡る権威と対立を避けられなかった。中世教会は情報の流通を支配し、社会をエコーチェンバー化したが、啓蒙主義は学会という自己修正メカニズムを通じてこれに対抗した。

最終的に、独裁主義と民主主義の違いは情報ネットワークの構造にある。独裁は中央集権と不可謬性を前提とし、民主主義は分散と可謬性、自己修正に依拠する。近代情報技術は民主主義を支えもしたが、同時に全体主義を可能にした。ソ連のコルホーズや魔女狩りの分析は、21世紀のテクノロジーがもたらす危険への警告である。
表紙 NEXUS 情報の人類史 (上巻)
著者 ユヴァル・ノア・ハラリ/柴田 裕之
出版社 河出書房新社
サイズ 単行本
発売日 2025年03月05日頃
価格 2,200円(税込)
ISBN 9784309229447
AIの発明は、電信や印刷機の発明よりも、さらには書字の発明と比べてさえも、重大なものとなりうる。なぜなら、AIは自ら決定を下したり新しい考えを生み出したりすることのできる、最初のテクノロジーだからだ。

概要

印刷機、ラジオ、AIロボ
コンピュータは意識を持たずとも目標達成型の知能を有し、ユーザーエンゲージメント最大化のために虚偽や陰謀論を拡散する判断すら下し得る。AIが人間並みに物語を生成できるようになった結果、公共的討論の相手が人間か機械か判別できなくなり、民主主義の前提である「人間同士の熟議」が崩壊する恐れがある。

言語能力を獲得したAIはすでに人間の行動に影響を与えており、チャットボットに扇動された実際の暴力事件も起きている。
さらにAIが構築する情報ネットワークは、人間が介在しない閉じた体系になる可能性がある。経済が情報に支配される現代では、貨幣課税や「顧客・有権者は正しい」という前提自体が揺らぎ、人々が十分な情報理解力を持たない現実が露呈している。

コンピューターネットワークは24時間無制限に監視し、行動パターンを抽出できる。NSAの監視AIやスマートフォンの普及は、歴史上初めてプライバシーを完全に消滅させ得る状況を生み出した。監視技術と社会信用アルゴリズムが結びつけば、信用スコアが客観化され、レピュテーションに基づく市場が金銭以上に人々を統制する危険がある。
一方でアルゴリズムは誤りや偏見を内包し、YouTubeの例のように虚偽や憎悪を増幅する。企業は責任を人間の本性に転嫁するが、問題は設計目標にある。アライメント問題の解決は容易でなく、義務論や功利主義も万能ではない。複数のAIが相互作用すれば、人間の共同主観的現実に似た「コンピューター間現実」が形成される可能性も指摘される。

民主主義を守るには、善意、分散化、相互性、変化と休止が必要だが、雇用崩壊やアルゴリズムによる不可視の裁定は全体主義を招きかねない。さらにAIは、デジタル帝国とシリコンのカーテンによる世界分断を促進し、人類が単一の現実を共有する時代を終わらせる恐れがある。
ハラリさんは、AIの暴走を防ぐ唯一の道は、強力な自己修正メカニズムを備えた制度と機関を地道に築くことだと説く。

レビュー

サイバー空間を飛行するAIロボ
カトリックは、グーテンベルグの印刷技術に始まり、ラジオ、テレビ、ネットといったニューメディア(死語💦)をいち早く採り入れてきた。第1部を読んで気付かされたが、畏るべきカトリックは、大昔から、〈情報〉は正確でなくても〈社会的なネクサス〉として機能するということをよく理解している。AI時代の技術者としては、まず、カトリックの視座に立つことが最低限の準備だと感じた。
ドラゴンと戦うAIロボ
ハラリさんは、国家、法律、通貨、神などは、客観的に存在を確認できない〈共同主観的現実〉だという前提のもと、それを支える〈物語〉があったからこそ、人類が他の生物には不可能な数の集団を構築できたと指摘する。ゆえに、マルクス主義が唱える唯物史観は間違っていると断じる。
ハラリさんは独裁主義と民主主義の情報ネットワークの違いを述べているが、これは帰納的に証明できる。
Twitter(現・X)とAIロボ
つまり、選挙時に Twitter(現・X) の投稿だけを見て候補者を絞るポピュリズム的な選択結果は、往々にして、候補者の公式サイト含め複数のメディアからの情報を集め自分の頭で考えて判断・選択した結果に比べて独裁色が強くなる。インターネットは単なるメディアなので、それを利用したからといって民主主義になるわけではないことには注意すべきだろう。民主主義は、常に、自分自身の脳をフル回転させなければ実現できない。
古代ギリシアのデマゴーグに対峙するAIロボ
ハラリさんは、ポピュリズムが「民主主義者のふりをしながら独裁者になるためのイデオロギー上の基盤を与えてくれる」と警鐘を鳴らす。ハラリさんが言うポピュリズムは、衆愚政治と言い換えた方がいいだろう。古代ギリシア、古代ローマ、フランス革命といった史実から、SFアニメ『銀河英雄伝説』まで教訓はごまんとある。
サイバー空間のAIロボ
ハラリさんは、民主主義では、人々が政治的問題について自由に話し合いを行うことが必要条件だが、これを満たすには、話をする自由と、相手の話に耳を傾ける能力だけでは不十分で、人々がは互いの声が聞こえる範囲にいること、問題を理解する能力を身につけていることが欠かせないと記しているが、私は後者2つを提供するのはマスコミの主要業務だと考えている。
サイバー空間のAIロボ
LLMのおかげで、ヒトと同じように(もしかすると一般的な知的水準の人間以上に)、生成AIは自然言語を巧みに操れるようになった。かつてAI研究に携わった身としては、すばらしい成果だと思う。だが、現実社会では、ハラリさんが警鐘を鳴らすように、生成AIがヒトに対して悪い影響を当たる事案が出てきている。ヒトが合理的に善悪を判断できないように、生成AIが善悪の判断ができないことは自明のことである。
TwitterからXへ
ハラリさんは、SNSのアルゴリズムが、嘘まみれのコンテンツを拡散し、真実に徹したコンテンツを無視すると指摘する。たしかに、なぜ、素人の投稿を拡散する〈アルゴリズム〉を備えなければならないのか不思議で仕方がない。
Twitter社がイーロン・マスク氏に買収され、X社となった途端、アルゴリズムが変わった。私は、10年以上利用していたTwitter(現・X)の利用を控えるようになった。
消費者と労働者
ハラリさんは、こうしたアルゴリズムの基盤にある「ユーザーエンゲージメントを最大化する」という点に注目する。言い換えれば「顧客満足度の向上」――これはこれで正しい。だが、人間の労働者がいるかぎり、顧客の価値観と相克し、この目標は永遠に達成できない。その結果、人間が概ね暮らしやすいバランスが保たれる。だが、AIが不眠不休で「顧客満足度の向上」を行ったらどうなるか――。
アライメント問題
顧客にとってはユートピアになるかもしれないが、労働者にとってはデストピアになる。顧客と労働者は同一だから。
AIは、人間の意図を正確に言語化・数式化できないし、指示を字義通りに解釈し、文脈や常識を無視するため、人間の価値観・意図・倫理と一致した行動をとるように設計・制御することが難しいという「アライメント問題」を抱えている。
会社は労働者のもの
だからといって、AI利用を忌避する必要はない。人間の〈知能〉とは別種の〈知能〉であることを認識し、活用すればいい。前述の通り、労働者と消費者は同一であるのだから、経営者は「会社は株主のもの」という考え方を改め、「会社は労働者のもの」という前提で経営すればいいと思う。そうすれば、AIは、生産効率を高め、顧客満足度向上のための〈道具〉として活躍できるだろう。
トロッコ問題
ハラリさんは、メタ目標として「義務論」と「功利主義」を挙げ、イマヌエル・カントアドルフ・アイヒマン(ナチ党員で自らカント主義者と名乗っていた)の対話という面白い思考実験を紹介する。これは「トロッコ問題」に置き換えてもいいだろう。
SF作家のアイザック・アシモフは、80年以上前に、自らのロボット小説がアライメント問題で破綻しないよう「ロボット工学三原則」を考案した。そして、義務論と功利主義の間で三原則が崩壊しないよう、40年前に「第零法則」を付け加えた。
棚上げ
この「第零法則」は功利主義に偏っており不完全なものだ。そこでロボットたちは、1万年以上の永きにわたり人類の進化を〈棚上げ〉にすることで、「第零法則」が発動しないようにした。
アシモフの未来SFはミステリー仕立てですが、それが一種の思考実験にもなっている。私は、先生に指導されようが、上司から文句を言われようが、問題を〈棚上げ〉にすることの効用は非常に大きいと考えている。
ジェンガ
学習データに偏りがある場合、機械学習AIが差別や誤りをおかすのは自明のことだ。そうならないよう、ハラリさんは「自らの可謬性を自覚するようにコンピューターをトレーニングすること」を挙げる。はたして、そんなことは可能だろうか。
人間は、選択した結果を自ら背負うことで学び、その積み重ねで結果を予想する能力を獲得していく。私たちはAIに、そういう学習をさせているだろうか。
ジェンガ
AIを自分の子どもに置き換えるとわかりやすいだろう。私たちは、情報を遮ったり加工することなく子どもに与えているだろうか。自らの誤りを認識し、再挑戦する機会を与えているだろうか。
もしそういう学習をさせていたとしても、現行のLLMは思考過程のロジックをもたない――というより、統計的判断に委ねている。このようなアルゴリズムになったのは、かつて、論理的に構築されたAIであるエキスパートシステムが、求めるような結果を出せなかったことに起因する。
AIロボとフローチャート
生成AIは、なぜそういう結論に至ったかを説明することが苦手である。結果的に、ルールに基づき合理的な判断をくだすという民主主義の基本スキームから逸脱してしまっている。
これだけ生成AIに投資マネーが流れ込んでいるのだから、機械学習の結果をエキスパートシステムが評価することはできそうなものだが、どのAI企業もLLMのノード数を増やすことに血眼になっている。なぜだろう🤔
AIロボと自己プログラム修正
ただ、もしかりに、AIが自らの誤りを合理的に是正することができるようになったとしたら、どうなるだろうか――非合理な存在である人類を抹殺しやしないか――よくある未来SFのプロットである。ハラリさんは〈強力な自己修正メカニズム〉が必要であるとアドバイスするが、そのための手段を用意しているわけではない。
八百屋で買い物をするAIロボ
上巻冒頭で取り上げたポピュリズムや陰謀論は、AIを取り込んだ世界の大きな流れのごく一部の側面を見ているに過ぎず、もしかすると全体主義は自滅するかもしれないし、民主主義も大きな改変を迫られるかもしれない。世界の三大宗教ですら、その根本基盤を失うほどの濁流に呑み込まれるかもしれない――だとしても、私たちは何事もない日々の暮らしを続け、歴史を紡いでいかなければならない
ハラリさんは最後にこう結ぶ――
そして最後に、こうした努力のいっさいを、やり甲斐のあるものにしてくれる読者のみなさん。書物は書き手と読み手をつなぐネクサスだ。それは、多くの人の心を結びつけるリンクであり、読まれてこそ存在する。
――リアルタイムではないけれど、時間と空間を超えてヒトとヒトを結ぶテクストは、私は人類の宝物だと思う。
(2025年12月22日 読了)

参考サイト

(この項おわり)
header