
こんにちは!
もこです。
ユヴァル・ノア・ハラリさんの『NEXUS 情報の人類史』、下巻を読了しました。
今回の記事は、下巻の読書メモです。
私なりの理解と感想、印象に残った部分などを中心に書いてみます。
上巻の読書メモはこちら
- 「NEXUS 情報の人類史」とは
- 下巻を読み終えての正直な感想
- 書かれていた衝撃的な事例たち(※これは私の意見ではなく、書籍の内容の要約です)
- AIに「普遍的な目標」を与えることの困難さ
- 現代の政治と情報ネットワークのジレンマ
- 印象的だった言葉と気になった話題たち
- まとめ
「NEXUS 情報の人類史」とは
「人類の情報の歴史」をテーマに、情報ネットワークがどう力を持ち、そしてどう暴走しうるのか、ということを深く掘り下げている本。
上下巻通しての私の理解を一言でまとめるなら、
「可謬(かびゅう)を認めて、自己修正メカニズムを働かせよ」
…これに尽きる気がします。
下巻を読み終えての正直な感想
率直に言うと、
-
主張が抽象的すぎて、回りくどくて、わかりづらい……。
-
具体例が多すぎて長く感じるし、途中で何の話だったか分からなくなる。
上下巻を読み終える頃には、最初の頃の内容をすっかり忘れてしまっている…というのが正直なところです。
翻訳本って、こういうの多いよね…
書かれていた衝撃的な事例たち(※これは私の意見ではなく、書籍の内容の要約です)
人種やAIの問題について、かなり衝撃的なエピソードがいくつかありました。
-
Facebookのアルゴリズムがミャンマーでロヒンギャの民族浄化に加担
→ 実際、国連は2018年に「Facebookがロヒンギャに対するヘイトスピーチの拡散を助長した」と名指しで非難しました。 -
人は、慈悲よりも憎悪を好む傾向がある。
→ SNSでは「怒り」や「憎しみ」の感情がより拡散しやすい -
AIによる常時監視
→ イランなどでAIによる服装チェックが始まり、ヒジャブ非着用女性の逮捕例が報告されています(2023年)。 -
AIに潜む人種差別
→ 米国の司法アルゴリズム「COMPAS」が、黒人に対して過剰な再犯リスクを見積もる傾向がある。 -
AIが差別的になる例
→ 2016年に公されたAIは、Twitterに放置しただけで人種差別的な発言をするようになり、24時間以内に停止されました。
AIに「普遍的な目標」を与えることの困難さ
AIに「人を殺してはいけない」などの「普遍的な価値観」を与えれば解決か?…というと、そう単純な話でもない。
-
ナチスの時代、ユダヤ人は「人間」とされなかった。
-
Googleの画像認識AIが黒人を「ゴリラ」と誤認識した問題も(2015年)。
こうした事例からも、「普遍的な倫理観」をAIに与える難しさが浮き彫りにされています。
現代の政治と情報ネットワークのジレンマ
-
民主主義は機能不全に陥りつつあり、全体主義も独裁者のジレンマに直面している。
-
「シリコンのカーテン」という言葉が登場。
→ 各国が異なる主義でネットワークを構築し、デジタル的に分断される未来。 -
情報ネットワークは「真実よりも秩序を優先」する傾向があり、それが「力」を生み出す一方で、「治安」はもたらさない。
印象的だった言葉と気になった話題たち
-
「歴史で不変なのは『変化すること』」
-
ポピュリストやマルクス主義者の話も出てくる。
-
軍事的勝利が政治的敗北につながることもある。
→ 戦争とは、政治の手段でしかない。
著者はAIによる支配に警鐘を鳴らしている。しかし…
ここまで読むと、ハラリさんがAIの可能性をどう評価していて、どれだけ危険視しているかが伝わってきます。
もちろん、AI自体が悪であるわけではなく、善であるわけではないと言っています。
でも、私はそこまで「AIが怖い」とは思っていませんでした。
というのも、現段階のAIって、まだまだ間違えることが多すぎる。
ChatGPTにしても、Geminiにしても、ちょいちょいズレてる。全然完璧じゃない。
不可謬(絶対に間違えない)どころか、日常的にミスしてます。
だから、「そんなに怖がる必要ある?」と疑問に思ってしまった。
しかし、読了後しばらくして著者がここまでAIを危険視する理由がようやくわかりました。
今はポンコツでも、AIは人間とはまったく違うやり方で、ものすごいスピードで学習していきます。
しかも、私たちには「なぜその判断をしたのか」が分からない。
人間とは違ったやり方で学習していくから。
それなのに、社会の重要な場面で使われはじめると、AIの判断が正義になってしまう可能性がある。
──そう考えると、危惧するのも無理はない話。
まとめ
『NEXUS 情報の人類史』は、読みごたえがある反面、抽象的で長くて読むのに時間がかかりました……。
一回ざっと読んで、もう一回ざっと読んだよ(どっちも「ざっと」かい!)
それでも、「可謬性」や「自己修正メカニズムの重要性」、そして「AIに普遍的な価値観を与えることの困難さ」といった点は強く印象に残りました。
正直、読みづらかったけれど、新しいこともいろいろ知れたし、興味深かったです。
