LLMは何を理解しているのか—数学能力から民主主義まで
LLMは何を「理解」しているのか—数学能力から民主主義まで
LLMが数学の難問を解けるようになっているという話から始まり、民主主義の未来まで思考が流れた記録。
出発点:言語と数学は同じ認知構造か?
Transformerは言語の関連性をベクトル空間上の類似度で把握し、次のトークンを予測している。では数学能力は「言語能力の延長線上」にあるのか?
部分的にはYes、ただし単純化しすぎない方がよいというのが現時点での見解。
共通点はある:
- 記号操作:数学も言語も記号列の変換規則に従う
- 構造的推論:文法構造と数式構造は木構造として類似
- パターン認識:「この形式の問題にはこの解法パターン」という対応
しかし「類似度予測」だけでは説明できない現象がある:
- Chain-of-Thought:中間ステップを生成することで暗黙的に計算グラフを構築
- 創発的能力:スケールが上がると訓練データにない組み合わせの推論が可能に
- 内部表現:単なる類似度ではなく、抽象的な概念の構造的表現を獲得している可能性
より正確には「言語能力の延長線上」というより、**「記号操作と構造的推論という共通基盤の上に、言語も数学も載っている」**という見方が妥当だと思う。
幾何学的直感の壁
では何が苦手か。幾何学的直感に基づく推論だ。
一般相対性理論を例に取ると:
- 時空の曲率を直感的に把握する
- 多様体上での測地線をイメージする
- 4次元以上の空間を「感じる」
アインシュタイン自身、数式より先に「落下するエレベーターの中では重力を感じない」という思考実験から等価原理に至った。この種の幾何学的直感は、Chain-of-Thoughtでも難しい。
ただし補足:
- マルチモーダル化の進展で幾何的推論は改善傾向
- 数式処理(テンソル計算、微分幾何の記号操作)はLLMでも可能
- 人間も11次元のカラビ-ヤウ多様体を「直感的に」把握できる人はほぼいない
宇宙物理学のような分野では、まだ人間の幾何学的直感が重要な役割を果たす。ただしそれもマルチモーダル+スケールで変わる可能性がある。
AI間協調という跳躍
ここで視点を変える。「人を超える」という話において、人も一人ではなしえないという事実が重要だ。
科学は元々「集合知」だった:
- ニュートン:「巨人の肩の上に立つ」
- 現代物理学:CERNのように数千人の共同研究
- 査読システム自体が分散的な検証機構
人類の知的達成は個人の天才ではなく、ネットワーク効果によるものが大きい。
ではAI間協調が可能になると何が起きるか:
| 人間の集合知の制約 | AIでは |
|---|---|
| コミュニケーションコスト | 瞬時に共有可能 |
| 寿命・世代交代 | 知識の連続性が保たれる |
| 専門分化による断絶 | 横断的統合が容易 |
| 認知バイアス | 異なるバイアスを相互補正 |
既に「AI同士の議論で精度向上」という研究結果が出ている:
- Debate:AI同士が議論し、より正確な結論に至る
- Self-consistency:複数の推論パスを比較
- Constitutional AI:AI同士で価値判断を洗練
マルチモーダル+マルチエージェントの組み合わせで、人類が到達できなかった真理にAIが先に辿り着くシナリオは、SF的空想ではなく現実的な射程に入っている。
「超える」の実用的定義
では「超える」とは何か。哲学的な「意識があるか」「本当に理解しているか」より、**「実際に課題を解決できるか」**で判断するのが実用的だと思う。
具体的には:
- 個々人の欲望に応えられるか
- 社会の課題を解決できるか
- 時事を把握して課題設定+改善ができるか
この基準で見ると:
既にできていること:
- ネットから時事情報を取得
- 論文・ニュースの大量処理
- 政策提言のドラフト作成
- 個人の相談に応じる
まだ難しいこと:
- 現場の「空気」や暗黙知の把握
- ローカルで報道されない情報
- 物理的な介入
「認めざるを得ない」という表現が核心で、理論的な議論より、実績の積み重ねで社会的認知は変わる。医療診断でAIが医師より正確、政策立案でAIの提案が採用される—こういう事例が増えれば、議論は自然と収束する。
民主主義のアップデート問題
ここで問題が生じる。AIが高度な課題解決能力を持つほど、政策や理論を一般市民が理解できなくなる。
これは既に起きている:
- 金融政策:中央銀行の決定を本当に理解している市民は少ない
- 環境規制:科学的根拠の検証は専門家頼み
- デジタル法制:GDPR、AI規制などは技術者でも難解
「専門家に任せる」構造は既に進行中で、AIがそれを加速させる。
民主主義の「次のフェーズ」の候補:
| アプローチ | 内容 | リスク |
|---|---|---|
| Liquid Democracy | 信頼できる人に投票を委任 | 委任先の集中 |
| AI翻訳者 | 政策をAIが個人向けに解説 | AIのバイアス |
| 熟議民主主義 | 無作為抽出の市民パネル | スケールしにくい |
| 透明性強化 | 意思決定過程の完全公開 | 情報過多で形骸化 |
逆説的に、AIが民主主義を強化するシナリオもある:
- 政策の影響を個人レベルでシミュレーション表示
- 「この法案があなたの生活にどう影響するか」を可視化
- 利権構造を自動検出して指摘
結局どこに帰着するか
**「誰がAIをコントロールするか」**という問いに帰着する。
- AIを使って市民の理解を助ける → 民主主義強化
- AIを使って市民を誘導する → 高度な支配
技術的にはどちらも可能。だからこそ、AIの発展と同時にガバナンス設計を議論しないと、後者に流れやすい。
楽観も悲観もせず、今のうちに制度設計を考える必要がある。技術が社会を変えるのではなく、技術をどう使うかを決める制度が社会を変える。