LLMは何を理解しているのか—数学能力から民主主義まで

LLMは何を「理解」しているのか—数学能力から民主主義まで

LLMが数学の難問を解けるようになっているという話から始まり、民主主義の未来まで思考が流れた記録。

出発点:言語と数学は同じ認知構造か?

Transformerは言語の関連性をベクトル空間上の類似度で把握し、次のトークンを予測している。では数学能力は「言語能力の延長線上」にあるのか?

部分的にはYes、ただし単純化しすぎない方がよいというのが現時点での見解。

共通点はある:

しかし「類似度予測」だけでは説明できない現象がある:

より正確には「言語能力の延長線上」というより、**「記号操作と構造的推論という共通基盤の上に、言語も数学も載っている」**という見方が妥当だと思う。

幾何学的直感の壁

では何が苦手か。幾何学的直感に基づく推論だ。

一般相対性理論を例に取ると:

アインシュタイン自身、数式より先に「落下するエレベーターの中では重力を感じない」という思考実験から等価原理に至った。この種の幾何学的直感は、Chain-of-Thoughtでも難しい。

ただし補足:

宇宙物理学のような分野では、まだ人間の幾何学的直感が重要な役割を果たす。ただしそれもマルチモーダル+スケールで変わる可能性がある。

AI間協調という跳躍

ここで視点を変える。「人を超える」という話において、人も一人ではなしえないという事実が重要だ。

科学は元々「集合知」だった:

人類の知的達成は個人の天才ではなく、ネットワーク効果によるものが大きい。

ではAI間協調が可能になると何が起きるか:

人間の集合知の制約 AIでは
コミュニケーションコスト 瞬時に共有可能
寿命・世代交代 知識の連続性が保たれる
専門分化による断絶 横断的統合が容易
認知バイアス 異なるバイアスを相互補正

既に「AI同士の議論で精度向上」という研究結果が出ている:

マルチモーダル+マルチエージェントの組み合わせで、人類が到達できなかった真理にAIが先に辿り着くシナリオは、SF的空想ではなく現実的な射程に入っている。

「超える」の実用的定義

では「超える」とは何か。哲学的な「意識があるか」「本当に理解しているか」より、**「実際に課題を解決できるか」**で判断するのが実用的だと思う。

具体的には:

この基準で見ると:

既にできていること:

まだ難しいこと:

「認めざるを得ない」という表現が核心で、理論的な議論より、実績の積み重ねで社会的認知は変わる。医療診断でAIが医師より正確、政策立案でAIの提案が採用される—こういう事例が増えれば、議論は自然と収束する。

民主主義のアップデート問題

ここで問題が生じる。AIが高度な課題解決能力を持つほど、政策や理論を一般市民が理解できなくなる

これは既に起きている:

「専門家に任せる」構造は既に進行中で、AIがそれを加速させる。

民主主義の「次のフェーズ」の候補:

アプローチ 内容 リスク
Liquid Democracy 信頼できる人に投票を委任 委任先の集中
AI翻訳者 政策をAIが個人向けに解説 AIのバイアス
熟議民主主義 無作為抽出の市民パネル スケールしにくい
透明性強化 意思決定過程の完全公開 情報過多で形骸化

逆説的に、AIが民主主義を強化するシナリオもある:

結局どこに帰着するか

**「誰がAIをコントロールするか」**という問いに帰着する。

技術的にはどちらも可能。だからこそ、AIの発展と同時にガバナンス設計を議論しないと、後者に流れやすい。

楽観も悲観もせず、今のうちに制度設計を考える必要がある。技術が社会を変えるのではなく、技術をどう使うかを決める制度が社会を変える。

抽出された概念