LLMとは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開
요약
본 기술 기사는 '대규모 언어 모델(LLM)'의 개념을 모호한 마케팅 용어에서 벗어나, 형식적이고 검증 가능한 최소 기능 집합으로 재정의하는 'Layer-0 기능 필연성 정리 v3.0'을 발표합니다. 이 정리는 현대 LLM이 반드시 구현해야 하는 6가지 핵심 기능 역할(예: 토큰 공간, 문맥 조건화 상태, 학습 파라미터 변환 등)을 정의하며, 이를 통해 어떤 시스템이 진정한 의미의 LLM인지 기계적으로 판별할 수 있는 기준을 제시합니다. 이 접근 방식은 모델 아키텍처 변화에 관계없이 (Transformer, MoE, SSM 등) 지속 가능한 표준화 및 감사(Audit)를 가능하게 합니다.
핵심 포인트
- LLM 정의를 6가지 필수 기능 역할로 형식화하여 'Layer-0' 정리를 제시함. 이 6가지 역할을 모두 갖추지 못하면 현대적 의미의 LLM이 아니라고 주장함.
- 제시된 6가지 역할(TOKEN_OR_SYMBOL_SPACE 등)은 책임 경계의 최소 집합이며, 이를 통해 아키텍처 세대교체에 관계없이 정의가 유지됨.
- Layer-0 정리는 단순히 'LLM이다'라는 주관적 판단이 아닌, 기계적으로 검증 가능한 (PASS/FAIL) 감사(Audit) 기준을 제공함.
- Transformer나 MoE 같은 구체적인 구현 방식은 Layer-0의 하위 계층에 속하며, LLM 정의 자체를 대체하지 못함. 이는 아키텍처 독립성을 확보하기 위함임.
- 이 정리는 AI 시스템의 규제, 표준화, 그리고 학술적 논의에서 '무엇을 기준으로 삼아야 하는가'라는 근본적인 질문에 답하는 틀을 제공함.
LLM とは何か、を有限列挙で証明する:Layer-0 機能必然性定理 v3.0 公開
現代の Large Language Model は、6 つの機能役割を必ず実装する。1 つでも、その機能等価物まで含めて欠ければ、それはもう LLM ではない。これを定義公理と有限全列挙で証明し、コマンド一発で再現可能にしたパッケージを公開した。
- GitHub:gatchimuchio/LLM-Layer-0-Functional-Compliance-Specification
- Zenodo (v3.0):10.5281/zenodo.19826582
- ライセンス:コードは MIT、ドキュメントは CC-BY-4.0
なぜ公開したか
LLM という言葉は、マーケティングと技術用語の境界が曖昧なまま流通している。「これは LLM か」「これは LLM じゃない」を、雰囲気・プロバイダの自己申告・パラメータ数の暗黙閾値で議論し続けると、規制も監査もアーキテクチャ議論も全部ぼやける。
必要なのは、Transformer・MoE・SSM といった実装世代交代に耐える形式的な定義境界だ。役割の有限集合で固定し、削った場合にどう失敗するかまで含めて宣言する。それが Layer-0 定理である。
1 分でわかる Layer-0
主張はこうだ。
現代の Large Language Model に該当するシステムは、以下 6 つの機能役割を、明示的にあるいは機能等価物として実装しなければならない。1 つでも、その全機能等価物まで含めて欠くシステムは、AI システム・テキストツール・分類器・検索器・エンコーダ・歴史的言語モデルではあり得るが、現代の技術的意味における LLM ではない。
6 つの役割は次の通り。
- TOKEN_OR_SYMBOL_SPACE— モデルが読み書きするトークン/記号空間
CONTEXT_CONDITIONING_STATE— 予測を条件づける文脈状態
LEARNED_PARAMETERIZED_TRANSFORM— 学習されるパラメータ化モデル本体
CONDITIONAL_LINGUISTIC_OUTPUT_SURFACE— 条件付き出力面
SEQUENCE_MODELING_OBJECTIVE_OR_EQUIVALENT_FITTING_CRITERION— 系列学習目的関数または等価な適合基準
DECODING_OR_EMISSION_INTERFACE— 出力放出インタフェース
証明手法は有限全列挙だ。6 役割の部分集合は 2^6 = 64 通り。フル集合は通る。残り 63 の真部分集合はいずれも通らない。これを実行可能スクリプトで検証し、判定は JSON 証明書として出力する。
make verify```
期待される出力はこう。
```main audit: PASS
Layer A obligation graph: PROVEN_BY_EXHAUSTIVE_ENUMERATION_OF_DECLARED_OBLIGATION_GRAPH
proper_subset_pass_count: 0
...
proper_subset_pass_count: 0 は「真部分集合のうち 1 つも LLM 要件を満たさない」、single_removal_fail_count: 6 は「6 役割のいずれを単独で抜いても要件は破綻する」の意味だ。雰囲気判定ではなく、機械可読な合否が出る。
なぜ 6 つか — 責任境界の最小集合
なぜ 6 で、5 でも 7 でもないのか。これは「英語ラベルの最善の選び方」の問題ではない。「責任境界をいくつ立てれば、LLM という運用システムを過不足なく宣言できるか」の問題である。
5 に圧縮すると、責任境界が 1 つ隠れる。たとえば「学習対象」と「学習目的関数」を一塊にすると、どちらが欠陥の原因かを切り分けられなくなる。監査の単位が壊れる。7 以上に分割すると、Layer-0 ルートを越えて実装精緻化(Attention、MoE、RoPE、RMSNorm など)に踏み込んでしまい、アーキテクチャ非依存性が失われる。
6 つそれぞれが独立に観測可能で、削除すると他の 5 つで埋め合わせができないこと。これが 6 である理由だ。境界の名前ベースで言えば、表現境界・推論状態境界・学習モデル対象境界・条件付き出力代替境界・訓練/適合境界・運用放出境界、の 6 つになる。
アーキテクチャ非依存性 — Transformer は必須ではない
Layer-0 は実装に踏み込まない。
- Transformer attention、MoE、Dense、RoPE、RMSNorm、SwiGLU、MLA、GQA は、すべて Layer-0 の下層にある実装枝である - Mamba/SSM、RWKV/再帰型も Layer-0 の下層に位置する
- 「次のアーキテクチャ」が出てきても、それが LLM である限り 6 役割は実装される
つまり、Transformer が廃れた時も Layer-0 は生き残る。これがアーキ世代交代に耐える定義の意味だ。「Transformer に基づく AI」「MoE に基づく AI」のように実装で定義してしまうと、定義側が世代交代で死ぬ。Layer-0 はそうならない。
これは何の役に立つのか
4 つの用途がある。
1. 監査
責任境界が 6 つに固定されているということは、準拠チェックを再現可能に回せるということだ。make audit は決定論的に PASS/FAIL を返し、JSON 証明書を生成する。雰囲気判定でない監査が成立する。
2. 規制・標準化
「LLM か?」という規制上の問いに対して、引用根拠付きの形式境界を提供する。OpenAI・Anthropic・xAI・Meta・Mistral・DeepSeek・GLM・Qwen の公式言明を収束的根拠として錨付けてあるので、私見ではない。各プロバイダの自己記述が定理ドメインを支える証拠になる。
3. アーキテクチャ議論
「LLM とは何か」と「どう実装するか」を分離する共通語彙になる。「うちのモデルは MoE だから先進的」のような議論は、Layer-0 の下層の話でしかない。Layer-0 より上で議論しないと、上位概念がブレる。
4. 反例プロトコル
批判の作法を明示している。本定理を覆したいなら、より良い境界保存性をもつより厳しい最小分解か、妥当な LLM 反例を提出する必要がある。「定義依存だ」は反証ではない。数学定理は構成上、定義と公理に依存する。
反例の作法
妥当な反例は、以下を両方満たす必要がある。
- 候補が通常の技術的用法において現代の Large Language Modelであることを確立する
- 少なくとも 1 つの Layer-0 役割と、その全機能等価物を欠いていることを確立する
大規模学習された文脈言語モデリングを欠くシステムは、LLM 反例ではない。それは別の AI/テキストシステムだ。「広い意味での言語モデル」は別クラスとして扱うのが Layer-0 の境界の引き方である。
「BERT は?」「単純な n グラム言語モデルは?」のような問いには、Layer B の公開証拠マッピングで答える設計になっている。BERT はエンコーダ系であり Layer-0 の CONDITIONAL_LINGUISTIC_OUTPUT_SURFACE と DECODING_OR_EMISSION_INTERFACE の責任分担が現代 LLM と違う。これは反例ではなく、別クラスへの帰属である。
よくある異議への回答
- 「これは定義依存だ」 — 反証ではない。数学定理は定義依存で構成される。批判するなら別の定義を提出するか、定義から導出される結論に矛盾を示す必要がある。
- 「全モデルの経験的検査ではない」 — 反証ではない。定理は形式的、経験的証拠マッピングは Layer B の役割。混同してはならない。
- 「将来のアーキは違うかもしれない」 — 反証ではない。LLM なら 6 役割を実装する。実装しないなら別の AI クラスか、用語改訂を強制する。
- 「Large に固定パラメータ閾値はない」 — 反証ではない。Large は現代的技術スケール条件であり、定理の作動機構ではない。スケール論を持ち出すと論点がずれる。
何を主張していないか
過剰主張をしない、というのも定理の境界の一部だ。
- 意識・理解・意味・エージェンシー・人間等価の推論は主張していない
- クローズド重みの内部の経験的検査は主張していない
- 6 つの英語ラベルが唯一可能な語彙だとは主張していない
- Transformer・attention・MoE・RoPE・RMSNorm・SwiGLU・MLA・GQA が普遍的 LLM ルートだとは主張していない
ここに踏み込むと、Layer-0 は形式定理であることを止めて思想表明になる。それは別の論点でやる。
階層の整理
主張は 4 階層に分けてある。
- Layer 0:6 つの LLM 役割の数学的機能必然性。用語境界公理と役割分離議論で確立。
- Layer A:有限義務グラフ定理。64 部分集合の全列挙で実行可能証明書を出力。
- Layer B:既知の公開 LLM ファミリの Layer 0 への対応。公式参照と公開モデルファミリ証拠で確立。
- Layer 1+:Transformer / Dense / MoE / SSM / RWKV の枝配置。Layer 0 下層の実装枝。
この階層分離が、定理と経験的検査と実装議論を混ぜて扱わないための骨格になる。
まとめ
LLM が何であるかを、雰囲気・マーケティング・自己申告に任せず、責任境界の有限集合と全列挙で固定した。make audit
一発で再現でき、JSON 証明書まで出る。Transformer が廃れても、MoE が廃れても、SSM が廃れても、6 役割は残る。
監査・規制・アーキテクチャ議論で「これは LLM か」を言う時、Layer-0 をリファレンスとして使ってほしい。リファレンスとして批判するのも歓迎する。反例プロトコルがそのために用意してある。
- GitHub:https://github.com/gatchimuchio/LLM-Layer-0-Functional-Compliance-Specification
- Zenodo (v3.0):https://doi.org/10.5281/zenodo.19826582
引用は CITATION.cff または上記 Zenodo DOI 経由でどうぞ。
AI 자동 생성 콘텐츠
본 콘텐츠는 Zenn AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기