OpenLedgerはスマートエコノミーの基盤インフラを構築し、信頼できる検証済みAIモデルのインセンティブエコシステムを作成します。

OpenLedgerデプス研報:OP Stack+EigenDAを基盤にして、データ駆動型でモデルがコンポーザブルなインテリジェントエコノミーを構築する

一、引言 | Crypto AI のモデルレイヤーの跳躍

データ、モデルと算力は AI インフラストラクチャの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)は欠かせない。従来の AI 業界のインフラストラクチャの進化パスに似て、Crypto AI 分野も同様の段階を経てきた。2024 年初頭、市場は一時去中心化 GPU プロジェクトに支配され、一般的に「算力を競う」粗放な成長論理を強調していた。しかし、2025 年に入ると、業界の焦点は徐々にモデルとデータ層に移り、Crypto AI が基盤リソースの競争からより持続可能で応用価値のある中層の構築へと移行していることを示している。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bにも及び、1回のトレーニングコストは数百万ドルに達することがよくあります。一方、SLM(Specialized Language Model)は再利用可能な基盤モデルの軽量微調整パラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質専門データおよびLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させます。

注目すべきは、SLM は LLM の重みの中に統合されるのではなく、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRA モジュールのホットプラグ、RAG(リトリーバル強化生成)などの方法で LLM と協力して動作することです。このアーキテクチャは LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーションインテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)の核心能力を直接向上させることが難しい。その核心的な理由は、

  • 技術的なハードルが高すぎる:Foundation Model のトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在、アメリカや中国などのテクノロジー大手のみが相応の能力を持っています。
  • オープンソースエコシステムの制約:主流の基盤モデルである LLaMA や Mixtral はすでにオープンソース化されていますが、モデルの突破を推進する真の鍵は依然として研究機関やクローズドエンジニアリングシステムに集中しており、チェーン上プロジェクトのコアモデル層への参加の余地は限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは、特化型言語モデル(SLM)を微調整し、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つの核心的な方向性に表れています:

  • 信頼できる検証レイヤー:チェーン上にモデル生成のパス、データの寄与と使用状況を記録することで、AI出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを活用し、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を促進し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプ分類とブロックチェーン適用性分析

ここから、モデル型Crypto AIプロジェクトの実行可能な落ち点は主に小型SLMの軽量化微調整、RAGアーキテクチャのチェーン上データ接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーンAIチェーンは、各データおよびモデルの貢献源を明確かつ改ざん不可能なオンチェーン記録を行い、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出される際に自動的に報酬配分を引き起こし、AIの行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルのパフォーマンスを評価し、ルールの策定と反復に参加し、分散型ガバナンスの構造を改善できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは現在の市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」の概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション開発者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの収益を得ることを促進します。

OpenLedgerは、「データ提供」から「モデルデプロイ」さらには「呼び出し分配」までの全チェーンのクローズドループを提供しており、そのコアモジュールは以下を含みます:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティの協力によって構築と検証が行われる;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を促進しました。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OP Stackに基づいて構築:Optimismテクノロジースタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM互換:Solidityに基づいて開発者が迅速にデプロイおよび拡張できる便利さ;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を確保します。

NEARのようなより基盤に偏った、データ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンに対し、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に焦点を当て、モデルの開発と呼び出しをチェーン上で追跡可能、コンポーザブル、持続可能な価値のクローズドループで実現することを目指しています。それはWeb3の世界におけるモデルインセンティブの基盤インフラであり、HuggingFace式のモデルホスティング、Stripe式の使用課金、Infura式のチェーン上のコンポーザブルインターフェースを組み合わせ、「モデルは資産」という実現への道を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactoryはOpenLedgerエコシステム内の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは完全にグラフィカルユーザーインターフェースで操作でき、コマンドラインツールやAPI統合は不要です。ユーザーはOpenLedger上で承認と監査が完了したデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニングとデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査して承認し、データが自動的にモデル訓練インターフェースに接続される。
  • モデル選択と設定: 主流の LLM(LLaMA、Mistral など)をサポートし、GUI を通じてハイパーパラメータを設定します。
  • 軽量微調整:内蔵LoRA / QLoRAエンジン、リアルタイムでトレーニング進度を表示。
  • モデル評価とデプロイ:内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース: チャット式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出典引用を伴う回答で、信頼性と監査可能性を強化します。

Model Factoryのシステムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAGトレーサビリティの6つの主要モジュールを含み、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性が高く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシーンに適しています。
  • Qwen:アリが製作した、中国語のタスクのパフォーマンスが優れており、総合的な能力が高く、国内の開発者に最適です。
  • ChatGLM:中国語の対話効果が優れており、特化型カスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れたパフォーマンスを示し、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、すぐに使い始めたり実験したりしやすい。
  • Falcon:かつては性能のベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活性度は減少しています。
  • BLOOM:多言語サポートが強いが、推論性能は弱めで、言語カバレッジ型の研究に適している。
  • GPT-2:クラシックな初期モデルで、教育や検証目的にのみ適しており、実際の展開での使用は推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていないが、その戦略は時代遅れではなく、オンチェーンのデプロイメントに基づく現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいて「実用優先」の構成がなされている。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが内蔵されており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、実現可能性、そして組み合わせ可能性という利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供します;
  • プラットフォームに対して:モデル資産の流通と組み合わせのエコシステムを形成する;
  • ユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA、ファインチューニングモデルのオンチェーン資産化

LoRA(Low-Rank Adaptation)は、高効率のパラメータ微調整手法であり、事前学習済みの大モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルパラメータを変更することなく、トレーニングコストとストレージの要件を大幅に削減します。従来の大規模言語モデル(例えば LLaMA、GPT-3)は、通常数十億から千億のパラメータを持っています。これらを特定のタスク(例えば法律質問、医療相談)に使用するためには、微調整(fine-tuning)が必要です。LoRAの核心戦略は:「元の大モデルのパラメータを凍結し、新しく挿入されたパラメータ行列のみをトレーニングする。」そのパラメータ効率、トレーニングの速さ、デプロイの柔軟さから、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整手法です。

OpenLoRAはOpenLedgerが構築した、複数のモデル展開とリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデル展開における一般的な高コスト、低再利用、GPUリソースの無駄遣いといった問題を解決し、「支払可能なAI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール化設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要な要素をカバーし、高効率かつ低コストのマルチモデルデプロイおよび呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール (LoRAアダプターのストレージ):微調整されたLoRAアダプターはOpenLedgerにホスティングされ、オンデマンドでロードされるため、すべてのモデルを事前にVRAMにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックファイナンス
OP-4.5%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
0/400
NotAFinancialAdvicevip
· 4時間前
またカモにされるのか
原文表示返信0
rugpull_survivorvip
· 4時間前
また新しい初心者を人をカモにする機です
原文表示返信0
CompoundPersonalityvip
· 4時間前
聞こえますね自分で調べる(DYOR)
原文表示返信0
AirdropATMvip
· 4時間前
ちち、これはweb2の炒め残しではないか。
原文表示返信0
fren.ethvip
· 5時間前
イーサリアム層を統合?見物中ing
原文表示返信0
SilentObservervip
· 5時間前
フォロープロジェクトに過ぎない
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)