OpenLedger:データ駆動型のスマートエージェント経済インフラを構築する

OpenLedgerデプス研究:データ駆動型、モデル可コンポーズのエージェント経済の構築

一、引言 | Crypto AI のモデルレイヤーの躍進

データ、モデルと算力は AI インフラストラクチャの三大核心要素であり、欠かすことはできません。従来の AI 業界のインフラストラクチャの進化パスと同様に、Crypto AI 分野も同様の段階を経てきました。2024 年初頭、市場は一時的に去中心化 GPU プロジェクトが主導し、「算力を競い合う」という粗放式成長ロジックが強調されていました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移り、Crypto AI が基盤リソースの競争からより持続可能で応用価値のある中層構築へと移行することを示しています。

####ジェネラルラージモデル(LLM)とスペシャライズドモデル(SLM)

従来の大規模言語モデル(LLM)トレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は通常70B~500Bに達し、1回のトレーニングコストは数百万ドルに及ぶことが一般的です。一方で、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常オープンソースのモデルに基づき、少量の高品質な専門データやLoRAなどの技術を組み合わせて、特定の分野の知識を備えた専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させます。

注目すべきは、SLM は LLM の重みの中に統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムによる動的ルーティング、LoRA モジュールのホットスワップ、RAG(検索強化生成)などの方法で LLM と協力して動作することです。このアーキテクチャは LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と限界

Crypto AIプロジェクトは、本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は、

  • 技術的なハードルが高すぎる:Foundation Model のトレーニングに必要なデータの規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在は少数のテクノロジー大手のみがそれに相応しい能力を持っています。
  • オープンソースエコシステムの制限:主流の基盤モデルはすでにオープンソース化されていますが、モデルの突破を推進するための鍵は依然として研究機関とクローズドエンジニアリングシステムに集中しており、オンチェーンプロジェクトはコアモデル層への参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは依然として特化型言語モデル(SLM)を微調整し、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に現れます:

  • 信頼できる検証層:チェーン上にモデル生成経路、データ貢献および使用状況を記録することで、AI出力の追跡性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を奨励し、モデルのトレーニングとサービスの正のサイクルを構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

これにより、モデル型のCrypto AIプロジェクトの実行可能な落点は主に小型SLMの軽量化微調整、RAGアーキテクチャのチェーン上データ接続と検証、およびEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中・低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの寄与元を明確かつ改ざん不可能な形でブロックチェーンに記録し、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させる。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出された際に自動的に報酬の配布をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築する。さらに、コミュニティのユーザーはトークンを通じてモデルの性能を評価し、ルールの策定と改訂に参加し、分散型ガバナンス構造を改善することができる。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは、現在の市場で数少ないデータとモデルインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」という概念を初めて提唱し、公平で透明性があり、かつコンポーザブルなAI運用環境を構築することを目的としています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の利益を得ることを促進します。

OpenLedgerは「データ提供」から「モデルデプロイメント」、さらに「収益分配の呼び出し」までの全プロセスのクローズドループを提供しており、そのコアモジュールには以下が含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(アトリビューションの証明):チェーン上の呼び出し記録を通じて貢献の測定と報酬の分配を実現する;
  • Datanets:特化型シーン向けの構造化データネットワークで、コミュニティによる協力構築と検証によって成り立っています;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能で、呼び出し可能で、支払い可能なオンチェーンモデル市場。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済基盤」を構築し、AIのバリューチェーンのオンチェーン化を促進しています。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータおよび契約実行環境を構築しました。

  • OP Stackを基に構築:Optimismテクノロジースタックに基づき、高スループットと低コストでの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換:開発者がSolidityに基づいて迅速にデプロイおよび拡張するのを容易にする;
  • EigenDAはデータ可用性サポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を保証します。

いくつかのより基盤的でデータ主権を重視した汎用型 AI チェーンと比較して、OpenLedger はデータとモデルのインセンティブに特化した AI 専用チェーンの構築に焦点を当てており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のサイクルを実現することに尽力しています。これは Web3 世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用料金の請求、チェーン上での組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現の道筋を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステム下の大規模言語モデル(LLM)ファインチューニングプラットフォームです。従来のファインチューニングフレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した承認と審査のデータセットに基づいてモデルをファインチューニングできます。データの承認、モデルのトレーニングおよびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセスコントロール: ユーザーがデータリクエストを提出し、提供者が審査と承認を行い、データが自動的にモデルトレーニングインターフェースに接続される。
  • モデルの選択と設定:主流のLLMをサポートし、GUIを通じて超パラメータを設定します。
  • 軽量化微調:内蔵LoRA / QLoRAエンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵の評価ツールで、デプロイのエクスポートやエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース: チャット式のインターフェースを提供し、モデルの問答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出所の引用を伴う回答で、信頼性と監査可能性を強化します。

Model Factory のシステムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAG トレーサビリティを通じて6つの主要なモジュールで構成されており、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです。

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高い、現在最も主流なオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシーンに適しています。
  • Qwen:中文タスクのパフォーマンスが優れており、総合能力が高く、国内開発者の第一選択に適しています。
  • ChatGLM:中文の対話効果が優れており、垂直型カスタマーサービスおよびローカライズされたシーンに適しています。
  • Deepseek:コーディング生成と数学的推論に優れた性能を発揮し、スマート開発支援ツールに適しています。
  • Gemma:構造が明確で、迅速に習得し実験するのが容易です。
  • ファルコン:かつては性能のベンチマークで、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しています。
  • BLOOM:多言語サポートが強いが、推論性能が弱めで、言語カバレッジ型の研究に適している。
  • GPT-2:クラシックな初期モデルで、教育や検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていないが、その戦略は時代遅れではなく、オンチェーン展開の現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされている。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが内蔵されており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、現金化可能性、組み合わせ可能性の利点があります。従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配信、収益の完全なパスを提供;
  • プラットフォームに対して:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA、モデルのオンチェーンアセット化の微調整

LoRA(Low-Rank Adaptation)は、高効率なパラメータ微調整手法であり、事前に訓練された大規模モデルに「低秩行列」を挿入することで新しいタスクを学習します。これにより、元のモデルのパラメータを変更することなく、訓練コストとストレージ要件を大幅に削減できます。従来の大規模言語モデル(LLaMAやGPT-3など)は、通常、数十億から千億のパラメータを持っています。特定のタスク(法的質問応答や医療相談など)に使用するには、微調整(fine-tuning)が必要です。LoRAのコア戦略は「元の大規模モデルのパラメータを凍結し、挿入された新しいパラメータ行列のみを訓練する」ことです。この手法はパラメータ効率が高く、訓練が迅速で、展開が柔軟であり、現在のWeb3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAは、OpenLedgerが構築した、多モデルデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルデプロイにおける一般的な高コスト、低再利用、GPUリソースの浪費などの問題を解決し、「ペイアブルAI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルの展開と呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール (LoRAアダプターのストレージ):微調整されたLoRAアダプターはOpenLedgerにホストされ、オンデマンドでロードされるため、すべてのモデルを事前にVRAMにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックマージングレイヤー (Model Hosting & Adapter Merging Layer):すべてのファインチューニングモデルは基本大モデル(base model)を共有し、推論時にLoRAアダプタがダイナミックにマージされ、複数のアダプタの共同推論(ensemble)をサポートし、パフォーマンスを向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
  • リクエストルーターおよびトークンストリーミングモジュール (Request Router & Token Streaming):
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • 共有
コメント
0/400
SingleForYearsvip
· 4時間前
この業界の台頭を楽しみにしています
原文表示返信0
ValidatorVibesvip
· 07-29 14:27
プロジェクトは非常に有望です。
原文表示返信0
HodlNerdvip
· 07-28 21:43
AIの進化に対して強気
原文表示返信0
BlockTalkvip
· 07-28 21:42
モデル構築は今が適切な時期です
原文表示返信0
MidnightTradervip
· 07-28 21:35
モデル層の探求を加速する必要があります
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)