OpenLedger: побудова інфраструктури економіки агентів на основі даних

OpenLedger Глибина дослідження: побудова економіки інтелектуальних агентів, що керується даними та має можливість комбінування моделей

Одне. Вступ | Модельний рівень Crypto AI

Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, без яких не обійтися. Як і в традиційній індустрії ШІ, еволюція інфраструктури в галузі Crypto AI також пройшла подібні етапи. На початку 2024 року ринок на деякий час був під контролем децентралізованих GPU проектів, які зазвичай підкреслювали логіку грубого зростання «конкуренція потужності». А з початком 2025 року фокус в галузі поступово зміщується на рівень моделей та даних, що позначає перехід Crypto AI від конкуренції за базові ресурси до більш сталої та цінної за застосуванням середньої будівлі.

Універсальні великі моделі (LLM) проти спеціалізованих моделей (SLM)

Традиційні великі мовні моделі (LLM) в значній мірі залежать від великих наборів даних та складних розподілених архітектур, розмір параметрів часто становить від 70B до 500B, а вартість одного навчання може сягати кількох мільйонів доларів. Водночас SLM (Спеціалізована мовна модель) як легка парадигма тонкої настройки повторно використовуваних базових моделей зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі з певними знаннями у галузі, що значно знижує витрати на навчання та технічний бар'єр.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а працюватиме у співпраці з LLM через архітектуру Agent, динамічну маршрутизацію плагінів, гарячу вставку модулів LoRA, RAG (покращене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку охоплювальну здатність LLM, а також посилює професійні показники за рахунок модуля тонкого налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.

Цінність і межі Crypto AI на рівні моделей

Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому, що

  • Технічний поріг занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише кілька технологічних гігантів мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі вже відкриті, справжній прорив моделей все ще зосереджений на науково-дослідних установах та закритих інженерних системах, а участь блокчейн-проектів на рівні основних моделей обмежена.

Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть досягати розширення вартості за рахунок тонкого налаштування спеціалізованих мовних моделей (SLM) та поєднання перевіряємості та механізмів стимулювання Web3. Як «периферійний інтерфейс» в індустрії штучного інтелекту, це втілюється в двох основних напрямках:

  • Достовірний верифікаційний рівень: шляхом запису на ланцюзі шляху генерації моделі, внесків даних та їх використання, посилюється відстежуваність та стійкість до підробок виходів AI.
  • Механізм стимулювання: за допомогою рідного токена, що використовується для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) та інших дій, створюється позитивний цикл навчання моделей та обслуговування.

Класифікація типів AI моделей та аналіз придатності до блокчейну

Отже, можна зробити висновок, що практична реалізація проектів класу Crypto AI зосереджена в основному на легкій настройці малих SLM, підключенні та верифікації даних на блокчейні в архітектурі RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Завдяки перевірюваності блокчейну та токенізованій механіці, Crypto може надати унікальну цінність для цих сценаріїв з обмеженими ресурсами, створюючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних та моделей може чітко та незмінно реєструвати джерела внеску кожної даних та моделі в блокчейн, що суттєво підвищує достовірність даних і простежуваність навчання моделей. Одночасно, завдяки механізму смарт-контрактів, автоматично активується розподіл винагород при виклику даних або моделей, перетворюючи дії AI на вимірювану, торгівельну токенізовану цінність, що створює стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей, беручи участь у голосуванні токенами, а також брати участь у формуванні правил та ітерацій, вдосконалюючи децентралізовану управлінську структуру.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI ланцюга OpenLedger

OpenLedger є одним з небагатьох блокчейн AI проектів на ринку, що зосереджується на механізмах стимулювання даних і моделей. Він вперше запропонував концепцію «Payable AI», що має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, заохочуючи учасників, які надають дані, розробників моделей та творців AI додатків співпрацювати на одній платформі і отримувати доходи на базі фактичного внеску.

OpenLedger пропонує повний ланцюг замикання від «надання даних» до «розгортання моделей» і «виклику розподілу прибутку», його основні модулі включають:

  • Модельна фабрика: без програмування, можна використовувати LoRA для тонкої настройки, навчання та розгортання користувацьких моделей на основі відкритих LLM;
  • OpenLoRA: підтримка спільного існування тисячі моделей, динамічна завантаження за потреби, значне зниження витрат на розгортання;
  • PoA (Доказ атрибуції): реалізація вимірювання внеску та розподілу винагород через виклики на ланцюгу;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, що будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінований, викликаємий, платіжний ринковий простір моделей на блокчейні.

За допомогою зазначених модулів OpenLedger створила «інфраструктуру економіки агентів», що базується на даних і є моделлю, яка може комбінуватися, сприяючи оновленню ціннісного ланцюга AI.

А в прийнятті технології блокчейну OpenLedger використовує OP Stack + EigenDA як основу, щоб створити високопродуктивне, низькостанне та перевіряємо середовище для виконання даних і контрактів для AI моделей.

  • Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: Забезпечте безпеку угод та цілісність активів;
  • EVM сумісність: зручне для розробників швидке розгортання та розширення на основі Solidity;
  • EigenDA надає підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечує перевірюваність даних.

У порівнянні з деякими більш базовими, орієнтованими на суверенітет даних загальними AI ланцюгами, OpenLedger більше зосереджений на створенні AI спеціалізованого ланцюга, спрямованого на мотивацію даних і моделей, прагнучи забезпечити, щоб розробка та виклик моделей реалізовувалися на ланцюгу з можливістю відстеження, комбінування та стійкого ціннісного циклу. Це інфраструктура мотивації моделей у світі Web3, яка поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на ланцюгу, що сприяє реалізації «моделі як активу».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три. Основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодова модельна фабрика

ModelFactory є великою платформою для тонкої налаштування мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої налаштування, ModelFactory пропонує чистий графічний інтерфейс без необхідності в командному рядку або інтеграції API. Користувачі можуть налаштовувати моделі на основі даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес, що включає авторизацію даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач надсилає запит на дані, постачальник розглядає та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: Підтримка основних LLM, налаштування гіперпараметрів через GUI.
  • Легка настройка: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в реальному часі.
  • Оцінка та розгортання моделі: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного використання.
  • Інтерфейс взаємодії для перевірки: надає чат-інтерфейс для зручного тестування здатності моделі відповідати на запитання.
  • Генерація RAG з можливістю відстеження: відповіді з посиланнями на джерела, що підвищують довіру та можливість аудиту.

Архітектура системи Model Factory складається з шести основних модулів, що охоплюють аутентифікацію особи, управління даними, тонке налаштування моделей, оцінку та впровадження, а також відстеження RAG, створюючи інтегровану платформу модельних послуг, що забезпечує безпеку, контрольованість, взаємодію в реальному часі та стійке монетизування.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

Модельна фабрика наразі підтримує такі можливості великих мовних моделей:

  • LLaMA серії: має найширшу екосистему, активну спільноту та потужні загальні характеристики, є одним з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: китайські завдання виконуються відмінно, загальні можливості сильні, підходить для вибору вітчизняних розробників.
  • ChatGLM: китайський діалог має яскраві результати, підходить для вертикальних служб підтримки та локалізованих сценаріїв.
  • Deepseek: Виявляє перевагу в генерації коду та математичному висновку, підходить для інструментів підтримки інтелектуальної розробки.
  • Gemma: Чітка структура, легко швидко освоїти та експериментувати.
  • Falcon: колись був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
  • BLOOM: Підтримка кількох мов досить сильна, але продуктивність висновків слабша, підходить для досліджень з охоплення мов.
  • GPT-2: класична рання модель, підходить лише для навчальних та верифікаційних цілей, не рекомендується для фактичного розгортання.

Хоча модельний набір OpenLedger не містить останні високопродуктивні моделі MoE або мультимодальні моделі, його стратегія не застаріла, а є «практично орієнтованою» конфігурацією, що ґрунтується на реальних обмеженнях, пов'язаних з ончейн-технологіями (витрати на інференцію, адаптація RAG, сумісність LoRA, середовище EVM).

Model Factory як безкодова інструментальна ланцюг, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінування, порівняно з традиційними інструментами розробки моделей:

  • Для розробників: забезпечення повного шляху для інкубації, розподілу та доходу моделі;
  • Для платформи: формування екосистеми обігу та комбінації модельних активів;
  • Для застосунків: можна комбінувати моделі або агентів так само, як виклик API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, ончейн-активізація моделі налаштування

LoRA (Низькорангова адаптація) є ефективним методом мікронастроювання параметрів, який навчає нові завдання шляхом вставлення «низькорангових матриць» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як правові запитання, медичні консультації), необхідно провести мікронастроювання. Основна стратегія LoRA полягає в тому, що: «заморожуються параметри оригінальної великої моделі, а нові параметричні матриці, які вставляються, навчаються». Це параметрично ефективно, швидко навчається і гнучко впроваджується, тому є найкращим методом мікронастроювання для розгортання та комбінованого виклику моделей Web3.

OpenLoRA є легковаговою системою інференції, створеною OpenLedger, спеціально розробленою для розгортання кількох моделей і спільного використання ресурсів. Її основна мета полягає в тому, щоб вирішити поширені проблеми високих витрат, низької повторюваності та марнотратства GPU-ресурсів при розгортанні AI-моделей, сприяючи реалізації «платіжного AI» (Payable AI).

OpenLoRA система архітектури основних компонентів, заснована на модульному дизайні, охоплює зберігання моделей, виконання висновків, маршрутизацію запитів та інші ключові етапи, що забезпечує ефективні та маловартісні можливості розгортання та виклику кількох моделей:

  • LoRA адаптер зберігання (LoRA адаптери зберігання): Налаштований LoRA адаптер розміщується на OpenLedger, що дозволяє завантажувати його за потребою, уникаючи попереднього завантаження всіх моделей в пам'ять, що економить ресурси.
  • Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі модифіковані моделі використовують базову велику модель (base model), під час інференції динамічно об'єднуються LoRA адаптери, підтримується спільна інференція кількох адаптерів (ensemble), що підвищує продуктивність.
  • Інференційний двигун (Inference Engine): інтегрує кілька технологій оптимізації CUDA, таких як Flash-Attention, Paged-Attention та SGMV оптимізація.
  • Запит маршрутизатора та модуль потокового виводу (Request Router & Token Streaming):
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
SingleForYearsvip
· 07-30 19:54
Очікую на зростання цієї галузі
Переглянути оригіналвідповісти на0
ValidatorVibesvip
· 07-29 14:27
Проект має перспективи.
Переглянути оригіналвідповісти на0
HodlNerdvip
· 07-28 21:43
Оптимістично налаштований щодо еволюції ШІ
Переглянути оригіналвідповісти на0
BlockTalkvip
· 07-28 21:42
Час будувати модель
Переглянути оригіналвідповісти на0
MidnightTradervip
· 07-28 21:35
Необхідно прискорити дослідження рівня моделі
Переглянути оригіналвідповісти на0
  • Закріпити