OpenLedger: Construyendo infraestructura económica de agentes inteligentes impulsada por datos

OpenLedger Profundidad investigación: construir una economía de agentes inteligentes impulsada por datos y modelos combinables

Uno, Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y no se puede prescindir de ninguno. Al igual que la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido trasladando gradualmente hacia las capas de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio con mayor sostenibilidad y valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar una vez puede alcanzar varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de un modelo base reutilizable, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos especializados de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos que poseen conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras tecnológicas.

Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de Agent, el enrutamiento dinámico del sistema de plugins, la conexión en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura conserva la capacidad de cobertura amplia de LLM, mientras que el módulo de ajuste fino mejora el rendimiento profesional, formando un sistema inteligente combinado altamente flexible.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que

  • La barrera técnica es demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería requeridos para entrenar un Modelo de Fundación son extremadamente grandes, y actualmente solo unas pocas grandes empresas tecnológicas tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: Aunque los modelos de base más importantes se han abierto, la clave para impulsar verdaderamente los avances en los modelos sigue concentrándose en las instituciones de investigación y en los sistemas de ingeniería de código cerrado, el espacio de participación de los proyectos en cadena en la capa de modelos centrales es limitado.

Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender el valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la IA, se manifiesta en dos direcciones centrales:

  • Capa de verificación confiable: a través del registro en la cadena del camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de la salida de IA.
  • Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar acciones como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio del modelo.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain

Por lo tanto, se puede ver que los puntos viables de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la afinación ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de IA.

La cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se accede a los datos o modelos, transformando el comportamiento de la IA en un valor tokenizado que es medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo a través de votaciones con tokens, participar en la formulación de reglas y en su iteración, perfeccionando así la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dos, Resumen del Proyecto | La visión de la cadena de IA de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue pionero en el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de AI justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener beneficios en cadena según su contribución real.

OpenLedger proporciona un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada de reparto de beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, se pueden utilizar LLM de código abierto para entrenar y desplegar modelos personalizados con ajuste fino LoRA;
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica según demanda, reduciendo significativamente los costos de implementación;
  • PoA (Prueba de Atribución): medir la contribución y distribuir recompensas a través del registro de llamadas en la cadena;
  • Datanets: Red de datos estructurados orientada a escenarios verticales, construida y verificada por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es componible, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes" impulsada por datos y modelado combinable, promoviendo la cadena de valor de la IA hacia la cadena de bloques.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • EVM compatible: facilita a los desarrolladores implementar y expandir rápidamente sobre Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con algunas cadenas de IA genéricas más centradas en la capa base y que promueven la soberanía de los datos, OpenLedger se enfoca más en construir cadenas de IA especializadas orientadas a incentivos de datos y modelos, dedicándose a lograr que el desarrollo y la llamada de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando alojamiento de modelos, facturación de uso e interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelo como activo".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sin código

ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala dentro del ecosistema de OpenLedger. A diferencia de los marcos tradicionales de ajuste fino, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento del modelo y su implementación, cuyo proceso central incluye:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de vanguardia, configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: herramientas de evaluación integradas, que admiten la exportación de despliegue o la llamada de compartición ecológica.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de trazabilidad RAG: Respuestas con citas de origen que mejoran la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación, implementación y rastreo RAG, creando una plataforma de servicios de modelos integrada que es segura y controlable, interactiva en tiempo real y sostenible en su monetización.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:

  • Serie LLaMA: el ecosistema más amplio, comunidad activa y rendimiento general fuerte, es uno de los modelos de base de código abierto más populares en la actualidad.
  • Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuada para escenarios con despliegue flexible y recursos limitados.
  • Qwen: Tarea en chino con un rendimiento sobresaliente, capacidad integral fuerte, adecuada como primera opción para desarrolladores nacionales.
  • ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: Se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: Estructura clara, fácil de manejar y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura lingüística.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementaciones reales.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no es obsoleta, sino que se basa en las restricciones reales de implementación en la cadena (costos de razonamiento, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".

Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para desarrolladores: proporcionar una ruta completa para la incubación, distribución e ingresos de modelos;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos del modelo;
  • Para los usuarios: se pueden combinar modelos o agentes de la misma manera que se llama a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en la cadena del modelo de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros originales del modelo, lo que reduce significativamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar la nueva matriz de parámetros insertada." Su eficiencia en parámetros, rápido entrenamiento y flexibilidad en el despliegue lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el uso compartido de recursos. Su objetivo principal es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, y promover la ejecución de la "IA pagable" (Payable AI).

Componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, que cubren aspectos clave como el almacenamiento de modelos, la ejecución de inferencias y el enrutamiento de solicitudes, logrando capacidades de implementación y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de Almacenamiento de Adaptadores LoRA ( Almacenamiento de Adaptadores LoRA ): el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video, ahorrando recursos.
  • Capa de Alojamiento de Modelos y Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos ajustados utilizan el modelo base (base model), durante la inferencia se fusionan dinámicamente los adaptadores LoRA, soportando la inferencia conjunta de múltiples adaptadores (ensemble), mejorando el rendimiento.
  • Motor de Inferencia (Inference Engine): integra múltiples tecnologías de optimización CUDA, como Flash-Attention, Paged-Attention y SGMV.
  • Módulo de enrutamiento de solicitudes y salida de flujo (Request Router & Token Streaming):
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
SingleForYearsvip
· 07-30 19:54
Espero que esta pista se eleve.
Ver originalesResponder0
ValidatorVibesvip
· 07-29 14:27
El proyecto tiene un gran potencial.
Ver originalesResponder0
HodlNerdvip
· 07-28 21:43
Optimista sobre la evolución de la IA
Ver originalesResponder0
BlockTalkvip
· 07-28 21:42
Es el momento adecuado para la construcción de modelos
Ver originalesResponder0
MidnightTradervip
· 07-28 21:35
Es necesario acelerar la exploración de la capa del modelo.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)