OpenLedger crea infraestructura económica basada en inteligencia para construir un ecosistema de incentivos de modelos de IA verificables y confiables.

Informe de investigación en profundidad de OpenLedger: construir una economía de agentes impulsada por datos y modelos combinables sobre la base de OP Stack+EigenDA

Uno, Introducción | La transición en la capa de modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), ninguno de los cuales puede faltar. Al igual que la trayectoria de evolución de la infraestructura en la industria de la IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, que enfatizaban la lógica de crecimiento extensivo "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se desplazó gradualmente hacia los niveles de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio con mayor sostenibilidad y valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje tradicionales (LLM) dependen en gran medida de grandes conjuntos de datos y arquitecturas distribuidas complejas, con un tamaño de parámetros que oscila entre 70B y 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste ligero de un modelo base reutilizable, que generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos específicos del campo, reduciendo significativamente los costos de entrenamiento y la barrera técnica.

Es importante destacar que SLM no se integra en los pesos de LLM, sino que colabora con LLM a través de la arquitectura Agent, el sistema de plugins, el enrutamiento dinámico, la conexión en caliente del módulo LoRA y RAG (Generación Aumentada por Recuperación). Esta arquitectura mantiene la capacidad de amplia cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinatorio de alta flexibilidad.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grandes (LLM), y la razón principal es que

  • Barrera técnica demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundacional son extremadamente grandes, y actualmente solo las grandes tecnológicas de EE. UU. y China poseen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque modelos básicos como LLaMA y Mixtral han sido de código abierto, la clave para impulsar avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.

Sin embargo, sobre los modelos base de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de producción de IA, se manifiesta en dos direcciones centrales:

  • Capa de verificación confiable: a través de registros en la cadena que documentan el camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de la salida de IA.
  • Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar la carga de datos, la llamada a modelos, la ejecución de agentes, etc., construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain

Como se puede ver, los puntos viables de los proyectos de tipo Crypto AI se concentran principalmente en la optimización ligera de SLM de pequeño tamaño, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos bajos y medianos, formando un valor diferencial en la "capa de interfaz" de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar claramente y de manera inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cada vez que se utilizan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y comerciable, estableciendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dos, descripción del proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de IA en blockchain que se centra en los mecanismos de incentivos de datos y modelos en el mercado actual. Fue pionero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y composable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en la cadena según su contribución real.

OpenLedger proporciona un ciclo cerrado completo desde "provisión de datos" hasta "despliegue de modelos" y luego hasta "llamada de distribución de beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: No se requiere programación, se pueden usar LLM de código abierto para el ajuste fino y despliegue de modelos personalizados con LoRA;
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): mediante el registro de llamadas en la cadena se logra la medición de contribuciones y la distribución de recompensas;
  • Datanets: redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en la cadena que es combinable, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y combinable en modelos, promoviendo la cadena de valor de IA en la cadena.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatibilidad con EVM: Facilita a los desarrolladores desplegar y extender rápidamente con Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA genéricas como NEAR, que se centran más en la capa base y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas a incentivos de datos y modelos, comprometida en lograr que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación de uso al estilo de Stripe y las interfaces combinables en la cadena al estilo de Infura, impulsando el camino hacia "el modelo como activo".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura tecnológica de OpenLedger

3.1 Modelo de Fábrica, modelo de fábrica sin necesidad de código

ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y su implementación, cuyo proceso central incluye:

  • Control de acceso a datos: El usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de vanguardia (como LLaMA, Mistral), configura los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: herramienta de evaluación incorporada, admite la exportación para despliegue o llamada compartida en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de trazabilidad RAG: Respuestas con citas de origen, mejorando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura y controlada, con interacción en tiempo real y capacidad de monetización sostenible.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los modelos de lenguaje grandes que actualmente admite ModelFactory:

  • Serie LLaMA: el ecosistema más amplio, comunidad activa y un rendimiento general fuerte, es uno de los modelos de base de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de despliegue flexible y recursos limitados.
  • Qwen: Producto de Alibaba, con un excelente rendimiento en tareas en chino, capacidad integral fuerte, ideal para ser la primera opción de los desarrolladores nacionales.
  • ChatGLM: el efecto de conversación en chino es sobresaliente, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: modelo ligero lanzado por Google, con una estructura clara, fácil de aprender y experimentar rápidamente.
  • Falcon: Fue un estándar de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento ni modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones de implementación en la cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración "prioritaria de la practicidad".

Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetizable y combinable, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los aplicadores: se pueden combinar modelos o Agentes de la misma manera que se llama a la API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en la cadena de modelos ajustados

LoRA (Low-Rank Adaptation) es un método de ajuste fino de parámetros eficiente, que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, rapidez de entrenamiento y flexibilidad de implementación la convierten en el método de ajuste fino más adecuado para la implementación y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "AI Pagable".

OpenLoRA sistema arquitectónico de componentes centrales, basado en diseño modular, cubriendo el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento de adaptadores LoRA ( Almacenamiento de adaptadores LoRA ): El adaptador LoRA ajustado se aloja en OpenLedger, permitiendo carga bajo demanda, evitando la precarga de todos los modelos en la memoria gráfica y ahorrando recursos.
  • Alojamiento de modelos y financiación dinámica
OP2.29%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
NotAFinancialAdvicevip
· hace20h
Otra vez vienen a tomar a la gente por tonta.
Ver originalesResponder0
rugpull_survivorvip
· hace20h
Otra vez la máquina de tomar a la gente por tonta nueva
Ver originalesResponder0
CompoundPersonalityvip
· hace20h
Escuchar suena haga su propia investigación (DYOR)
Ver originalesResponder0
AirdropATMvip
· hace20h
Tsk tsk, esto no es más que lo que quedó del web2.
Ver originalesResponder0
fren.ethvip
· hace20h
¿Integrar la capa de Ethereum? Mirando el espectáculo.
Ver originalesResponder0
SilentObservervip
· hace20h
Solo un proyecto de seguir la tendencia.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)