Pesquisa Profundidade do OpenLedger: Construindo uma economia de agentes inteligentes baseada em dados e modelos combináveis
Uma introdução | A transição de camada do modelo Crypto AI
Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, e todos são indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, que enfatizavam amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, após a chegada de 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI da competição por recursos básicos para a construção de uma camada intermediária mais sustentável e com valor aplicacional.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam entre 70B e 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste leve de um modelo base reutilizável, geralmente baseia-se em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente o custo de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-swapping de módulos LoRA, e RAG (Geração Aumentada por Recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
Os projetos de IA cripto, na sua essência, são difíceis de melhorar diretamente a capacidade central dos Modelos de Linguagem de Grande Escala (LLM), e a razão principal é que
A barreira técnica é muito alta: a escala de dados, os recursos computacionais e as capacidades de engenharia necessárias para treinar um Modelo Base são extremamente grandes, e atualmente apenas alguns gigantes da tecnologia possuem essas capacidades.
Limitações do ecossistema de código aberto: embora os modelos básicos predominantes tenham sido tornados abertos, a verdadeira chave para impulsionar os avanços dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para projetos em blockchain na camada de modelos centrais.
No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender o valor através de modelos de linguagem especializados (SLM) ajustados, combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Camada de validação confiável: através do registo em cadeia do caminho de geração do modelo, contribuições de dados e uso, aumenta a rastreabilidade e a resistência à manipulação das saídas da IA.
Mecanismo de incentivo: Com a ajuda do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos e a execução de agentes, construindo um ciclo positivo de treino e serviço de modelos.
Classificação de tipos de modelos de IA e análise da aplicabilidade na blockchain
Como pode ser visto, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos estão principalmente concentrados na afinação leve de pequenas SLMs, na integração e verificação de dados em cadeia da arquitetura RAG, assim como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da camada de interface de IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de maneira clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a confiabilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são chamados, transformando o comportamento da IA em um valor tokenizado mensurável e comercializável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.
Dois, Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de IA em blockchain focados em dados e mecanismos de incentivo a modelos no mercado atual. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter receitas em cadeia com base nas contribuições reais.
A OpenLedger oferece um ciclo fechado completo desde a "fornecimento de dados" até "implantação de modelos" e "chamadas de divisão de lucros", cujos módulos centrais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino, treinamento e implementação de modelos personalizados com base em LLM de código aberto;
OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na blockchain;
Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e verificadas por colaboração comunitária;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído sobre OP Stack: Baseado na pilha de tecnologia Optimism, suporta alta profundidade e execução de baixos custos;
Liquidação na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: Facilita o desenvolvimento e a rápida implementação e expansão com base em Solidity;
EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a algumas cadeias de IA genéricas mais voltadas para a camada base e que enfatizam a soberania dos dados, a OpenLedger foca mais na construção de uma cadeia de IA dedicada a incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia uma realização de um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, faturamento de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, modelo de fábrica sem necessidade de código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Foi realizada uma integração do fluxo de trabalho de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
Seleção e configuração de modelos: Suporta LLMs populares, configuração de hiperparâmetros através da GUI.
Ajuste leve: Motor LoRA / QLoRA embutido, mostrando o progresso do treinamento em tempo real.
Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportam exportação para implementação ou chamadas de compartilhamento ecológico.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG para rastreamento: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, interativa em tempo real e capaz de gerar receita de forma sustentável.
O quadro a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Série LLaMA: Ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos básicos de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequada para cenários com flexibilidade de implantação e recursos limitados.
Qwen: Desempenho excelente em tarefas em chinês, com forte capacidade abrangente, adequado como primeira escolha para desenvolvedores domésticos.
ChatGLM: O efeito de conversa em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta um desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Estrutura clara, fácil de pegar e experimentar rapidamente.
Falcon: Foi uma referência de desempenho, adequada para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso real.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prioridade prática".
Model Factory, como uma ferramenta sem código, tem todos os modelos equipados com um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Possui vantagens de baixa barreira, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelo;
Para os utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo de fine-tuning
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem tradicionais (como LLaMA, GPT-3) geralmente possuem bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é um framework leve de inferência desenvolvido pela OpenLedger, projetado especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "IA Pagável".
OpenLoRA arquitetura do sistema componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:
Módulo de Armazenamento de Adaptadores LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
Profundidade de Modelo e Camada de Fusão Dinâmica (Model Hosting & Adapter Merging Layer):Todos os modelos ajustados compartilham o modelo base (base model), durante a inferência, o adaptador LoRA é mesclado dinamicamente, suportando múltiplos adaptadores para inferência conjunta (ensemble), melhorando o desempenho.
Motor de Inferência (Inference Engine): integra várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV.
Módulo de Roteamento de Requisições e Streaming de Tokens (Request Router & Token Streaming):
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
5
Partilhar
Comentar
0/400
SingleForYears
· 5h atrás
Aguardo a ascensão deste setor.
Ver originalResponder0
ValidatorVibes
· 07-29 14:27
O projeto tem um grande potencial.
Ver originalResponder0
HodlNerd
· 07-28 21:43
Otimista em relação à evolução da IA
Ver originalResponder0
BlockTalk
· 07-28 21:42
É o momento certo para construir modelos
Ver originalResponder0
MidnightTrader
· 07-28 21:35
É necessário acelerar a exploração do nível do modelo
OpenLedger: Construindo uma infraestrutura econômica de agentes inteligentes orientada por dados
Pesquisa Profundidade do OpenLedger: Construindo uma economia de agentes inteligentes baseada em dados e modelos combináveis
Uma introdução | A transição de camada do modelo Crypto AI
Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, e todos são indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, que enfatizavam amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, após a chegada de 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI da competição por recursos básicos para a construção de uma camada intermediária mais sustentável e com valor aplicacional.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam entre 70B e 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste leve de um modelo base reutilizável, geralmente baseia-se em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente o custo de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-swapping de módulos LoRA, e RAG (Geração Aumentada por Recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
Os projetos de IA cripto, na sua essência, são difíceis de melhorar diretamente a capacidade central dos Modelos de Linguagem de Grande Escala (LLM), e a razão principal é que
No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender o valor através de modelos de linguagem especializados (SLM) ajustados, combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Classificação de tipos de modelos de IA e análise da aplicabilidade na blockchain
Como pode ser visto, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos estão principalmente concentrados na afinação leve de pequenas SLMs, na integração e verificação de dados em cadeia da arquitetura RAG, assim como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da camada de interface de IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de maneira clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a confiabilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são chamados, transformando o comportamento da IA em um valor tokenizado mensurável e comercializável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.
Dois, Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de IA em blockchain focados em dados e mecanismos de incentivo a modelos no mercado atual. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter receitas em cadeia com base nas contribuições reais.
A OpenLedger oferece um ciclo fechado completo desde a "fornecimento de dados" até "implantação de modelos" e "chamadas de divisão de lucros", cujos módulos centrais incluem:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a algumas cadeias de IA genéricas mais voltadas para a camada base e que enfatizam a soberania dos dados, a OpenLedger foca mais na construção de uma cadeia de IA dedicada a incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia uma realização de um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, faturamento de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, modelo de fábrica sem necessidade de código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Foi realizada uma integração do fluxo de trabalho de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, interativa em tempo real e capaz de gerar receita de forma sustentável.
O quadro a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prioridade prática".
Model Factory, como uma ferramenta sem código, tem todos os modelos equipados com um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Possui vantagens de baixa barreira, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo de fine-tuning
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem tradicionais (como LLaMA, GPT-3) geralmente possuem bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é um framework leve de inferência desenvolvido pela OpenLedger, projetado especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "IA Pagável".
OpenLoRA arquitetura do sistema componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo: