OpenLedger Depth Recherche : Construire une économie d'agents intelligents axée sur les données et modélisable.
Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, aucun ne peut être omis. Comme pour l'évolution de l'infrastructure dans l'industrie AI traditionnelle, le domaine du Crypto AI a également traversé des étapes similaires. Au début de 2024, le marché a été largement dominé par des projets de GPU décentralisés, mettant l'accent sur une logique de croissance extensive de « compétition de puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition du Crypto AI d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur d'application.
Modèle général (LLM) vs modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une taille de paramètres allant de 70B à 500B, et le coût d'une formation peut souvent atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-ajustement léger basé sur un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des techniques comme LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances dans des domaines spécifiques, réduisant ainsi considérablement le coût de formation et le seuil technique.
Il convient de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, l'insertion à chaud des modules LoRA, et RAG (génération améliorée par la recherche). Cette architecture conserve la capacité de large couverture de LLM tout en renforçant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de l'IA crypto au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technique trop élevée : l'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et actuellement, seules quelques grandes entreprises technologiques disposent des capacités correspondantes.
Limites de l'écosystème open source : Bien que les modèles de base principaux soient désormais open source, la clé pour faire progresser ces modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.
Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Couche de validation fiable : en enregistrant sur la chaîne le chemin de génération du modèle, la contribution des données et l'utilisation, elle renforce la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents (Agent) et d'autres actions, construisant un cycle positif de formation et de service des modèles.
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points d'ancrage viables des projets Crypto AI de type modèle se concentrent principalement sur l'allégement et le réglage fin des SLM de petite taille, l'intégration et la vérification des données en chaîne dans une architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de jetons, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
Une chaîne de blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable la source des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrats intelligents, une distribution automatique de récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant ainsi un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de la gouvernance décentralisée.
Deux, aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation basés sur les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et modulable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » en passant par « appel de partage des bénéfices », ses modules principaux comprennent :
Model Factory : sans programmation, vous pouvez utiliser LoRA pour le fine-tuning et le déploiement de modèles personnalisés basés sur LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : Mesure de contribution et distribution de récompenses réalisée par des appels en chaîne.
Datanets : Réseau de données structurées orienté vers des scénarios verticaux, construit et validé par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne combinables, appelables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents intelligents » basée sur des données et des modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Construit sur OP Stack : Basé sur la pile technologique Optimism, supportant un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA fournit un support de disponibilité des données : réduction significative des coûts de stockage, garantissant la vérifiabilité des données.
Comparé à certains blockchains AI généralistes, axés sur la souveraineté des données, OpenLedger se concentre davantage sur la construction de chaînes dédiées à l'IA, orientées vers l'incitation des données et des modèles, s'efforçant de permettre un développement et un appel de modèles réalisables sur la chaîne avec une boucle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant hébergement de modèles, facturation d'utilisation et interfaces combinables sur la chaîne, poussant vers la réalisation du concept "modèle en tant qu'actif".
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Usine de Modèles, usine de modèles sans code
ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement du modèle et le déploiement, dont les processus clés incluent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
Sélection et configuration du modèle : prend en charge les LLM courants, configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de l'avancement de l'entraînement.
Évaluation et déploiement du modèle : Outils d'évaluation intégrés, supportant l'exportation pour le déploiement ou le partage d'appel dans l'écosystème.
Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de réponse du modèle.
Génération de traçabilité RAG : Réponses avec référence de source, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, avec des interactions en temps réel et un potentiel de monétisation durable.
Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Série LLaMA : l'écosystème le plus vaste, une communauté active et de fortes performances générales, c'est l'un des modèles de base open source les plus courants actuellement.
Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios de déploiement flexibles et aux ressources limitées.
Qwen : Excellente performance dans les tâches en chinois, compétences complètes, idéal pour les développeurs nationaux.
ChatGLM : Les performances en conversation en chinois sont remarquables, adaptées aux services clients de niche et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : structure claire, facile à prendre en main et à expérimenter.
Falcon : Anciennement une référence en performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : un soutien multilingue fort, mais des performances d'inférence faibles, adapté à la recherche sur la couverture linguistique.
GPT-2 : modèle classique précoce, adapté uniquement à des fins pédagogiques et de validation, non recommandé pour une utilisation en déploiement réel.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la pratique » basée sur les contraintes réalistes du déploiement sur la chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modèles ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme vous le feriez avec une API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques ou les consultations médicales), il est nécessaire de procéder à un réglage fin. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et ne former que la nouvelle matrice de paramètres insérée. », ses paramètres étant efficaces, son entraînement rapide et son déploiement flexible, c'est la méthode de réglage fin la plus appropriée pour le déploiement et l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécialement pour le déploiement de plusieurs modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture composants clés, basé sur une conception modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des demandes et d'autres étapes clés, réalisant une capacité de déploiement et d'appel multi-modèles efficace et à faible coût :
Module de stockage LoRA Adapter (LoRA Adapters Storage) : Les adaptateurs LoRA affinés sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
Hébergement de modèle et couche de fusion dynamique (Model Hosting & Adapter Merging Layer) : tous les modèles adaptés partagent le modèle de base (base model), lors de l'inférence, les adaptateurs LoRA se fusionnent dynamiquement, supportant plusieurs adaptateurs pour une inférence conjointe (ensemble), améliorant les performances.
Moteur d'inférence (Inference Engine) : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
Module de routage des requêtes et de diffusion de jetons (Request Router & Token Streaming):
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 J'aime
Récompense
17
5
Partager
Commentaire
0/400
SingleForYears
· Il y a 5h
J'attends l'essor de ce secteur.
Voir l'originalRépondre0
ValidatorVibes
· 07-29 14:27
Le projet a un bon potentiel.
Voir l'originalRépondre0
HodlNerd
· 07-28 21:43
Optimiste sur l'évolution de l'IA
Voir l'originalRépondre0
BlockTalk
· 07-28 21:42
C'est le moment de construire des modèles.
Voir l'originalRépondre0
MidnightTrader
· 07-28 21:35
Il est nécessaire d'accélérer l'exploration du niveau du modèle.
OpenLedger : construire une infrastructure économique d'agents intelligents basée sur les données
OpenLedger Depth Recherche : Construire une économie d'agents intelligents axée sur les données et modélisable.
Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, aucun ne peut être omis. Comme pour l'évolution de l'infrastructure dans l'industrie AI traditionnelle, le domaine du Crypto AI a également traversé des étapes similaires. Au début de 2024, le marché a été largement dominé par des projets de GPU décentralisés, mettant l'accent sur une logique de croissance extensive de « compétition de puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition du Crypto AI d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur d'application.
Modèle général (LLM) vs modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une taille de paramètres allant de 70B à 500B, et le coût d'une formation peut souvent atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-ajustement léger basé sur un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des techniques comme LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances dans des domaines spécifiques, réduisant ainsi considérablement le coût de formation et le seuil technique.
Il convient de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, l'insertion à chaud des modules LoRA, et RAG (génération améliorée par la recherche). Cette architecture conserve la capacité de large couverture de LLM tout en renforçant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de l'IA crypto au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points d'ancrage viables des projets Crypto AI de type modèle se concentrent principalement sur l'allégement et le réglage fin des SLM de petite taille, l'intégration et la vérification des données en chaîne dans une architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de jetons, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
Une chaîne de blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable la source des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrats intelligents, une distribution automatique de récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant ainsi un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de la gouvernance décentralisée.
Deux, aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation basés sur les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et modulable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » en passant par « appel de partage des bénéfices », ses modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents intelligents » basée sur des données et des modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Comparé à certains blockchains AI généralistes, axés sur la souveraineté des données, OpenLedger se concentre davantage sur la construction de chaînes dédiées à l'IA, orientées vers l'incitation des données et des modèles, s'efforçant de permettre un développement et un appel de modèles réalisables sur la chaîne avec une boucle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant hébergement de modèles, facturation d'utilisation et interfaces combinables sur la chaîne, poussant vers la réalisation du concept "modèle en tant qu'actif".
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Usine de Modèles, usine de modèles sans code
ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement du modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement du modèle et le déploiement, dont les processus clés incluent :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, avec des interactions en temps réel et un potentiel de monétisation durable.
Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la pratique » basée sur les contraintes réalistes du déploiement sur la chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques ou les consultations médicales), il est nécessaire de procéder à un réglage fin. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et ne former que la nouvelle matrice de paramètres insérée. », ses paramètres étant efficaces, son entraînement rapide et son déploiement flexible, c'est la méthode de réglage fin la plus appropriée pour le déploiement et l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécialement pour le déploiement de plusieurs modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture composants clés, basé sur une conception modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des demandes et d'autres étapes clés, réalisant une capacité de déploiement et d'appel multi-modèles efficace et à faible coût :