La formation IA devient 10 fois plus rapide, 95 % moins chère avec une stratégie décentralisée de 0GgettyUn changement silencieux dans les fondements de l'intelligence artificielle (IA) pourrait être en cours, et cela ne se produit pas dans un centre de données hyperscale.
0G Labs, le premier protocole d'IA décentralisé (AIP), en collaboration avec China Mobile, a récemment annoncé une avancée technique qui pourrait avoir de vastes implications pour la façon dont les entreprises accèdent et déploient de grands modèles de langage. Leur innovation est une nouvelle méthode d'entraînement de modèles d'IA massifs avec plus de 100 milliards de paramètres, sans avoir besoin de l'internet ultra-rapide ou d'une infrastructure centralisée coûteuse généralement requise.
À première vue, cela pourrait sembler être une victoire pour le monde de l'ingénierie.
Mais la véritable histoire est économique et stratégique. Ce que 0G Labs a réalisé pourrait réduire le coût de construction de l'IA, redonner plus de contrôle aux entreprises et ouvrir la porte à de nouveaux acteurs pour entrer dans le domaine.
Ce que cela signifie pour la formation de l'IA
Pour comprendre le changement, il est utile de revenir sur la manière dont les modèles d'IA à grande échelle sont actuellement entraînés.
Des modèles comme GPT-4 d'OpenAI ou Claude d'Anthropic nécessitent une vaste puissance de calcul et un débit réseau important. Traditionnellement, cela signifie les entraîner sur de puissants GPU connectés à travers des centres de données centralisés à haute vitesse, détenus ou loués par des entreprises comme Amazon Web Services, Google Cloud ou Microsoft Azure.
Ces chiffres reflètent la formation basée sur le cloud centralisé ou les centres de données hyperscale — nécessitant d'énormes clusters de GPU, des réseaux à large bande et des millions en coûts matériels et de personnel. Sandy Carter Au début de 2025, la direction d'OpenAI, y compris Sam Altman, a déclaré publiquement que la formation de GPT-4 avait coûté plus de 100 millions de dollars. Cela est soutenu à la fois par des déclarations officielles et plusieurs modèles de coûts dans des rapports récents d'analyse de l'IA. C'est un modèle qui exige des capitaux, des talents et une infrastructure que peu d'organisations peuvent se permettre.
PLUS POUR VOUS## 0G Labs remet en question cette hypothèse pour la formation de l'IA
Leur nouveau cadre publié, appelé DiLoCoX, introduit une méthode d'entraînement à faible communication qui réduit considérablement le besoin de connectivité à large bande. En termes pratiques, ils ont réussi à entraîner un modèle de 107 milliards de paramètres sur un réseau de 1 Gbps en utilisant des clusters décentralisés. Ce record représente une amélioration de 10 fois par rapport au précédent record et la percée de 300 fois qui a rendu cela possible pour la première fois. C'est à peu près la bande passante d'une connexion Internet de bureau typique.
Au lieu de construire tout dans un énorme centre de calcul, leur approche relie ensemble des machines plus petites et distribuées et optimise la façon dont l'information est partagée entre elles. Le résultat est une méthode hautement évolutive et rentable pour entraîner des modèles massifs en dehors du cloud traditionnel.
Champion de l'IA décentralisée de 0G labs. Le fondateur et PDG, Michael Heinrich, commente les avancées dans la formation de l'IA.0G Labs En s'adressant au fondateur et PDG de 0G labs, Michael Heinrich, il a déclaré : « DiLoCoX marque une étape décisive dans la démocratisation de la formation LLM : comblant le fossé entre les modèles de base massifs et les clusters décentralisés connectés par des réseaux lents et peu fiables. En combinant le parallélisme de pipeline, le chevauchement de communication tolérant aux délais et la compression de gradient adaptative, le cadre offre une échelle et une vitesse auparavant considérées comme exclusives aux centres de données à large bande. Cela ouvrira une nouvelle ère où la formation de l'IA à grande échelle ne sera plus liée à une infrastructure centralisée."
Pourquoi la formation en IA est-elle importante pour les entreprises
À une époque où chaque entreprise est sous pression pour faire plus avec l'IA, l'infrastructure devient rapidement le goulot d'étranglement. Certaines entreprises commencent à envisager l'IA décentralisée par conception. Construire de grands modèles reste coûteux, exclusif et largement limité aux entreprises disposant de ressources importantes ou de partenariats stratégiques dans le cloud. La percée de 0G ouvre une troisième voie.
Ce n'est pas seulement une histoire d'économies de coûts. C'est une histoire d'optionnalité et de contrôle.
1. Abaisser la Barrière à l'Entrée
L'approche de DiLoCoX réduit l'infrastructure jusqu'à 95 % nécessaire pour participer à la course LLM.
Pour les startups, cela signifie la capacité d'expérimenter et de se développer sans brûler de capital-risque sur les dépenses en GPU.
Pour les entreprises de taille intermédiaire, cela offre la possibilité de former des modèles en interne sans faire de gros engagements dans le cloud.
Pour les gouvernements et les laboratoires de recherche, cela signifie un développement des capacités d'IA plus accessible et souverain.
2. Indépendance stratégique vis-à-vis des hyperscalers
La plupart des formations en IA aujourd'hui dépendent de trois fournisseurs de cloud.
Cette concentration comporte des risques en termes d'escalade des coûts, de dépendance aux fournisseurs et de conformité. Si votre entreprise dépend de l'IA mais opère également dans un secteur sensible comme la santé, la défense ou la finance, la capacité de former ou d'ajuster des modèles de manière indépendante devient un puissant levier stratégique.
L'IA décentralisée offre une voie vers l'autonomie numérique. En brisant l'hypothèse selon laquelle l'IA de pointe doit être formée à l'intérieur de plateformes cloud centralisées, le modèle de 0G crée de nouvelles possibilités de concurrence et d'innovation.
3. S'aligner sur les besoins en matière de confidentialité des données et de conformité
De nombreuses entreprises sont prudentes quant au téléchargement de données propriétaires sur des modèles ou des environnements de formation basés sur le cloud. Avec l'entraînement décentralisé, il devient possible de garder les données localement dans la juridiction, derrière le pare-feu, ou même sur des dispositifs en périphérie tout en participant au développement de l'IA à grande échelle. Cela est particulièrement attrayant dans les régions ayant des lois strictes sur la souveraineté des données telles que l'Union européenne ou des pays construisant leurs propres écosystèmes d'IA. Le réseau 0G ne voit jamais aucune des données privées.
4. Accélérer l'innovation sur les marchés mal desservis
Le coût élevé d'entrée a tenu de nombreux pays et industries à l'écart du développement de l'IA avancée.
DiLoCoX abaisse ce seuil.
Une université au Kenya, un fournisseur de télécommunications en Asie du Sud-Est, ou une banque régionale en Amérique latine n'ont peut-être pas accès aux mêmes capacités de calcul que la Silicon Valley, mais ils pourraient bientôt disposer des outils nécessaires pour former et déployer leurs systèmes intelligents sur l'infrastructure existante.
5. Risques géopolitiques et réglementaires
Bien que l'accomplissement technique soit impressionnant, l'implication de China Mobile soulève des questions.
Alors que les tensions entre les États-Unis et la Chine continuent d'escalader en raison de la domination technologique et de la sécurité nationale, les entreprises doivent peser les potentielles exigences réglementaires, les préoccupations en matière de gouvernance des données et les risques réputationnels associés aux partenariats impliquant des entités affiliées à l'État chinois.
Pour les entreprises basées aux États-Unis ou opérant sur des marchés alliés, toute intégration d'infrastructure ou de recherche liée à la Chine pourrait faire face à des contrôles à l'exportation, des restrictions légales ou des réactions publiques. Les organisations explorant des solutions d'IA décentralisées devront prendre en compte non seulement la performance et le coût, mais aussi l'alignement politique, les cadres de conformité et la viabilité à long terme.
Cependant, avoir DiLoCoX sur une infrastructure décentralisée où le réseau est sans confiance, ce n'est pas un souci car China Mobile ne voit jamais vos données, et le système ne dépend pas d'eux pour les résultats.
Restructuration du modèle commercial de l'IA
Si DiLoCoX est largement adopté, cela pourrait créer des effets d'entraînement dans l'écosystème AI plus large.
Les modèles de revenus dans le cloud, actuellement stimulés par les charges de travail d'IA, pourraient faire face à une nouvelle pression sur les prix. Les plateformes d'IA en tant que service pourraient devoir se réarchitecturer pour supporter des déploiements hybrides ou décentralisés. Les cadres open-source pourraient gagner en influence à mesure que la décentralisation souligne l'interopérabilité et le contrôle local. Les fournisseurs de logiciels d'entreprise pourraient devoir repenser leurs stratégies d'IA pour refléter un paysage informatique plus distribué.
Ce changement s'inscrit également dans la tendance plus large de l'IA pour tous. Des constructeurs d'agents low-code à l'inférence basée sur le edge, le mouvement s'oriente vers des piles d'IA plus accessibles, modulaires et personnalisables. L'entraînement décentralisé est l'extension naturelle de cette philosophie.
Un signal IA pour les CIO et CTO
Pour les dirigeants d'entreprise, le travail de 0G sert de signal non pas d'une disruption immédiate, mais d'une opportunité dans un avenir proche. L'IA évolue depuis ses débuts critiques.
Il est maintenant temps de réévaluer la stratégie d'infrastructure. Votre organisation devrait-elle continuer à investir dans l'hébergement de modèles basés sur le cloud, ou commencer à explorer des alternatives décentralisées ?
Votre centre de données interne pourrait-il servir de nœud dans un système d'entraînement distribué ? L'apprentissage fédéré décentralisé est un excellent moyen d'exploiter des données privées provenant de différentes parties sur un réseau, comme des hôpitaux formant un modèle de diagnostic du cancer. Pourriez-vous vous associer à d'autres acteurs de votre secteur pour co-développer des modèles en utilisant des protocoles décentralisés ?
Même si la réponse n'est pas oui aujourd'hui, l'émergence de cadres comme DiLoCoX devrait pousser la planification de l'infrastructure AI à une place plus élevée dans l'agenda stratégique. Les entreprises qui se préparent à ce changement en développant des capacités internes, en évaluant des partenaires et en comprenant la pile technique seront les mieux placées pour agir lorsque l'économie penchera en leur faveur.
Un avenir où l'IA est construite différemment
Ce que 0G Labs et China Mobile ont démontré est plus qu'une simple preuve de concept technique. C'est une nouvelle façon de penser comment l'intelligence est construite, entraînée et distribuée. En montrant qu'il est possible d'entraîner des modèles de 100 milliards de paramètres sans superordinateurs centralisés, ils ne font pas que repousser les limites de l'échelle. Ils élargissent l'accès.
Pour les entreprises, cela signifie que l'IA pourrait bientôt être moins une question de qui possède le plus grand centre de données et plus une question de qui peut construire les systèmes les plus intelligents avec le plus de flexibilité.
C'est un avenir d'IA qui vaut la peine d'être préparé.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La formation de l'IA devient 10 fois plus rapide et 95 % moins chère grâce à une stratégie décentralisée.
0G Labs, le premier protocole d'IA décentralisé (AIP), en collaboration avec China Mobile, a récemment annoncé une avancée technique qui pourrait avoir de vastes implications pour la façon dont les entreprises accèdent et déploient de grands modèles de langage. Leur innovation est une nouvelle méthode d'entraînement de modèles d'IA massifs avec plus de 100 milliards de paramètres, sans avoir besoin de l'internet ultra-rapide ou d'une infrastructure centralisée coûteuse généralement requise.
À première vue, cela pourrait sembler être une victoire pour le monde de l'ingénierie.
Mais la véritable histoire est économique et stratégique. Ce que 0G Labs a réalisé pourrait réduire le coût de construction de l'IA, redonner plus de contrôle aux entreprises et ouvrir la porte à de nouveaux acteurs pour entrer dans le domaine.
Ce que cela signifie pour la formation de l'IA
Pour comprendre le changement, il est utile de revenir sur la manière dont les modèles d'IA à grande échelle sont actuellement entraînés.
Des modèles comme GPT-4 d'OpenAI ou Claude d'Anthropic nécessitent une vaste puissance de calcul et un débit réseau important. Traditionnellement, cela signifie les entraîner sur de puissants GPU connectés à travers des centres de données centralisés à haute vitesse, détenus ou loués par des entreprises comme Amazon Web Services, Google Cloud ou Microsoft Azure.
Ces chiffres reflètent la formation basée sur le cloud centralisé ou les centres de données hyperscale — nécessitant d'énormes clusters de GPU, des réseaux à large bande et des millions en coûts matériels et de personnel. Sandy Carter Au début de 2025, la direction d'OpenAI, y compris Sam Altman, a déclaré publiquement que la formation de GPT-4 avait coûté plus de 100 millions de dollars. Cela est soutenu à la fois par des déclarations officielles et plusieurs modèles de coûts dans des rapports récents d'analyse de l'IA. C'est un modèle qui exige des capitaux, des talents et une infrastructure que peu d'organisations peuvent se permettre.
PLUS POUR VOUS## 0G Labs remet en question cette hypothèse pour la formation de l'IA
Leur nouveau cadre publié, appelé DiLoCoX, introduit une méthode d'entraînement à faible communication qui réduit considérablement le besoin de connectivité à large bande. En termes pratiques, ils ont réussi à entraîner un modèle de 107 milliards de paramètres sur un réseau de 1 Gbps en utilisant des clusters décentralisés. Ce record représente une amélioration de 10 fois par rapport au précédent record et la percée de 300 fois qui a rendu cela possible pour la première fois. C'est à peu près la bande passante d'une connexion Internet de bureau typique.
Au lieu de construire tout dans un énorme centre de calcul, leur approche relie ensemble des machines plus petites et distribuées et optimise la façon dont l'information est partagée entre elles. Le résultat est une méthode hautement évolutive et rentable pour entraîner des modèles massifs en dehors du cloud traditionnel.
Champion de l'IA décentralisée de 0G labs. Le fondateur et PDG, Michael Heinrich, commente les avancées dans la formation de l'IA.0G Labs En s'adressant au fondateur et PDG de 0G labs, Michael Heinrich, il a déclaré : « DiLoCoX marque une étape décisive dans la démocratisation de la formation LLM : comblant le fossé entre les modèles de base massifs et les clusters décentralisés connectés par des réseaux lents et peu fiables. En combinant le parallélisme de pipeline, le chevauchement de communication tolérant aux délais et la compression de gradient adaptative, le cadre offre une échelle et une vitesse auparavant considérées comme exclusives aux centres de données à large bande. Cela ouvrira une nouvelle ère où la formation de l'IA à grande échelle ne sera plus liée à une infrastructure centralisée."
Pourquoi la formation en IA est-elle importante pour les entreprises
À une époque où chaque entreprise est sous pression pour faire plus avec l'IA, l'infrastructure devient rapidement le goulot d'étranglement. Certaines entreprises commencent à envisager l'IA décentralisée par conception. Construire de grands modèles reste coûteux, exclusif et largement limité aux entreprises disposant de ressources importantes ou de partenariats stratégiques dans le cloud. La percée de 0G ouvre une troisième voie.
Ce n'est pas seulement une histoire d'économies de coûts. C'est une histoire d'optionnalité et de contrôle.
1. Abaisser la Barrière à l'Entrée
L'approche de DiLoCoX réduit l'infrastructure jusqu'à 95 % nécessaire pour participer à la course LLM.
Pour les startups, cela signifie la capacité d'expérimenter et de se développer sans brûler de capital-risque sur les dépenses en GPU.
Pour les entreprises de taille intermédiaire, cela offre la possibilité de former des modèles en interne sans faire de gros engagements dans le cloud.
Pour les gouvernements et les laboratoires de recherche, cela signifie un développement des capacités d'IA plus accessible et souverain.
2. Indépendance stratégique vis-à-vis des hyperscalers
La plupart des formations en IA aujourd'hui dépendent de trois fournisseurs de cloud.
Cette concentration comporte des risques en termes d'escalade des coûts, de dépendance aux fournisseurs et de conformité. Si votre entreprise dépend de l'IA mais opère également dans un secteur sensible comme la santé, la défense ou la finance, la capacité de former ou d'ajuster des modèles de manière indépendante devient un puissant levier stratégique.
L'IA décentralisée offre une voie vers l'autonomie numérique. En brisant l'hypothèse selon laquelle l'IA de pointe doit être formée à l'intérieur de plateformes cloud centralisées, le modèle de 0G crée de nouvelles possibilités de concurrence et d'innovation.
3. S'aligner sur les besoins en matière de confidentialité des données et de conformité
De nombreuses entreprises sont prudentes quant au téléchargement de données propriétaires sur des modèles ou des environnements de formation basés sur le cloud. Avec l'entraînement décentralisé, il devient possible de garder les données localement dans la juridiction, derrière le pare-feu, ou même sur des dispositifs en périphérie tout en participant au développement de l'IA à grande échelle. Cela est particulièrement attrayant dans les régions ayant des lois strictes sur la souveraineté des données telles que l'Union européenne ou des pays construisant leurs propres écosystèmes d'IA. Le réseau 0G ne voit jamais aucune des données privées.
4. Accélérer l'innovation sur les marchés mal desservis
Le coût élevé d'entrée a tenu de nombreux pays et industries à l'écart du développement de l'IA avancée.
DiLoCoX abaisse ce seuil.
Une université au Kenya, un fournisseur de télécommunications en Asie du Sud-Est, ou une banque régionale en Amérique latine n'ont peut-être pas accès aux mêmes capacités de calcul que la Silicon Valley, mais ils pourraient bientôt disposer des outils nécessaires pour former et déployer leurs systèmes intelligents sur l'infrastructure existante.
5. Risques géopolitiques et réglementaires
Bien que l'accomplissement technique soit impressionnant, l'implication de China Mobile soulève des questions.
Alors que les tensions entre les États-Unis et la Chine continuent d'escalader en raison de la domination technologique et de la sécurité nationale, les entreprises doivent peser les potentielles exigences réglementaires, les préoccupations en matière de gouvernance des données et les risques réputationnels associés aux partenariats impliquant des entités affiliées à l'État chinois.
Pour les entreprises basées aux États-Unis ou opérant sur des marchés alliés, toute intégration d'infrastructure ou de recherche liée à la Chine pourrait faire face à des contrôles à l'exportation, des restrictions légales ou des réactions publiques. Les organisations explorant des solutions d'IA décentralisées devront prendre en compte non seulement la performance et le coût, mais aussi l'alignement politique, les cadres de conformité et la viabilité à long terme.
Cependant, avoir DiLoCoX sur une infrastructure décentralisée où le réseau est sans confiance, ce n'est pas un souci car China Mobile ne voit jamais vos données, et le système ne dépend pas d'eux pour les résultats.
Restructuration du modèle commercial de l'IA
Si DiLoCoX est largement adopté, cela pourrait créer des effets d'entraînement dans l'écosystème AI plus large.
Les modèles de revenus dans le cloud, actuellement stimulés par les charges de travail d'IA, pourraient faire face à une nouvelle pression sur les prix. Les plateformes d'IA en tant que service pourraient devoir se réarchitecturer pour supporter des déploiements hybrides ou décentralisés. Les cadres open-source pourraient gagner en influence à mesure que la décentralisation souligne l'interopérabilité et le contrôle local. Les fournisseurs de logiciels d'entreprise pourraient devoir repenser leurs stratégies d'IA pour refléter un paysage informatique plus distribué.
Ce changement s'inscrit également dans la tendance plus large de l'IA pour tous. Des constructeurs d'agents low-code à l'inférence basée sur le edge, le mouvement s'oriente vers des piles d'IA plus accessibles, modulaires et personnalisables. L'entraînement décentralisé est l'extension naturelle de cette philosophie.
Un signal IA pour les CIO et CTO
Pour les dirigeants d'entreprise, le travail de 0G sert de signal non pas d'une disruption immédiate, mais d'une opportunité dans un avenir proche. L'IA évolue depuis ses débuts critiques.
Il est maintenant temps de réévaluer la stratégie d'infrastructure. Votre organisation devrait-elle continuer à investir dans l'hébergement de modèles basés sur le cloud, ou commencer à explorer des alternatives décentralisées ?
Votre centre de données interne pourrait-il servir de nœud dans un système d'entraînement distribué ? L'apprentissage fédéré décentralisé est un excellent moyen d'exploiter des données privées provenant de différentes parties sur un réseau, comme des hôpitaux formant un modèle de diagnostic du cancer. Pourriez-vous vous associer à d'autres acteurs de votre secteur pour co-développer des modèles en utilisant des protocoles décentralisés ?
Même si la réponse n'est pas oui aujourd'hui, l'émergence de cadres comme DiLoCoX devrait pousser la planification de l'infrastructure AI à une place plus élevée dans l'agenda stratégique. Les entreprises qui se préparent à ce changement en développant des capacités internes, en évaluant des partenaires et en comprenant la pile technique seront les mieux placées pour agir lorsque l'économie penchera en leur faveur.
Un avenir où l'IA est construite différemment
Ce que 0G Labs et China Mobile ont démontré est plus qu'une simple preuve de concept technique. C'est une nouvelle façon de penser comment l'intelligence est construite, entraînée et distribuée. En montrant qu'il est possible d'entraîner des modèles de 100 milliards de paramètres sans superordinateurs centralisés, ils ne font pas que repousser les limites de l'échelle. Ils élargissent l'accès.
Pour les entreprises, cela signifie que l'IA pourrait bientôt être moins une question de qui possède le plus grand centre de données et plus une question de qui peut construire les systèmes les plus intelligents avec le plus de flexibilité.
C'est un avenir d'IA qui vaut la peine d'être préparé.