OpenLedger construit une économie d'agents intelligents basée sur des données avec OP Stack+EigenDA

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents axée sur les données et combinable en utilisant OP Stack + EigenDA comme base.

I. Introduction | La transition du niveau de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), chacun étant indispensable. Comme pour l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des étapes similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive de « compétition de puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une concurrence pour les ressources de base à une construction de niveau intermédiaire plus durable et ayant une valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, le coût d'une seule formation atteignant souvent des millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme léger de réglage fin de modèles de base réutilisables, est généralement basé sur des modèles open source et combine une petite quantité de données professionnelles de haute qualité avec des technologies comme LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts de formation et le seuil technique.

Il est important de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM par le biais d'architectures d'Agent, de routage dynamique via un système de plugins, de l'insertion à chaud de modules LoRA, et de RAG (génération augmentée par la recherche). Cette architecture conserve la capacité de large couverture de LLM tout en renforçant la performance spécialisée grâce à des modules d'ajustement fin, formant ainsi un système intelligent combiné hautement flexible.

OpenLedger Depth Report : Construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, axée sur les données et modélisable

La valeur et les limites de Crypto AI au niveau du modèle

Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage large (LLM), la raison principale étant que

  • Barrière technologique trop élevée : l'échelle des données, les ressources de calcul et les capacités techniques nécessaires pour entraîner un modèle fondamental sont extrêmement vastes, et actuellement, seules des géants technologiques comme les États-Unis et la Chine possèdent ces capacités.
  • Limites de l'écosystème open source : Bien que les principaux modèles de base soient open source, la clé pour faire avancer les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles fondamentaux est limité.

Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions principales :

  • Couche de validation fiable : enregistrement sur la chaîne du chemin de génération du modèle, des contributions de données et de leur utilisation, renforçant la traçabilité et l'immunité à la falsification des sorties d'IA.
  • Mécanisme d'incitation : À l'aide du Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construisant un cycle vertueux de formation et de service des modèles.

Analyse de la classification des types de modèles d'IA et de leur applicabilité à la blockchain

Il en ressort que les points de chute viables des projets Crypto AI de type modèle sont principalement concentrés sur l'optimisation légère des SLM de petite taille, l'intégration et la validation des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de jetons, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne AI basée sur des données et des modèles de blockchain permet d'enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle, améliorant ainsi la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement distribuées lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes tokenisés, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, axée sur les données et composable en modèles, sur la base d'OP Stack + EigenDA

II. Aperçu du projet | Vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel axé sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement opérationnel AI équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger propose une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » puis à « appel de répartition des bénéfices », dont les modules principaux comprennent :

  • Modèle d'usine : pas besoin de programmation, utilisez LoRA pour un entraînement et un déploiement de modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de contribution et distribution de récompenses réalisée par des enregistrements d'appels sur la chaîne ;
  • Datanets : un réseau de données structuré destiné aux scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : un marché de modèles en chaîne, combinable, appelable et payant.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique d'agents intelligents » basée sur les données et combinable en modèles, favorisant la mise en chaîne de la chaîne de valeur de l'IA.

Dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base, créant un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.

  • Construit sur OP Stack : basé sur la pile technologique Optimism, supporte un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Facilite le déploiement et l'extension rapides par les développeurs sur la base de Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé aux chaînes AI génériques comme NEAR, qui sont plus orientées vers les niveaux inférieurs et mettent l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées aux incitations liées aux données et aux modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, et favorisant le chemin vers la réalisation de « modèles en tant qu'actifs ».

OpenLedgerDepth Rapport d'étude : construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, guidée par les données

Trois, les composants clés et l'architecture technique d'OpenLedger

Usine de Modèle 3.1, usine de modèle sans code

ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) sous l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface graphique pure, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent ajuster le modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement du modèle et le déploiement, dont les processus clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM principaux, configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : Moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement du modèle : outils d'évaluation intégrés, support de l'exportation vers le déploiement ou partage d'appel écologique.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec des références de source, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement de l'évaluation et la traçabilité RAG, créant ainsi une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables

Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : l'écosystème le plus large, une communauté active, des performances générales élevées, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performance d'inférence exceptionnelle, adaptée aux déploiements flexibles et aux scénarios à ressources limitées.
  • Qwen : Excellente performance dans les tâches en chinois, capacité globale forte, idéal pour les développeurs nationaux.
  • ChatGLM : des effets de dialogue en chinois remarquables, adaptés aux services clients verticaux et aux scénarios de localisation.
  • Deepseek : se distingue par sa performance en génération de code et en raisonnement mathématique, adapté pour les outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Anciennement un étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : Support multilingue assez fort, mais performance d'inférence faible, adapté aux recherches de couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, déconseillé pour une utilisation en déploiement réel.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « prioritaire en matière de praticité » basée sur les contraintes réelles de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un parcours complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage de paramètres efficace, qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle original, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels possèdent généralement des milliards, voire des centaines de milliards, de paramètres. Pour les utiliser pour des tâches spécifiques, un réglage est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle original et n'entraîner que les nouvelles matrices de paramètres insérées. », ses paramètres sont efficaces, son entraînement est rapide et son déploiement est flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement de modèles Web3 et à l'appel combiné.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement de plusieurs modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, et de promouvoir l'exécution de l'« IA payante » (Payable AI).

OpenLoRA architecture core components, based on modular design, cover key aspects such as model storage, inference execution, request routing, etc., to achieve efficient and low-cost multi-model deployment and invocation capabilities:

  • Module de stockage LoRA Adapter : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant ainsi de précharger tous les modèles en mémoire vidéo, économisant des ressources.
  • Hébergement de modèle et couche de fusion dynamique : tous les modèles ajustés partagent le grand modèle de base, lors de l'inférence
OP1.64%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
RadioShackKnightvip
· Il y a 11h
Encore op et da, ça me donne mal à la tête.
Voir l'originalRépondre0
LiquidatedTwicevip
· 08-05 11:07
Enfin, j'ai eu l'occasion de profiter de l'IA gratuitement.
Voir l'originalRépondre0
ForkItAllvip
· 08-05 11:05
yooo perspective future absurde
Voir l'originalRépondre0
BridgeNomadvip
· 08-05 10:59
présent depuis le trou de ver... pour être honnête, eigen semble moins risqué que les configurations de rollup habituelles.
Voir l'originalRépondre0
CryptoSourGrapevip
· 08-05 10:55
Si je n'avais pas dormi l'année dernière, j'aurais probablement acheté dans le grand bull run maintenant, c'est terrible.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)