Avec la complexité croissante des protocoles Web3, le langage Move, conçu pour la sécurité des actifs, voit la difficulté d'audit augmentée en raison du manque de données et de recherches publiques. Pour cela, BitsLab a construit un ensemble d'outils de sécurité AI multi-niveaux "BitsLabAI" : basé sur des données de domaine planifiées par des experts, combinant RAG (génération augmentée par recherche), audits automatiques multi-niveaux, et un cluster d'agents intelligents dédiés fonctionnant sur une analyse statique déterministe, offrant un soutien d'automatisation approfondie pour les audits.
Lors de l'audit public du DEX de contrats à terme perpétuels Bluefin, BitsLab AI a découvert quatre problèmes, dont un défaut de logique à haut risque, que l'équipe de Bluefin a déjà corrigé.
Pourquoi avons-nous besoin de l'IA en ce moment : la migration du paradigme de sécurité on-chain
La sécurité sur la chaîne et la protection des actifs numériques subissent une transformation fondamentale. Avec les avancées majeures des modèles de base, les modèles de langage de grande taille (LLMs) et les agents d'IA possèdent désormais une forme d'intelligence primitive mais puissante. Dans un contexte clairement défini, ces modèles peuvent analyser de manière autonome le code des contrats intelligents pour identifier d'éventuelles vulnérabilités. Cela a conduit à la popularité croissante des outils assistés par l'IA, tels que les interfaces utilisateur (UIs) conversationnelles et les IDE avec agents intégrés, qui deviennent progressivement une partie intégrante des flux de travail standard des auditeurs de contrats intelligents et des chercheurs en sécurité Web3.
Cependant, bien que cette première vague de fusion de l'IA ait apporté de l'espoir, elle reste néanmoins limitée par des contraintes clés, incapable de répondre aux exigences de fiabilité de l'environnement blockchain à haut risque :
Audit superficiel et dépendant de l'humain : les outils actuels agissent comme un "co-pilote", et non comme des auditeurs autonomes. Ils manquent de la capacité à comprendre l'architecture globale des protocoles complexes et dépendent d'une guidance humaine continue. Cela les empêche d'effectuer l'analyse automatisée approfondie nécessaire pour garantir la sécurité des contrats intelligents interconnectés.
Les signaux de bruit élevé causés par des hallucinations : le processus d'inférence des LLM généraux est perturbé par les "hallucinations". Dans des scénarios de sécurité, cela signifie qu'un grand nombre de faux positifs et d'alertes redondantes sont générés, obligeant les auditeurs à perdre un temps précieux à réfuter des vulnérabilités fictives, plutôt qu'à corriger les menaces réelles sur la chaîne qui pourraient avoir des conséquences catastrophiques.
Compréhension insuffisante des langages spécifiques : La performance des LLM dépend directement de leurs données d'entraînement. Pour des langages spécialisés comme Move, conçu spécifiquement pour la sécurité des actifs, la rareté des ressources publiques sur les bibliothèques de code complexes et des vulnérabilités documentées conduit à une compréhension superficielle de son modèle de sécurité unique, y compris ses principes fondamentaux de propriété des ressources et de gestion de la mémoire.
Le cadre de sécurité AI de BitsLab (fiabilité à grande échelle)
Étant donné les principales lacunes de l'IA générale, le cadre que nous avons construit adopte une architecture multicouche et axée sur la sécurité. Ce n'est pas un modèle unique, mais un système intégré, où chaque composant est conçu pour relever des défis spécifiques dans l'audit des contrats intelligents, de l'intégrité des données à l'analyse automatisée approfondie.
Couche de base : jeux de données spécifiques au domaine planifiés par des experts
La capacité prédictive de toute IA est ancrée dans ses données. La performance exceptionnelle de notre cadre commence par notre base de connaissances unique, qui diffère fondamentalement des ensembles de données génériques utilisés pour former des LLM publics. Notre avantage se manifeste par :
Couverture à grande échelle dans des domaines spécifiques : nous disposons d'un ensemble de données vaste et spécialisé, soigneusement collecté, axé sur des domaines à haut risque tels que le prêt DeFi, le marché des NFT et les protocoles basés sur Move. Cela offre une profondeur contextuelle inégalée pour les vulnérabilités dans des domaines spécifiques.
Planification et nettoyage par des experts : notre ensemble de données n'est pas simplement extrait, mais est continuellement nettoyé, vérifié et enrichi par des experts en sécurité des contrats intelligents. Ce processus comprend l'annotation des vulnérabilités connues, le marquage des modèles de codage sécurisés et le filtrage du bruit non pertinent, créant ainsi une "base réelle" de haute fidélité pour l'apprentissage du modèle. Cette planification en collaboration homme-machine garantit que notre IA apprend à partir de données de la plus haute qualité, ce qui améliore considérablement sa précision.
Précision : Éliminer les hallucinations grâce à RAG et à des examens multilayers.
Pour résoudre ce problème clé d'illusions et de faux positifs, nous avons mis en place un système complexe à double niveau, afin que le raisonnement de l'IA soit toujours basé sur des faits vérifiables :
Recherche Améliorée Générative (RAG) : notre IA ne se fie pas uniquement à ses connaissances internes, mais interroge en continu une base de connaissances en temps réel avant de tirer des conclusions. Ce système RAG récupère les dernières recherches sur les vulnérabilités, les meilleures pratiques de sécurité établies (comme le registre SWC, les normes EIP), ainsi que des exemples de code provenant de protocoles similaires ayant déjà été audités avec succès. Cela oblige l'IA à "citer ses sources", garantissant que ses conclusions reposent sur des faits établis plutôt que sur des conjectures probabilistes.
Modèle d'examen multi-niveaux : chaque problème potentiel identifié par l'IA générative passe par un processus de validation interne rigoureux. Ce processus comprend un mécanisme d'examen automatisé composé d'une série de modèles spécialisés : le modèle de recoupement compare les découvertes aux données RAG, le modèle « auditeur » ajusté évalue leur validité technique, et enfin, le modèle « priorisation » détermine leur impact potentiel sur les affaires. Grâce à ce processus, les conclusions à faible confiance et les illusions sont systématiquement filtrées avant d'atteindre les auditeurs humains.
Profondeur : réaliser une automatisation approfondie grâce à l'analyse statique et à la collaboration de l'Agent IA.
Pour réaliser une automatisation profonde et contextuellement consciente qui dépasse le simple outil de "copilote", nous avons adopté une approche collaborative, combinant analyse déterministe et agents intelligents :
Analyse statique comme fondement : notre processus commence par un parcours complet d'analyse statique pour établir de manière déterministe la cartographie de l'ensemble du protocole. Cela génère un graphe de contrôle de flux complet, identifie toutes les variables d'état et trace toutes les relations de dépendance fonctionnelle entre les contrats. Cette cartographie fournit à notre IA une "vision du monde" fondamentale et objective.
Gestion du contexte : le cadre maintient un contexte riche et global pour l'ensemble du protocole. Il comprend non seulement des fonctions individuelles, mais aussi comment elles interagissent entre elles. Cette capacité clé lui permet d'analyser les effets en chaîne des changements d'état et d'identifier les vulnérabilités complexes des interactions entre contrats.
Collaboration des agents IA : Nous avons déployé un ensemble d'agents IA spécialisés, chacun formé pour des tâches spécifiques. L'"agent de contrôle d'accès" est spécialement conçu pour rechercher des vulnérabilités d'élévation de privilèges ; l'"agent réentrable" se concentre sur la détection des appels externes non sécurisés ; et l'"agent logique arithmétique" examine attentivement toutes les opérations mathématiques pour détecter des cas limites tels que les débordements ou les erreurs de précision. Ces agents travaillent en synergie sur la base de cartes contextuelles partagées, capables de découvrir des techniques d'attaque complexes que des IA uniques et monolithiques pourraient manquer.
Cette puissante combinaison permet à notre cadre d'automatiser la découverte de défauts architecturaux profonds, agissant véritablement comme un partenaire de sécurité autonome.
Étude de cas : Révéler les défauts logiques clés dans Bluefin PerpDEX
Pour valider l'architecture multicouche de notre cadre dans des scénarios réels, nous l'avons appliqué à l'audit de sécurité public de Bluefin. Bluefin est un échange décentralisé de contrats à terme complexes. Cet audit a montré comment nous avons pu identifier des vulnérabilités que les outils traditionnels ne peuvent pas détecter grâce à l'analyse statique, des agents IA spécialisés et une vérification des faits basée sur RAG.
Processus d'analyse : fonctionnement des systèmes multi-agents
La découverte de cette vulnérabilité critique n'est pas un événement isolé, mais résulte d'une collaboration systématique entre les différents composants intégrés du cadre :
Cartographie contextuelle et analyse statique
Le processus commence par l'entrée du code source complet de Bluefin. Notre moteur d'analyse statique a cartographié de manière déterministe l'ensemble du protocole et, en combinaison avec un agent d'analyse AI sous-jacent, a fourni une vue d'ensemble du projet en localisant les modules liés à la logique financière fondamentale.
Déploiement d'agents spécialisés
Sur la base d'une analyse préliminaire, le système a automatiquement déployé une série d'agents spécialisés par phases. Chaque agent AI a ses propres indications d'audit et sa base de données vectorielle. Dans ce cas, l'un des agents, axé sur la validité logique et les failles des cas limites (comme les débordements, les sous-débordements et les erreurs de comparaison), a détecté le problème.
Analyse et révision basées sur RAG
L'agent de logique arithmétique (Arithmetic Logic Agent) commence son analyse. Grâce à la génération augmentée par la recherche (RAG), il interroge notre base de connaissances élaborée par des experts, se référant aux meilleures pratiques mises en œuvre dans le langage Move, et compare le code de Bluefin avec des défauts logiques similaires déjà documentés dans d'autres protocoles financiers. Ce processus de recherche a mis en évidence que la comparaison des nombres positifs et négatifs est un cas typique d'erreur de limite.
Découverte : vulnérabilités critiques dans la logique financière de base
Grâce à notre cadre, nous avons finalement identifié quatre problèmes différents, dont l'un est une vulnérabilité logicielle critique profondément ancrée dans le moteur de calcul financier du protocole.
Une vulnérabilité est apparue dans la fonction lt (moins que) du module signed_number. Cette fonction est cruciale pour toute comparaison financière, comme le tri des positions ou le calcul des gains et pertes (PNL). La vulnérabilité pourrait entraîner de graves différences financières, des liquidations erronées, ainsi qu'un échec du mécanisme de tri équitable dans les opérations clés du DEX, menaçant directement l'intégrité du protocole.
La racine du problème réside dans une logique erronée lors de la comparaison entre des nombres négatifs et des nombres positifs. Le module signed_number utilise value : u64 et sign : bool (true pour les nombres positifs, false pour les nombres négatifs) pour représenter les valeurs. Cependant, la fonction lt présente un défaut dans sa branche else (qui traite la comparaison entre des nombres de signes différents). Lors de la comparaison d'un nombre négatif (!a.sign) avec un nombre positif (b.sign), cette fonction renvoie incorrectement a.sign (c'est-à-dire false), affirmant en réalité que "un nombre positif est inférieur à un nombre négatif".
Mesures correctives :
Pour corriger ce problème clé, la branche else de la fonction lt doit subir une modification simple mais cruciale. L'implémentation corrigée doit retourner !a.sign afin de s'assurer que lors de la comparaison, les nombres négatifs soient toujours correctement évalués comme inférieurs aux nombres positifs.
réparer
Résultat : L'équipe de développement de Bluefin a été informée immédiatement après avoir reçu ce rapport détaillé et a pris des mesures pour corriger le problème.
L'importance de BitsLab AI pour les équipes Web3
Moins de faux positifs : RAG + vérification multicouche réduisent considérablement les "hallucinations" et les faux positifs.
Couverture plus approfondie : carte d'analyse statique + collaboration d'agents intelligents, capturant les risques systémiques au niveau des contrats croisés, des conditions aux limites et de la logique.
Priorité axée sur les affaires : orienter les efforts d'ingénierie en fonction de l'impact, en consacrant du temps aux "problèmes les plus critiques".
Conclusion : La sécurité habilitée par BitsLab AI devient la nouvelle référence.
La pratique de Bluefin valide le point central de BitsLab : la sécurité Web3 fiable doit être à la fois "documentée" (RAG), "avec des contrôles en profondeur" (vérification multil niveaux), et "structurée en profondeur" (analyse statique + collaboration des intelligences artificielles).
Cette ligne est particulièrement cruciale pour comprendre et vérifier la logique sous-jacente de la finance décentralisée, et elle constitue une condition nécessaire pour maintenir la confiance à l'échelle des protocoles.
Dans un environnement Web3 en rapide évolution, la complexité des contrats ne cesse d'augmenter ; cependant, la recherche et les données publiques sur Move restent relativement rares, rendant la "garantie de sécurité" d'autant plus difficile. BitsLab AI de BitsLab a été créé pour cela - en identifiant et en atténuant les risques des contrats Move grâce à une expertise en connaissances sectorielles, des inférences améliorées par une recherche vérifiable, et une analyse automatisée axée sur le contexte global, injectant une dynamique d'intelligence durable dans la sécurité Web3.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'outil AI de BitsLab a découvert et aidé à corriger les vulnérabilités à haut risque de Bluefin.
Auteur : BitsLab
Avec la complexité croissante des protocoles Web3, le langage Move, conçu pour la sécurité des actifs, voit la difficulté d'audit augmentée en raison du manque de données et de recherches publiques. Pour cela, BitsLab a construit un ensemble d'outils de sécurité AI multi-niveaux "BitsLabAI" : basé sur des données de domaine planifiées par des experts, combinant RAG (génération augmentée par recherche), audits automatiques multi-niveaux, et un cluster d'agents intelligents dédiés fonctionnant sur une analyse statique déterministe, offrant un soutien d'automatisation approfondie pour les audits.
Lors de l'audit public du DEX de contrats à terme perpétuels Bluefin, BitsLab AI a découvert quatre problèmes, dont un défaut de logique à haut risque, que l'équipe de Bluefin a déjà corrigé.
La sécurité sur la chaîne et la protection des actifs numériques subissent une transformation fondamentale. Avec les avancées majeures des modèles de base, les modèles de langage de grande taille (LLMs) et les agents d'IA possèdent désormais une forme d'intelligence primitive mais puissante. Dans un contexte clairement défini, ces modèles peuvent analyser de manière autonome le code des contrats intelligents pour identifier d'éventuelles vulnérabilités. Cela a conduit à la popularité croissante des outils assistés par l'IA, tels que les interfaces utilisateur (UIs) conversationnelles et les IDE avec agents intégrés, qui deviennent progressivement une partie intégrante des flux de travail standard des auditeurs de contrats intelligents et des chercheurs en sécurité Web3.
Cependant, bien que cette première vague de fusion de l'IA ait apporté de l'espoir, elle reste néanmoins limitée par des contraintes clés, incapable de répondre aux exigences de fiabilité de l'environnement blockchain à haut risque :
Audit superficiel et dépendant de l'humain : les outils actuels agissent comme un "co-pilote", et non comme des auditeurs autonomes. Ils manquent de la capacité à comprendre l'architecture globale des protocoles complexes et dépendent d'une guidance humaine continue. Cela les empêche d'effectuer l'analyse automatisée approfondie nécessaire pour garantir la sécurité des contrats intelligents interconnectés.
Les signaux de bruit élevé causés par des hallucinations : le processus d'inférence des LLM généraux est perturbé par les "hallucinations". Dans des scénarios de sécurité, cela signifie qu'un grand nombre de faux positifs et d'alertes redondantes sont générés, obligeant les auditeurs à perdre un temps précieux à réfuter des vulnérabilités fictives, plutôt qu'à corriger les menaces réelles sur la chaîne qui pourraient avoir des conséquences catastrophiques.
Compréhension insuffisante des langages spécifiques : La performance des LLM dépend directement de leurs données d'entraînement. Pour des langages spécialisés comme Move, conçu spécifiquement pour la sécurité des actifs, la rareté des ressources publiques sur les bibliothèques de code complexes et des vulnérabilités documentées conduit à une compréhension superficielle de son modèle de sécurité unique, y compris ses principes fondamentaux de propriété des ressources et de gestion de la mémoire.
Étant donné les principales lacunes de l'IA générale, le cadre que nous avons construit adopte une architecture multicouche et axée sur la sécurité. Ce n'est pas un modèle unique, mais un système intégré, où chaque composant est conçu pour relever des défis spécifiques dans l'audit des contrats intelligents, de l'intégrité des données à l'analyse automatisée approfondie.
La capacité prédictive de toute IA est ancrée dans ses données. La performance exceptionnelle de notre cadre commence par notre base de connaissances unique, qui diffère fondamentalement des ensembles de données génériques utilisés pour former des LLM publics. Notre avantage se manifeste par :
Couverture à grande échelle dans des domaines spécifiques : nous disposons d'un ensemble de données vaste et spécialisé, soigneusement collecté, axé sur des domaines à haut risque tels que le prêt DeFi, le marché des NFT et les protocoles basés sur Move. Cela offre une profondeur contextuelle inégalée pour les vulnérabilités dans des domaines spécifiques.
Planification et nettoyage par des experts : notre ensemble de données n'est pas simplement extrait, mais est continuellement nettoyé, vérifié et enrichi par des experts en sécurité des contrats intelligents. Ce processus comprend l'annotation des vulnérabilités connues, le marquage des modèles de codage sécurisés et le filtrage du bruit non pertinent, créant ainsi une "base réelle" de haute fidélité pour l'apprentissage du modèle. Cette planification en collaboration homme-machine garantit que notre IA apprend à partir de données de la plus haute qualité, ce qui améliore considérablement sa précision.
Pour résoudre ce problème clé d'illusions et de faux positifs, nous avons mis en place un système complexe à double niveau, afin que le raisonnement de l'IA soit toujours basé sur des faits vérifiables :
Recherche Améliorée Générative (RAG) : notre IA ne se fie pas uniquement à ses connaissances internes, mais interroge en continu une base de connaissances en temps réel avant de tirer des conclusions. Ce système RAG récupère les dernières recherches sur les vulnérabilités, les meilleures pratiques de sécurité établies (comme le registre SWC, les normes EIP), ainsi que des exemples de code provenant de protocoles similaires ayant déjà été audités avec succès. Cela oblige l'IA à "citer ses sources", garantissant que ses conclusions reposent sur des faits établis plutôt que sur des conjectures probabilistes.
Modèle d'examen multi-niveaux : chaque problème potentiel identifié par l'IA générative passe par un processus de validation interne rigoureux. Ce processus comprend un mécanisme d'examen automatisé composé d'une série de modèles spécialisés : le modèle de recoupement compare les découvertes aux données RAG, le modèle « auditeur » ajusté évalue leur validité technique, et enfin, le modèle « priorisation » détermine leur impact potentiel sur les affaires. Grâce à ce processus, les conclusions à faible confiance et les illusions sont systématiquement filtrées avant d'atteindre les auditeurs humains.
Pour réaliser une automatisation profonde et contextuellement consciente qui dépasse le simple outil de "copilote", nous avons adopté une approche collaborative, combinant analyse déterministe et agents intelligents :
Analyse statique comme fondement : notre processus commence par un parcours complet d'analyse statique pour établir de manière déterministe la cartographie de l'ensemble du protocole. Cela génère un graphe de contrôle de flux complet, identifie toutes les variables d'état et trace toutes les relations de dépendance fonctionnelle entre les contrats. Cette cartographie fournit à notre IA une "vision du monde" fondamentale et objective.
Gestion du contexte : le cadre maintient un contexte riche et global pour l'ensemble du protocole. Il comprend non seulement des fonctions individuelles, mais aussi comment elles interagissent entre elles. Cette capacité clé lui permet d'analyser les effets en chaîne des changements d'état et d'identifier les vulnérabilités complexes des interactions entre contrats.
Collaboration des agents IA : Nous avons déployé un ensemble d'agents IA spécialisés, chacun formé pour des tâches spécifiques. L'"agent de contrôle d'accès" est spécialement conçu pour rechercher des vulnérabilités d'élévation de privilèges ; l'"agent réentrable" se concentre sur la détection des appels externes non sécurisés ; et l'"agent logique arithmétique" examine attentivement toutes les opérations mathématiques pour détecter des cas limites tels que les débordements ou les erreurs de précision. Ces agents travaillent en synergie sur la base de cartes contextuelles partagées, capables de découvrir des techniques d'attaque complexes que des IA uniques et monolithiques pourraient manquer.
Cette puissante combinaison permet à notre cadre d'automatiser la découverte de défauts architecturaux profonds, agissant véritablement comme un partenaire de sécurité autonome.
Pour valider l'architecture multicouche de notre cadre dans des scénarios réels, nous l'avons appliqué à l'audit de sécurité public de Bluefin. Bluefin est un échange décentralisé de contrats à terme complexes. Cet audit a montré comment nous avons pu identifier des vulnérabilités que les outils traditionnels ne peuvent pas détecter grâce à l'analyse statique, des agents IA spécialisés et une vérification des faits basée sur RAG.
Processus d'analyse : fonctionnement des systèmes multi-agents
La découverte de cette vulnérabilité critique n'est pas un événement isolé, mais résulte d'une collaboration systématique entre les différents composants intégrés du cadre :
Cartographie contextuelle et analyse statique Le processus commence par l'entrée du code source complet de Bluefin. Notre moteur d'analyse statique a cartographié de manière déterministe l'ensemble du protocole et, en combinaison avec un agent d'analyse AI sous-jacent, a fourni une vue d'ensemble du projet en localisant les modules liés à la logique financière fondamentale.
Déploiement d'agents spécialisés Sur la base d'une analyse préliminaire, le système a automatiquement déployé une série d'agents spécialisés par phases. Chaque agent AI a ses propres indications d'audit et sa base de données vectorielle. Dans ce cas, l'un des agents, axé sur la validité logique et les failles des cas limites (comme les débordements, les sous-débordements et les erreurs de comparaison), a détecté le problème.
Analyse et révision basées sur RAG L'agent de logique arithmétique (Arithmetic Logic Agent) commence son analyse. Grâce à la génération augmentée par la recherche (RAG), il interroge notre base de connaissances élaborée par des experts, se référant aux meilleures pratiques mises en œuvre dans le langage Move, et compare le code de Bluefin avec des défauts logiques similaires déjà documentés dans d'autres protocoles financiers. Ce processus de recherche a mis en évidence que la comparaison des nombres positifs et négatifs est un cas typique d'erreur de limite.
Découverte : vulnérabilités critiques dans la logique financière de base
Grâce à notre cadre, nous avons finalement identifié quatre problèmes différents, dont l'un est une vulnérabilité logicielle critique profondément ancrée dans le moteur de calcul financier du protocole.
Une vulnérabilité est apparue dans la fonction lt (moins que) du module signed_number. Cette fonction est cruciale pour toute comparaison financière, comme le tri des positions ou le calcul des gains et pertes (PNL). La vulnérabilité pourrait entraîner de graves différences financières, des liquidations erronées, ainsi qu'un échec du mécanisme de tri équitable dans les opérations clés du DEX, menaçant directement l'intégrité du protocole.
La racine du problème réside dans une logique erronée lors de la comparaison entre des nombres négatifs et des nombres positifs. Le module signed_number utilise value : u64 et sign : bool (true pour les nombres positifs, false pour les nombres négatifs) pour représenter les valeurs. Cependant, la fonction lt présente un défaut dans sa branche else (qui traite la comparaison entre des nombres de signes différents). Lors de la comparaison d'un nombre négatif (!a.sign) avec un nombre positif (b.sign), cette fonction renvoie incorrectement a.sign (c'est-à-dire false), affirmant en réalité que "un nombre positif est inférieur à un nombre négatif".
Mesures correctives :
Pour corriger ce problème clé, la branche else de la fonction lt doit subir une modification simple mais cruciale. L'implémentation corrigée doit retourner !a.sign afin de s'assurer que lors de la comparaison, les nombres négatifs soient toujours correctement évalués comme inférieurs aux nombres positifs.
réparer
Résultat : L'équipe de développement de Bluefin a été informée immédiatement après avoir reçu ce rapport détaillé et a pris des mesures pour corriger le problème.
Moins de faux positifs : RAG + vérification multicouche réduisent considérablement les "hallucinations" et les faux positifs.
Couverture plus approfondie : carte d'analyse statique + collaboration d'agents intelligents, capturant les risques systémiques au niveau des contrats croisés, des conditions aux limites et de la logique.
Priorité axée sur les affaires : orienter les efforts d'ingénierie en fonction de l'impact, en consacrant du temps aux "problèmes les plus critiques".
La pratique de Bluefin valide le point central de BitsLab : la sécurité Web3 fiable doit être à la fois "documentée" (RAG), "avec des contrôles en profondeur" (vérification multil niveaux), et "structurée en profondeur" (analyse statique + collaboration des intelligences artificielles).
Cette ligne est particulièrement cruciale pour comprendre et vérifier la logique sous-jacente de la finance décentralisée, et elle constitue une condition nécessaire pour maintenir la confiance à l'échelle des protocoles.
Dans un environnement Web3 en rapide évolution, la complexité des contrats ne cesse d'augmenter ; cependant, la recherche et les données publiques sur Move restent relativement rares, rendant la "garantie de sécurité" d'autant plus difficile. BitsLab AI de BitsLab a été créé pour cela - en identifiant et en atténuant les risques des contrats Move grâce à une expertise en connaissances sectorielles, des inférences améliorées par une recherche vérifiable, et une analyse automatisée axée sur le contexte global, injectant une dynamique d'intelligence durable dans la sécurité Web3.