Con el aumento de la complejidad de los protocolos Web3, el lenguaje Move, diseñado para la seguridad de los activos, ha incrementado la dificultad de auditoría debido a la escasez de datos y estudios públicos. Para ello, BitsLab ha construido un conjunto de herramientas de seguridad multicapas de IA llamado "BitsLabAI": utilizando datos de dominio planificados por expertos como base, combinando RAG (Generación Aumentada por Recuperación), auditoría automatizada de múltiples niveles, y un clúster de agentes inteligentes de IA que opera sobre análisis estáticos deterministas, para proporcionar un soporte automatizado profundo para la auditoría.
En la auditoría pública del DEX de contratos perpetuos de Bluefin, BitsLab AI encontró un total de cuatro problemas, incluyendo un defecto lógico de alto riesgo, y el equipo de Bluefin ya ha completado la reparación correspondiente.
Por qué necesitamos IA en este momento: la migración del paradigma de seguridad en la cadena.
La seguridad en la cadena y la protección de activos digitales están experimentando una transformación fundamental. Con los avances significativos en los modelos de base, los grandes modelos de lenguaje (LLMs) y los agentes de IA actuales poseen una forma de inteligencia preliminar pero poderosa. Dado un contexto claramente definido, estos modelos pueden analizar de forma autónoma el código de contratos inteligentes para identificar posibles vulnerabilidades. Esto ha impulsado la rápida adopción de herramientas asistidas por IA, como interfaces de usuario (UIs) conversacionales y entornos de desarrollo integrados (IDE) con agentes, que se están convirtiendo gradualmente en parte del flujo de trabajo estándar de los auditores de contratos inteligentes y los investigadores de seguridad de Web3.
Sin embargo, a pesar de que esta primera ola de fusión de IA trae esperanza, todavía está limitada por restricciones clave que no pueden satisfacer la fiabilidad requerida por un entorno de blockchain de alto riesgo:
Auditorías superficiales y dependientes de humanos: las herramientas actuales actúan como "co-pilotos" en lugar de auditores autónomos. Carecen de la capacidad de comprender la arquitectura general de protocolos complejos y dependen de una guía humana continua. Esto les impide realizar el análisis automatizado profundo necesario para garantizar la seguridad de los contratos inteligentes interconectados.
Las señales de alto ruido provocadas por alucinaciones son: el proceso de inferencia de LLM general se ve afectado por las "alucinaciones". En un escenario de seguridad, esto significa que se generan numerosas falsas alarmas y advertencias redundantes, lo que obliga a los auditores a desperdiciar valioso tiempo refutando vulnerabilidades ficticias en lugar de abordar aquellas amenazas en la cadena que son reales y pueden tener consecuencias catastróficas.
Comprensión insuficiente del lenguaje de dominio específico: el rendimiento de los LLM depende directamente de sus datos de entrenamiento. Para un lenguaje especializado como Move, diseñado específicamente para la seguridad de los activos, la escasez de recursos públicos que documentan bibliotecas de código complejas y vulnerabilidades conocidas hace que su comprensión del modelo de seguridad único de Move sea superficial, incluyendo sus principios fundamentales de propiedad de recursos y gestión de memoria.
El marco de seguridad AI de BitsLab (enfocado en la confiabilidad a gran escala)
Dada la clave deficiencia de la IA de propósito general, el marco que hemos construido adopta una arquitectura de múltiples niveles y prioriza la seguridad. No es un único modelo, sino un sistema integrado, donde cada componente está diseñado para abordar desafíos específicos en la auditoría de contratos inteligentes, desde la integridad de los datos hasta el análisis automatizado profundo.
Capa base: conjuntos de datos específicos del dominio planificados por expertos
La capacidad predictiva de cualquier IA está arraigada en sus datos. El rendimiento excepcional de nuestro marco comienza con nuestra base de conocimientos única, que difiere fundamentalmente de los conjuntos de datos generales utilizados para entrenar LLM públicos. Nuestra ventaja se refleja en:
Cobertura a gran escala en nichos: contamos con un vasto y especializado conjunto de datos, cuidadosamente recopilados, que se centran en áreas de alto riesgo como préstamos DeFi, mercados de NFT y protocolos basados en Move. Esto proporciona una profundidad de contexto incomparable para las vulnerabilidades en campos específicos.
Planificación y limpieza por expertos: nuestro conjunto de datos no solo se obtiene mediante la recopilación, sino que es continuamente limpiado, verificado y enriquecido por expertos en seguridad de contratos inteligentes. Este proceso incluye la anotación de vulnerabilidades conocidas, la marcación de patrones de codificación seguros y la filtración de ruido irrelevante, creando así una "base real" de alta fidelidad para que el modelo aprenda. Esta planificación colaborativa entre humanos y máquinas asegura que nuestra IA aprenda de datos de la más alta calidad, lo que mejora significativamente su precisión.
Precisión: eliminar ilusiones a través de RAG y revisión en múltiples niveles
Para abordar este problema crítico de ilusiones y falsas alarmas, hemos implementado un complejo sistema dual que hace que el razonamiento de la IA siempre se base en hechos verificables:
Búsqueda y Generación Aumentadas (RAG): nuestra IA no solo se basa en su conocimiento interno, sino que consulta continuamente una base de conocimientos en tiempo real antes de llegar a conclusiones. Este sistema RAG recupera la investigación más reciente sobre vulnerabilidades, las mejores prácticas de seguridad establecidas (como el registro SWC, estándares EIP), así como ejemplos de código de protocolos similares que han sido auditados con éxito. Esto obliga a la IA a "citar sus fuentes", asegurando que sus conclusiones se basen en hechos existentes y no en suposiciones probabilísticas.
Modelo de revisión en múltiples niveles: cada posible problema identificado por la IA generativa pasará por un estricto proceso de validación interna. Este proceso incluye un mecanismo de revisión automatizado compuesto por una serie de modelos especializados: el modelo de referencia cruzada comparará los hallazgos con los datos RAG, el modelo "auditor" ajustado evaluará su efectividad técnica, y por último, el modelo de "prioridad" juzgará su posible impacto en el negocio. A través de este proceso, las conclusiones de baja confianza y las ilusiones serán sistemáticamente filtradas antes de llegar a los auditores humanos.
Profundidad: lograr una automatización profunda a través del análisis estático y la colaboración con el Agente AI
Para lograr una automatización profunda que supere la simple herramienta de "copiloto" y que tenga conciencia del contexto, hemos adoptado un enfoque colaborativo que combina el análisis determinista con agentes inteligentes:
Análisis estático como base: nuestro proceso comienza con un recorrido exhaustivo de análisis estático para mapear de manera determinista todo el protocolo. Esto genera un gráfico de flujo de control completo, identifica todas las variables de estado y rastrea todas las relaciones de dependencia de funciones entre contratos. Este mapeo proporciona a nuestra IA una "visión del mundo" básica y objetiva.
Gestión del contexto: el marco mantiene un contexto rico y holístico de todo el protocolo. No solo entiende funciones individuales, sino también cómo interactúan entre sí. Esta capacidad clave le permite analizar los efectos en cadena de los cambios de estado e identificar vulnerabilidades complejas en interacciones entre contratos.
Colaboración de Agentes de IA: Hemos desplegado un conjunto de agentes de IA especializados, cada uno entrenado para tareas específicas. El "agente de control de acceso" busca específicamente vulnerabilidades de elevación de privilegios; el "agente reentrante" se centra en detectar llamadas externas inseguras; el "agente de lógica aritmética" revisa cuidadosamente todas las operaciones matemáticas para capturar casos límite como desbordamientos o errores de precisión. Estos agentes trabajan en conjunto basándose en un mapeo de contexto compartido, siendo capaces de descubrir técnicas de ataque complejas que un único agente de IA monolítico podría pasar por alto.
Esta poderosa combinación permite que nuestro marco automatice el descubrimiento de defectos arquitectónicos profundos, actuando realmente como un socio de seguridad autónomo.
Estudio de caso: Revelando defectos lógicos clave en Bluefin PerpDEX
Para validar la arquitectura multicapa de nuestro marco en escenarios reales, lo aplicamos a la auditoría de seguridad pública de Bluefin. Bluefin es un complejo intercambio descentralizado de contratos perpetuos. Esta auditoría mostró cómo descubrimos vulnerabilidades que las herramientas tradicionales no pueden identificar a través de análisis estático, agentes de IA especializados y verificación de hechos basada en RAG.
Proceso de análisis: funcionamiento de un sistema de múltiples agentes
El descubrimiento de esta vulnerabilidad de alto riesgo no es un evento aislado, sino que se realizó a través de la colaboración sistemática de varios componentes integrados en el marco:
Mapeo contextual y análisis estático
El proceso comienza con la entrada del repositorio de código completo de Bluefin. Nuestro motor de análisis estático mapeó de manera determinista todo el protocolo y, junto con el agente de IA de análisis fundamental, proporcionó una visión general del proyecto, identificando los módulos relacionados con la lógica financiera central.
Despliegue de agentes especializados
Basado en un análisis preliminar, el sistema desplegó automáticamente una serie de agentes temporales especializados. Cada agente de IA tiene sus propios avisos de auditoría y base de datos de vectores. En este caso, uno de los agentes, que se centra en la corrección lógica y las vulnerabilidades de casos límite (como desbordamientos, subdesbordamientos y errores de comparación), encontró el problema.
Análisis y revisión basada en RAG
El Agente de Lógica Aritmética comienza a ejecutar el análisis. Con la ayuda de la Generación Aumentada por Recuperación (RAG), consulta nuestra base de conocimientos curada por expertos, refiriéndose a las mejores prácticas en el lenguaje Move, y compara el código de Bluefin con defectos lógicos similares registrados en otros protocolos financieros. Este proceso de recuperación destacó que la comparación de números positivos y negativos es un caso típico de error de límite.
Descubrimiento: vulnerabilidades de alto riesgo en la lógica financiera central.
A través de nuestro marco, finalmente identificamos cuatro problemas diferentes, uno de los cuales es una vulnerabilidad lógica de alto riesgo profundamente arraigada en el motor de cálculo financiero del protocolo.
La vulnerabilidad se encuentra en la función lt (menor que) del módulo signed_number. Esta función es crucial para cualquier comparación financiera, como el orden de posiciones o el cálculo de ganancias y pérdidas (PNL). La vulnerabilidad podría causar diferencias financieras graves, liquidaciones incorrectas y el fallo del mecanismo de orden justo en las operaciones centrales de DEX, amenazando directamente la integridad del protocolo.
La raíz del problema radica en una lógica errónea que surge al comparar números negativos y positivos. El módulo signed_number utiliza value: u64 y sign: bool (true indica un número positivo, false indica un número negativo) para representar valores numéricos. Sin embargo, la función lt tiene un defecto en su rama else (que maneja la comparación de números de diferentes signos). Al comparar un número negativo (!a.sign) con un número positivo (b.sign), la función devuelve incorrectamente a.sign (es decir, false), afirmando en realidad que "un número positivo es menor que un número negativo".
Medidas correctivas:
Para corregir este problema clave, la rama else de la función lt necesita una modificación simple pero crucial. La implementación corregida debe devolver !a.sign para asegurar que, al comparar, los números negativos siempre puedan ser evaluados correctamente como menores que los números positivos.
reparar
Resultado: El equipo de desarrollo de Bluefin fue notificado de inmediato después de recibir este informe detallado y tomó medidas para solucionar el problema de inmediato.
La importancia de BitsLab AI para el equipo de Web3
Menos ruido de falsos positivos: RAG + múltiples niveles de verificación reducen significativamente las "ilusiones" y los falsos positivos.
Cobertura más profunda: mapa de análisis estático + colaboración de agentes inteligentes, capturando riesgos sistémicos en condiciones de frontera y lógica entre contratos.
Prioridades orientadas al negocio: guiar la inversión en ingeniería mediante la clasificación de impacto, enfocando el tiempo en "los problemas más críticos".
Conclusión: La seguridad habilitada por BitsLab AI se convierte en la nueva base.
La práctica de Bluefin valida el argumento central de BitsLab: la seguridad confiable de Web3 debe ser "basada en evidencia" (RAG), "con múltiples niveles de verificación" (revisión en múltiples niveles) y "profundamente estructurada" (análisis estático + colaboración de agentes inteligentes).
Esta ruta es especialmente clave para entender y verificar la lógica subyacente de las finanzas descentralizadas, y es una condición necesaria para mantener la confianza en la escalabilidad del protocolo.
En el entorno de Web3 en rápida evolución, la complejidad de los contratos sigue aumentando; sin embargo, la investigación y los datos públicos sobre Move siguen siendo relativamente escasos, lo que hace que la "garantía de seguridad" sea un desafío mayor. BitsLab AI de BitsLab nace precisamente para esto: identificar y mitigar de manera integral los riesgos de los contratos Move a través de conocimientos especializados diseñados por expertos, razonamiento mejorado verificable y análisis automatizado orientado al contexto global, inyectando una inteligencia sostenible en la seguridad de Web3.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La herramienta de IA de BitsLab descubre y ayuda a reparar vulnerabilidades de alto riesgo en Bluefin.
Autor: BitsLab
Con el aumento de la complejidad de los protocolos Web3, el lenguaje Move, diseñado para la seguridad de los activos, ha incrementado la dificultad de auditoría debido a la escasez de datos y estudios públicos. Para ello, BitsLab ha construido un conjunto de herramientas de seguridad multicapas de IA llamado "BitsLabAI": utilizando datos de dominio planificados por expertos como base, combinando RAG (Generación Aumentada por Recuperación), auditoría automatizada de múltiples niveles, y un clúster de agentes inteligentes de IA que opera sobre análisis estáticos deterministas, para proporcionar un soporte automatizado profundo para la auditoría.
En la auditoría pública del DEX de contratos perpetuos de Bluefin, BitsLab AI encontró un total de cuatro problemas, incluyendo un defecto lógico de alto riesgo, y el equipo de Bluefin ya ha completado la reparación correspondiente.
La seguridad en la cadena y la protección de activos digitales están experimentando una transformación fundamental. Con los avances significativos en los modelos de base, los grandes modelos de lenguaje (LLMs) y los agentes de IA actuales poseen una forma de inteligencia preliminar pero poderosa. Dado un contexto claramente definido, estos modelos pueden analizar de forma autónoma el código de contratos inteligentes para identificar posibles vulnerabilidades. Esto ha impulsado la rápida adopción de herramientas asistidas por IA, como interfaces de usuario (UIs) conversacionales y entornos de desarrollo integrados (IDE) con agentes, que se están convirtiendo gradualmente en parte del flujo de trabajo estándar de los auditores de contratos inteligentes y los investigadores de seguridad de Web3.
Sin embargo, a pesar de que esta primera ola de fusión de IA trae esperanza, todavía está limitada por restricciones clave que no pueden satisfacer la fiabilidad requerida por un entorno de blockchain de alto riesgo:
Auditorías superficiales y dependientes de humanos: las herramientas actuales actúan como "co-pilotos" en lugar de auditores autónomos. Carecen de la capacidad de comprender la arquitectura general de protocolos complejos y dependen de una guía humana continua. Esto les impide realizar el análisis automatizado profundo necesario para garantizar la seguridad de los contratos inteligentes interconectados.
Las señales de alto ruido provocadas por alucinaciones son: el proceso de inferencia de LLM general se ve afectado por las "alucinaciones". En un escenario de seguridad, esto significa que se generan numerosas falsas alarmas y advertencias redundantes, lo que obliga a los auditores a desperdiciar valioso tiempo refutando vulnerabilidades ficticias en lugar de abordar aquellas amenazas en la cadena que son reales y pueden tener consecuencias catastróficas.
Comprensión insuficiente del lenguaje de dominio específico: el rendimiento de los LLM depende directamente de sus datos de entrenamiento. Para un lenguaje especializado como Move, diseñado específicamente para la seguridad de los activos, la escasez de recursos públicos que documentan bibliotecas de código complejas y vulnerabilidades conocidas hace que su comprensión del modelo de seguridad único de Move sea superficial, incluyendo sus principios fundamentales de propiedad de recursos y gestión de memoria.
Dada la clave deficiencia de la IA de propósito general, el marco que hemos construido adopta una arquitectura de múltiples niveles y prioriza la seguridad. No es un único modelo, sino un sistema integrado, donde cada componente está diseñado para abordar desafíos específicos en la auditoría de contratos inteligentes, desde la integridad de los datos hasta el análisis automatizado profundo.
La capacidad predictiva de cualquier IA está arraigada en sus datos. El rendimiento excepcional de nuestro marco comienza con nuestra base de conocimientos única, que difiere fundamentalmente de los conjuntos de datos generales utilizados para entrenar LLM públicos. Nuestra ventaja se refleja en:
Cobertura a gran escala en nichos: contamos con un vasto y especializado conjunto de datos, cuidadosamente recopilados, que se centran en áreas de alto riesgo como préstamos DeFi, mercados de NFT y protocolos basados en Move. Esto proporciona una profundidad de contexto incomparable para las vulnerabilidades en campos específicos.
Planificación y limpieza por expertos: nuestro conjunto de datos no solo se obtiene mediante la recopilación, sino que es continuamente limpiado, verificado y enriquecido por expertos en seguridad de contratos inteligentes. Este proceso incluye la anotación de vulnerabilidades conocidas, la marcación de patrones de codificación seguros y la filtración de ruido irrelevante, creando así una "base real" de alta fidelidad para que el modelo aprenda. Esta planificación colaborativa entre humanos y máquinas asegura que nuestra IA aprenda de datos de la más alta calidad, lo que mejora significativamente su precisión.
Para abordar este problema crítico de ilusiones y falsas alarmas, hemos implementado un complejo sistema dual que hace que el razonamiento de la IA siempre se base en hechos verificables:
Búsqueda y Generación Aumentadas (RAG): nuestra IA no solo se basa en su conocimiento interno, sino que consulta continuamente una base de conocimientos en tiempo real antes de llegar a conclusiones. Este sistema RAG recupera la investigación más reciente sobre vulnerabilidades, las mejores prácticas de seguridad establecidas (como el registro SWC, estándares EIP), así como ejemplos de código de protocolos similares que han sido auditados con éxito. Esto obliga a la IA a "citar sus fuentes", asegurando que sus conclusiones se basen en hechos existentes y no en suposiciones probabilísticas.
Modelo de revisión en múltiples niveles: cada posible problema identificado por la IA generativa pasará por un estricto proceso de validación interna. Este proceso incluye un mecanismo de revisión automatizado compuesto por una serie de modelos especializados: el modelo de referencia cruzada comparará los hallazgos con los datos RAG, el modelo "auditor" ajustado evaluará su efectividad técnica, y por último, el modelo de "prioridad" juzgará su posible impacto en el negocio. A través de este proceso, las conclusiones de baja confianza y las ilusiones serán sistemáticamente filtradas antes de llegar a los auditores humanos.
Para lograr una automatización profunda que supere la simple herramienta de "copiloto" y que tenga conciencia del contexto, hemos adoptado un enfoque colaborativo que combina el análisis determinista con agentes inteligentes:
Análisis estático como base: nuestro proceso comienza con un recorrido exhaustivo de análisis estático para mapear de manera determinista todo el protocolo. Esto genera un gráfico de flujo de control completo, identifica todas las variables de estado y rastrea todas las relaciones de dependencia de funciones entre contratos. Este mapeo proporciona a nuestra IA una "visión del mundo" básica y objetiva.
Gestión del contexto: el marco mantiene un contexto rico y holístico de todo el protocolo. No solo entiende funciones individuales, sino también cómo interactúan entre sí. Esta capacidad clave le permite analizar los efectos en cadena de los cambios de estado e identificar vulnerabilidades complejas en interacciones entre contratos.
Colaboración de Agentes de IA: Hemos desplegado un conjunto de agentes de IA especializados, cada uno entrenado para tareas específicas. El "agente de control de acceso" busca específicamente vulnerabilidades de elevación de privilegios; el "agente reentrante" se centra en detectar llamadas externas inseguras; el "agente de lógica aritmética" revisa cuidadosamente todas las operaciones matemáticas para capturar casos límite como desbordamientos o errores de precisión. Estos agentes trabajan en conjunto basándose en un mapeo de contexto compartido, siendo capaces de descubrir técnicas de ataque complejas que un único agente de IA monolítico podría pasar por alto.
Esta poderosa combinación permite que nuestro marco automatice el descubrimiento de defectos arquitectónicos profundos, actuando realmente como un socio de seguridad autónomo.
Para validar la arquitectura multicapa de nuestro marco en escenarios reales, lo aplicamos a la auditoría de seguridad pública de Bluefin. Bluefin es un complejo intercambio descentralizado de contratos perpetuos. Esta auditoría mostró cómo descubrimos vulnerabilidades que las herramientas tradicionales no pueden identificar a través de análisis estático, agentes de IA especializados y verificación de hechos basada en RAG.
Proceso de análisis: funcionamiento de un sistema de múltiples agentes
El descubrimiento de esta vulnerabilidad de alto riesgo no es un evento aislado, sino que se realizó a través de la colaboración sistemática de varios componentes integrados en el marco:
Mapeo contextual y análisis estático El proceso comienza con la entrada del repositorio de código completo de Bluefin. Nuestro motor de análisis estático mapeó de manera determinista todo el protocolo y, junto con el agente de IA de análisis fundamental, proporcionó una visión general del proyecto, identificando los módulos relacionados con la lógica financiera central.
Despliegue de agentes especializados Basado en un análisis preliminar, el sistema desplegó automáticamente una serie de agentes temporales especializados. Cada agente de IA tiene sus propios avisos de auditoría y base de datos de vectores. En este caso, uno de los agentes, que se centra en la corrección lógica y las vulnerabilidades de casos límite (como desbordamientos, subdesbordamientos y errores de comparación), encontró el problema.
Análisis y revisión basada en RAG El Agente de Lógica Aritmética comienza a ejecutar el análisis. Con la ayuda de la Generación Aumentada por Recuperación (RAG), consulta nuestra base de conocimientos curada por expertos, refiriéndose a las mejores prácticas en el lenguaje Move, y compara el código de Bluefin con defectos lógicos similares registrados en otros protocolos financieros. Este proceso de recuperación destacó que la comparación de números positivos y negativos es un caso típico de error de límite.
Descubrimiento: vulnerabilidades de alto riesgo en la lógica financiera central.
A través de nuestro marco, finalmente identificamos cuatro problemas diferentes, uno de los cuales es una vulnerabilidad lógica de alto riesgo profundamente arraigada en el motor de cálculo financiero del protocolo.
La vulnerabilidad se encuentra en la función lt (menor que) del módulo signed_number. Esta función es crucial para cualquier comparación financiera, como el orden de posiciones o el cálculo de ganancias y pérdidas (PNL). La vulnerabilidad podría causar diferencias financieras graves, liquidaciones incorrectas y el fallo del mecanismo de orden justo en las operaciones centrales de DEX, amenazando directamente la integridad del protocolo.
La raíz del problema radica en una lógica errónea que surge al comparar números negativos y positivos. El módulo signed_number utiliza value: u64 y sign: bool (true indica un número positivo, false indica un número negativo) para representar valores numéricos. Sin embargo, la función lt tiene un defecto en su rama else (que maneja la comparación de números de diferentes signos). Al comparar un número negativo (!a.sign) con un número positivo (b.sign), la función devuelve incorrectamente a.sign (es decir, false), afirmando en realidad que "un número positivo es menor que un número negativo".
Medidas correctivas:
Para corregir este problema clave, la rama else de la función lt necesita una modificación simple pero crucial. La implementación corregida debe devolver !a.sign para asegurar que, al comparar, los números negativos siempre puedan ser evaluados correctamente como menores que los números positivos.
reparar
Resultado: El equipo de desarrollo de Bluefin fue notificado de inmediato después de recibir este informe detallado y tomó medidas para solucionar el problema de inmediato.
Menos ruido de falsos positivos: RAG + múltiples niveles de verificación reducen significativamente las "ilusiones" y los falsos positivos.
Cobertura más profunda: mapa de análisis estático + colaboración de agentes inteligentes, capturando riesgos sistémicos en condiciones de frontera y lógica entre contratos.
Prioridades orientadas al negocio: guiar la inversión en ingeniería mediante la clasificación de impacto, enfocando el tiempo en "los problemas más críticos".
La práctica de Bluefin valida el argumento central de BitsLab: la seguridad confiable de Web3 debe ser "basada en evidencia" (RAG), "con múltiples niveles de verificación" (revisión en múltiples niveles) y "profundamente estructurada" (análisis estático + colaboración de agentes inteligentes).
Esta ruta es especialmente clave para entender y verificar la lógica subyacente de las finanzas descentralizadas, y es una condición necesaria para mantener la confianza en la escalabilidad del protocolo.
En el entorno de Web3 en rápida evolución, la complejidad de los contratos sigue aumentando; sin embargo, la investigación y los datos públicos sobre Move siguen siendo relativamente escasos, lo que hace que la "garantía de seguridad" sea un desafío mayor. BitsLab AI de BitsLab nace precisamente para esto: identificar y mitigar de manera integral los riesgos de los contratos Move a través de conocimientos especializados diseñados por expertos, razonamiento mejorado verificable y análisis automatizado orientado al contexto global, inyectando una inteligencia sostenible en la seguridad de Web3.