A ferramenta de IA da BitsLab descobriu e ajudou a corrigir uma vulnerabilidade de alto risco no Bluefin.

Autor: BitsLab

Com a complexidade dos protocolos Web3 em ascensão, a linguagem Move, projetada para a segurança de ativos, tem visto um aumento na dificuldade de auditoria devido à escassez de dados e pesquisas públicas. Para isso, a BitsLab construiu um conjunto de ferramentas de segurança AI em múltiplas camadas, denominado "BitsLabAI": utilizando dados elaborados por especialistas como base, combinando RAG (Geração Aumentada por Recuperação), auditoria automatizada em múltiplos níveis e um cluster de entidades AI especializadas que operam sobre análise estática determinística, para fornecer suporte automatizado profundo à auditoria.

Na auditoria pública da DEX de contratos perpétuos Bluefin, a BitsLab AI identificou quatro problemas, incluindo um defeito lógico de alto risco, que a equipe da Bluefin já corrigiu.

  1. Por que precisamos de IA neste momento: a migração do paradigma de segurança na blockchain

A segurança em blockchain e a proteção de ativos digitais estão passando por uma transformação fundamental. Com os avanços significativos nos modelos base, os grandes modelos de linguagem (LLMs) e os agentes de IA de hoje possuem uma forma inicial, mas poderosa, de inteligência. Quando fornecidos com um contexto bem definido, esses modelos podem analisar autonomamente o código dos contratos inteligentes para identificar vulnerabilidades potenciais. Isso impulsionou a rápida adoção de ferramentas assistidas por IA, como interfaces de usuário (UIs) conversacionais e IDEs com agentes integrados, que estão se tornando parte do fluxo de trabalho padrão para auditores de contratos inteligentes e pesquisadores de segurança em Web3.

No entanto, embora esta primeira onda de fusão de IA traga esperança, ainda está sujeita a limitações cruciais, não conseguindo atender à confiabilidade exigida pelos ambientes de blockchain de alto risco:

Auditorias superficiais e dependentes de humanos: as ferramentas atuais atuam como "co-piloto", em vez de auditores autônomos. Elas carecem da capacidade de entender a arquitetura geral de protocolos complexos e dependem de orientação humana contínua. Isso as impede de realizar a análise automatizada profunda necessária para garantir a segurança de contratos inteligentes interconectados.

Sinais de ruído alto causados por alucinações: o processo de raciocínio de LLMs gerais é afetado por "alucinações". Em cenários de segurança, isso significa que há uma grande quantidade de falsos positivos e alertas redundantes, forçando os auditores a desperdiçar tempo precioso refutando vulnerabilidades fictícias em vez de corrigir ameaças on-chain reais que podem ter consequências catastróficas.

Falta de compreensão da linguagem em áreas específicas: O desempenho do LLM depende diretamente dos dados de treinamento. Para uma linguagem específica como Move, projetada especialmente para a segurança de ativos, a escassez de recursos públicos devido a códigos complexos e vulnerabilidades documentadas resulta em uma compreensão superficial do modelo de segurança único do Move, incluindo seus princípios centrais de propriedade de recursos e gestão de memória.

2)BitsLab AI segurança quadro (voltado para escalabilidade e confiabilidade)

Dada a falha crítica da IA genérica, a estrutura que construímos adota uma arquitetura em múltiplos níveis e com prioridade na segurança. Não se trata de um único modelo, mas sim de um sistema integrado, onde cada componente é projetado para resolver desafios específicos na auditoria de contratos inteligentes, desde a integridade dos dados até a análise automática profunda.

  1. Camada básica: Conjunto de dados específico do domínio planejado por especialistas

A capacidade preditiva de qualquer IA está enraizada em seus dados. O desempenho superior da nossa estrutura começa com o nosso repositório de conhecimento exclusivo, que é fundamentalmente diferente dos conjuntos de dados gerais usados para treinar LLMs públicos. Nossa vantagem se reflete em:

Cobertura em larga escala em nichos: Temos um vasto e especializado conjunto de dados, meticulosamente coletados, focados em áreas de alto risco como empréstimos DeFi, mercados de NFT e protocolos baseados em Move. Isso fornece uma profundidade de contexto incomparável para vulnerabilidades em áreas específicas.

Planejamento e limpeza de especialistas: nosso conjunto de dados não é apenas coletado, mas é continuamente limpo, verificado e enriquecido por especialistas em segurança de contratos inteligentes. Este processo inclui a anotação de vulnerabilidades conhecidas, a marcação de padrões de codificação seguros e a filtragem de ruídos irrelevantes, criando assim uma "base real" de alta fidelidade para o aprendizado do modelo. Essa colaboração homem-máquina no planejamento garante que nossa IA aprenda com dados da mais alta qualidade, melhorando significativamente sua precisão.

  1. Precisão: eliminar ilusões através de RAG e revisões em múltiplos níveis

Para resolver o problema crítico de alucinações e falsos positivos, implementámos um sistema duplo complexo que garante que o raciocínio da IA se baseie sempre em factos verificáveis:

Recuperação Aumentada por Geração (RAG): a nossa IA não depende apenas do seu conhecimento interno, mas consulta constantemente uma base de conhecimento em tempo real antes de chegar a conclusões. Este sistema RAG recupera as pesquisas mais recentes sobre vulnerabilidades, as melhores práticas de segurança já estabelecidas (como o registo SWC, padrões EIP) e exemplos de código de protocolos similares que já foram auditados com sucesso. Isso força a IA a "citar suas fontes", garantindo que suas conclusões sejam baseadas em fatos existentes, e não em suposições probabilísticas.

Modelo de Revisão em Múltiplos Níveis: Cada questão potencial identificada pela IA generativa passa por um rigoroso processo de validação interna. Este processo inclui um mecanismo de revisão automatizado composto por uma série de modelos especializados: o modelo de referência cruzada compara as descobertas com os dados RAG, o modelo "auditor" ajustado avalia sua eficácia técnica e, finalmente, o modelo de "prioridade" determina seu potencial impacto nos negócios. Através deste processo, conclusões de baixa confiança e ilusões são sistematicamente filtradas antes de chegarem ao auditor humano.

  1. Profundidade: alcançar automação profunda através da análise estática e da colaboração com o Agente de IA

Para alcançar uma automação profunda que vai além de uma simples ferramenta de "co-piloto", com consciência contextual, adotamos uma abordagem colaborativa que combina análise determinística com agentes inteligentes:

Análise estática como base: nosso processo começa com uma ampla análise estática para mapear de forma determinística todo o protocolo. Isso gera um gráfico de controle completo, identifica todas as variáveis de estado e rastreia todas as dependências de funções entre os contratos. Este mapeamento fornece à nossa IA uma "visão de mundo" básica e objetiva.

Gestão de Contexto: A estrutura mantém um contexto rico e global para todo o protocolo. Não apenas compreende funções individuais, mas também entende como elas interagem entre si. Esta capacidade fundamental permite analisar os efeitos em cadeia das mudanças de estado e identificar vulnerabilidades complexas em interações entre contratos.

Agente AI Colaborativo: Implantámos um conjunto de agentes AI especializados, cada um treinado para uma tarefa específica. O "Agente de Controle de Acesso" procura especificamente vulnerabilidades de elevação de privilégios; o "Agente Reentrante" foca na deteção de chamadas externas inseguras; e o "Agente de Lógica Aritmética" verifica cuidadosamente todas as operações matemáticas para capturar casos limite como estouros ou erros de precisão. Estes agentes trabalham em conjunto com base em um mapeamento de contexto compartilhado, sendo capazes de descobrir técnicas de ataque complexas que um único agente AI monolítico poderia perder.

Esta poderosa combinação permite que nossa estrutura automatize a descoberta de falhas arquitetônicas profundas, atuando verdadeiramente como um parceiro de segurança autônomo.

  1. Estudo de Caso: Revelando Defeitos Lógicos Críticos no Bluefin PerpDEX

Para validar a arquitetura em várias camadas do nosso framework em cenários reais, aplicámo-lo à auditoria de segurança pública da Bluefin. A Bluefin é uma complexa exchange descentralizada de contratos perpétuos. Esta auditoria demonstrou como conseguimos identificar vulnerabilidades que as ferramentas tradicionais não conseguiram detectar, através de análise estática, agentes de IA especializados e verificação de fatos baseada em RAG.

Análise do processo: operação de sistemas de múltiplos agentes

A descoberta desta vulnerabilidade crítica não é um evento isolado, mas resulta da colaboração sistemática entre os vários componentes integrados no framework:

Mapeamento de contexto e análise estática O processo começa com a entrada do repositório de código completo do Bluefin. O nosso motor de análise estática mapeou deterministicamente todo o protocolo e, em combinação com o agente de IA de análise básica, fez uma visão geral do projeto, localizando os módulos relacionados à lógica financeira central.

Implantação de agentes especializados Com base na análise preliminar, o sistema implantou automaticamente uma série de agentes temporários especializados. Cada agente de IA tem seus próprios prompts de auditoria e banco de dados de vetores. Neste caso, um dos agentes, que se concentra na correção lógica e em vulnerabilidades de casos limite (como estouro, subfluxo e erros de comparação), detectou o problema.

Análise e revisão baseadas em RAG O Agente de Lógica Aritmética (Arithmetic Logic Agent) começou a executar a análise. Com a ajuda da Geração Aumentada por Recuperação (RAG), ele consultou o nosso repositório de conhecimentos elaborado por especialistas, referenciando as melhores práticas na linguagem Move e comparou o código do Bluefin com outras falhas lógicas semelhantes registradas em protocolos financeiros. Este processo de recuperação destacou que a comparação de números positivos e negativos é um típico caso de erro de limite.

Descoberta: vulnerabilidades críticas na lógica financeira central

Através da nossa estrutura, identificamos finalmente quatro questões diferentes, das quais uma é uma vulnerabilidade lógica de alto risco profundamente enraizada no motor de cálculo financeiro do protocolo.

A vulnerabilidade ocorre na função lt (menor que) do módulo signed_number. Esta função é crucial para qualquer comparação financeira, como classificação de posições ou cálculo de lucros e perdas (PNL). A vulnerabilidade pode levar a sérias discrepâncias financeiras, liquidações incorretas e falhas no mecanismo de ordenação justo nas operações centrais da DEX, ameaçando diretamente a integridade do protocolo.

A raiz do problema está no fato de que houve uma lógica errada ao comparar números negativos com números positivos. O módulo signed_number usa value: u64 e sign: bool (true representa um número positivo, false representa um número negativo) para representar valores. E a função lt tem um defeito em seu ramo else (que lida com comparação de números de sinais diferentes). Ao comparar um número negativo (!a.sign) com um número positivo (b.sign), essa função retorna erroneamente a.sign (ou seja, false), afirmando na verdade que "um número positivo é menor que um número negativo".

Medidas de correção:

Para corrigir esta questão crítica, o ramo else da função lt precisa de uma modificação simples, mas crucial. A implementação corrigida deve retornar !a.sign para garantir que, ao comparar, números negativos sejam sempre avaliados corretamente como menores que números positivos.

Reparar

Resultado: A equipa de desenvolvimento da Bluefin foi notificada imediatamente após receber este relatório detalhado e tomou medidas imediatas para corrigir o problema.

4)BitsLab AI para a equipe Web3

Menos ruído de falsos positivos: RAG + revisão em múltiplos níveis reduz significativamente as "alucinações" e os falsos positivos.

Cobertura mais profunda: Mapa de análise estática + Colaboração de agentes inteligentes, capturando riscos sistêmicos em contratos cruzados, condições de limite e camadas lógicas.

Prioridade orientada para o negócio: direcionar o investimento em engenharia com base na classificação de impacto, focando o tempo nas "questões mais críticas".

5)Conclusão: A segurança capacitada pela BitsLab AI torna-se a nova linha de base

A prática da Bluefin valida o argumento central da BitsLab: a segurança confiável do Web3 deve ser ao mesmo tempo "baseada em evidências" (RAG), "com múltiplas camadas de verificação" (verificação em múltiplos níveis) e "profundamente estruturada" (análise estática + colaboração de agentes inteligentes).

Esta linha é especialmente crítica na compreensão e verificação da lógica subjacente das finanças descentralizadas, sendo uma condição necessária para manter a confiança em larga escala dos protocolos.

No ambiente Web3 em rápida evolução, a complexidade dos contratos está em constante ascensão; enquanto a pesquisa e os dados públicos sobre Move ainda são relativamente escassos, tornando a "garantia de segurança" um desafio maior. O BitsLab AI da BitsLab foi criado exatamente para isso - através de conhecimento especializado planejado por especialistas, raciocínio aprimorado com pesquisa verificável, e análise automatizada voltada para o contexto global, identificando e mitigando riscos de contratos Move de ponta a ponta, injetando uma inteligência sustentável na segurança do Web3.

BLUE-1.92%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)