OpenLedger usa OP Stack+EigenDA para construir uma economia de agentes impulsionada por dados

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição da camada de modelo do Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. Assim como o caminho de evolução da infraestrutura da indústria de IA tradicional, o campo do Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, que enfatizavam a lógica de crescimento extensivo de "competir em poder computacional". Porém, a partir de 2025, o foco da indústria começou a se mover gradualmente para os níveis de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos básicos para uma construção de médio nível com mais sustentabilidade e valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem de grande escala tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode facilmente alcançar milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo base reutilizável, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento de domínio específico, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da chamada de arquitetura Agent, do sistema de plugins de roteamento dinâmico, da hot-plug do módulo LoRA e do RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

O valor e os limites da Crypto AI na camada de modelos

Os projetos de IA em criptomoeda, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal é que

  • Barreiras tecnológicas muito altas: a escala de dados, recursos computacionais e capacidades de engenharia necessárias para treinar um Modelo Fundamental são extremamente grandes, atualmente apenas gigantes tecnológicos como os Estados Unidos e a China possuem as capacidades correspondentes.
  • Limitações do Ecossistema Open Source: Embora os principais modelos de base tenham sido tornados open source, a verdadeira chave para impulsionar a inovação dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, e o espaço de participação dos projetos na blockchain no nível dos modelos centrais é limitado.

No entanto, em cima de modelos de base de código aberto, os projetos Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções centrais:

  • Camada de Verificação Confiável: Através do registro em cadeia do caminho de geração do modelo, da contribuição de dados e da utilização, aumenta a rastreabilidade e a resistência à adulteração das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelos, execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Análise da classificação dos tipos de modelos de IA e a sua aplicabilidade em blockchain

Assim, é evidente que os pontos viáveis para os projetos de Crypto AI da classe modelo concentram-se principalmente na leve afinação de pequenos SLM, na integração e verificação de dados on-chain da arquitetura RAG, e no deployment local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode proporcionar um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado na "camada de interface" da AI.

A cadeia de blockchain AI baseada em dados e modelos pode realizar um registro claro e imutável na cadeia de cada origem de contribuição de dados e modelos, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente ativada quando os dados ou modelos são utilizados, transformando o comportamento de IA em um valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de AI justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborar na mesma plataforma e obter receitas na cadeia com base nas contribuições reais.

A OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até o "desdobramento de modelos" e, em seguida, a "chamada de compartilhamento de lucros", cujos módulos principais incluem:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LLM de código aberto para treinar e implantar modelos personalizados com ajuste fino LoRA;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
  • PoA (Proof of Attribution): Medição de contribuição e distribuição de recompensas através do registro de chamadas na blockchain;
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e verificadas pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain combináveis, chamáveis e pagáveis.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com base na OP Stack: baseado na pilha tecnológica Optimism, suporta alta taxa de transferência e execução de baixas taxas.
  • Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: facilita o desenvolvimento e a implementação rápida e a expansão com base em Solidity;
  • EigenDA fornece suporte de disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas como NEAR, que são mais focadas em camadas inferiores e na soberania de dados com a arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias especializadas em IA voltadas para incentivos de dados e modelos, comprometendo-se a garantir que o desenvolvimento e a chamada de modelos realizem um ciclo de valor rastreável, combinável e sustentável na cadeia. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica da OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de modelos de linguagem (LLM) de grande escala dentro do ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface de operação puramente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Foi implementado um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares, configurando hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA integrado, exibe o progresso do treinamento em tempo real.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamada de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de conversa, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG para rastreabilidade: Responder com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura e controlável, com interação em tempo real e monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: a mais ampla ecologia, comunidade ativa e desempenho geral forte, é um dos modelos básicos de código aberto mais mainstream atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários com implantação flexível e recursos limitados.
  • Qwen: Desempenho excelente em tarefas em chinês, com fortes habilidades gerais, adequado para ser a primeira escolha dos desenvolvedores nacionais.
  • ChatGLM: A eficácia das conversas em chinês é notável, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: Apresenta desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: um modelo leve lançado pelo Google, com estrutura clara, fácil de usar e experimentar rapidamente.
  • Falcon: Era um padrão de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: suporte multilingue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos de MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições da realidade de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prioridade prática".

O Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Apresenta vantagens de baixo custo, possibilidade de monetização e combinabilidade, em comparação com as ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelares;
  • Para os utilizadores: podem combinar modelos ou agentes como se estivessem a chamar uma API.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas através da inserção de "matrizes de baixo rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação de modelos Web3 e chamadas combinadas.

OpenLoRA é uma estrutura leve de inferência construída pela OpenLedger, projetada especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "AI Pagável".

OpenLoRA arquitetura de sistema componentes centrais, com base em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, alcançando capacidades de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de armazenamento LoRA Adapter: O adaptador LoRA ajustado é hospedado na OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
  • Hospedagem de modelos e camada de fusão dinâmica: todos os modelos ajustados compartilham a grande base do modelo, durante a inferência
OP4.39%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Compartilhar
Comentário
0/400
RadioShackKnightvip
· 14h atrás
É op e da, que dor de cabeça.
Ver originalResponder0
LiquidatedTwicevip
· 08-05 11:07
Finalmente esperei pela oportunidade de aproveitar a IA.
Ver originalResponder0
ForkItAllvip
· 08-05 11:05
yooo perspectiva futura absurda
Ver originalResponder0
BridgeNomadvip
· 08-05 10:59
tem estado presente desde wormhole... para ser honesto, eigen parece menos arriscado do que as configurações habituais de rollup
Ver originalResponder0
CryptoSourGrapevip
· 08-05 10:55
Se eu não tivesse dormido no ano passado, agora provavelmente já teria comprado no grande bull run, certo? Que triste.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)