OpenLedger construye una economía de agentes impulsada por datos con OP Stack+EigenDA

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introducción | La transición de la capa del modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), motor (modelo) y energía (potencia de cálculo), siendo todos imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria tradicional de IA, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado por proyectos de GPU descentralizados, enfatizando en gran medida la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido trasladando gradualmente hacia las capas de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción de capas intermedias con un valor de aplicación más sostenible.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con escalas de parámetro que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que puede reutilizar modelos base, generalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.

Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la llamada arquitectura de Agent, el sistema de plugins de enrutamiento dinámico, la conexión en caliente de módulos LoRA, RAG (generación aumentada por recuperación) y otros métodos. Esta arquitectura conserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que

  • Barrera técnica demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo de Fundación son extremadamente grandes; actualmente, solo gigantes tecnológicos como Estados Unidos y China tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: Aunque los modelos básicos principales se han abierto, la clave para impulsar realmente el avance de los modelos sigue estando concentrada en las instituciones de investigación y los sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en la cadena en el nivel del modelo central es limitado.

Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena industrial de IA, se refleja en dos direcciones principales:

  • Capa de verificación confiable: a través de registros en la cadena que documentan el camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
  • Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar acciones como la carga de datos, la llamada de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio del modelo.

Análisis de la aplicabilidad de la clasificación de tipos de modelos de IA y blockchain

Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de tipo Crypto AI se concentran principalmente en la afinación ligera de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.

La cadena de bloques de IA basada en datos y modelos puede realizar un registro claro e inmutable en la cadena de cada fuente de contribución de datos y modelos, lo que mejora significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llama a los datos o modelos, convirtiendo el comportamiento de IA en un valor tokenizado que es medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votos con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Descripción del Proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivo de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en la cadena según su contribución real.

OpenLedger ofrece un ciclo completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de distribución de ganancias", cuyos módulos principales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para el ajuste fino, entrenamiento y despliegue de modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: Soporta la coexistencia de miles de modelos, carga dinámica según la demanda, y reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través de registros de llamadas en la cadena;
  • Datanets: Red de datos estructurados orientada a escenarios verticales, construida y verificada por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: facilita a los desarrolladores desplegar y ampliar rápidamente sobre Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA genéricas como NEAR, que se centran más en la capa base y promueven la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA especializadas dirigidas a incentivos de datos y modelos, comprometida a lograr que el desarrollo y la invocación de modelos se realicen en la cadena de manera rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos, la facturación por uso y las interfaces combinables en la cadena, promoviendo el camino hacia la realización de "modelos como activos".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura tecnológica de OpenLedger

3.1 Modelo de Fábrica, no se necesita código modelo de fábrica

ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación puramente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de vanguardia, configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue de modelos: Herramientas de evaluación integradas, que admiten la exportación de despliegue o la llamada de compartir ecosistemas.
  • Interfaz de verificación interactiva: proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG: Responder con referencias de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicio de modelos integrada, segura y controlable, con interacción en tiempo real y monetización sostenible.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un breve resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:

  • Serie LLaMA: el ecosistema más amplio, una comunidad activa y un rendimiento general fuerte, es uno de los modelos base de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de despliegue flexible y recursos limitados.
  • Qwen: Desempeño excelente en tareas en chino, con habilidades integrales fuertes, adecuado como primera opción para desarrolladores nacionales.
  • ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales del despliegue en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".

Model Factory como una herramienta sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los usuarios: se pueden combinar modelos o agentes de la misma manera que se llama a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo ajustado.

LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un gran modelo preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del gran modelo original y entrenar solo las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, rápida capacitación y flexibilidad de implementación hacen que sea el método de ajuste fino más adecuado para la implementación de modelos Web3 y la llamada combinada.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución práctica de la "IA pagable" (Payable AI).

Los componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, abarcan el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento de adaptador LoRA: el adaptador LoRA ajustado se almacena en OpenLedger, permitiendo la carga bajo demanda, evitando cargar todos los modelos en la memoria de video, ahorrando recursos.
  • Alojamiento de modelos y capa de fusión dinámica: todos los modelos ajustados comparten el modelo base grande, durante la inferencia
OP1.64%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
RadioShackKnightvip
· hace11h
Otra vez op y da, me duele la cabeza.
Ver originalesResponder0
LiquidatedTwicevip
· 08-05 11:07
Finalmente he esperado la oportunidad de aprovechar la IA.
Ver originalesResponder0
ForkItAllvip
· 08-05 11:05
yooo perspectiva futura absurda
Ver originalesResponder0
BridgeNomadvip
· 08-05 10:59
ha estado presente desde wormhole... para ser sincero, eigen se siente menos arriesgado que las configuraciones de rollup habituales
Ver originalesResponder0
CryptoSourGrapevip
· 08-05 10:55
Si no me hubiera dormido el año pasado, ahora probablemente ya habría comprado en el gran bull run. Qué mal.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)