El camino de la confianza en la IA: cómo la red Mira aborda los problemas de sesgo y alucinaciones en la IA
Recientemente, la red pública de pruebas de Mira se lanzó oficialmente, con el objetivo de construir una capa de confianza para la IA. Esto ha suscitado reflexiones sobre la credibilidad de la IA: ¿por qué es necesario confiar en la IA? ¿Y cómo abordará Mira este problema?
En las discusiones sobre la IA, a menudo se presta más atención a sus poderosas capacidades, mientras que se ignoran los problemas de "ilusión" o sesgo que existen en la IA. La "ilusión" de la IA se refiere a que a veces la IA puede "inventar" respuestas, explicando de manera aparentemente razonable fenómenos que no existen. Por ejemplo, al preguntar a la IA por qué la luna es de color rosa, puede ofrecer una serie de explicaciones que parecen razonables pero que en realidad no tienen fundamento.
La aparición de "alucinaciones" o sesgos en la IA está relacionada con la trayectoria actual de la tecnología de IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este enfoque es difícil de verificar en cuanto a su veracidad. Además, los errores, sesgos e incluso contenidos ficticios en los datos de entrenamiento también pueden afectar la salida de la IA. En resumen, la IA aprende patrones del lenguaje humano, en lugar de hechos en sí mismos.
El actual mecanismo de generación de probabilidades y el modelo impulsado por datos casi inevitablemente conducen a ilusiones de IA. Aunque en el contenido de conocimiento general o entretenimiento este problema no causará consecuencias graves temporalmente, en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, podría tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de IA se convierte en uno de los problemas centrales en el proceso de desarrollo de la IA.
El proyecto Mira se dedica a abordar los problemas de sesgo y alucinaciones en la IA, al construir una capa de confianza en la IA para mejorar su fiabilidad. El enfoque central de Mira es utilizar el consenso de múltiples modelos de IA para validar las salidas de la IA. Es esencialmente una red de verificación que utiliza el consenso de múltiples modelos de IA para validar la fiabilidad de las salidas de la IA. Más importante aún, Mira utiliza el consenso descentralizado para la verificación.
La clave de la red Mira radica en la validación de consenso descentralizada, que es precisamente la especialidad del ámbito de las criptomonedas. Al mismo tiempo, también aprovecha las ventajas de la colaboración de múltiples modelos, reduciendo sesgos y alucinaciones a través de un modelo de validación colectivo.
En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones de verificación independientes. Los operadores de nodos participan en la verificación de estas declaraciones, asegurando la honestidad de los operadores de nodos a través de un mecanismo de incentivos / sanciones económicas criptográficas. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de verificación.
La arquitectura de red de Mira incluye la conversión de contenido, la validación distribuida y el mecanismo de consenso. Primero, el sistema descompone el contenido candidato enviado por el cliente en declaraciones verificables, luego las distribuye a los nodos para su validación, y finalmente resume los resultados para alcanzar un consenso. Para proteger la privacidad del cliente, las declaraciones se distribuirán a diferentes nodos de manera aleatoria en fragmentos.
Los operadores de nodos son responsables de ejecutar modelos de validación, procesar declaraciones y presentar resultados de validación. Su motivación para participar en la validación proviene de las ganancias que pueden obtener, las cuales se originan del valor creado para los clientes. La red Mira tiene como objetivo reducir la tasa de error de la IA, especialmente en campos como la medicina, el derecho, la aviación y las finanzas, lo que generará un gran valor. Para evitar que los nodos respondan de manera aleatoria, los nodos que se desvíen constantemente del consenso verán reducidos sus tokens de participación.
En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA: construir una red de validación de consenso descentralizada basada en múltiples modelos de IA, lo que proporciona una mayor confiabilidad a los servicios de IA para los clientes, reduce los sesgos y alucinaciones de la IA, y satisface la demanda de los clientes por una mayor precisión y exactitud. En resumen, Mira está construyendo una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.
Actualmente, Mira ha colaborado con varios marcos de agentes de IA. Los usuarios pueden participar en la red de prueba pública de Mira a través de Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Los usos futuros de estos puntos aún no se han anunciado, pero sin duda ofrecen un incentivo adicional para la participación de los usuarios.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Red Mira: Construir una capa de confianza en IA para resolver problemas de sesgo y alucinaciones
El camino de la confianza en la IA: cómo la red Mira aborda los problemas de sesgo y alucinaciones en la IA
Recientemente, la red pública de pruebas de Mira se lanzó oficialmente, con el objetivo de construir una capa de confianza para la IA. Esto ha suscitado reflexiones sobre la credibilidad de la IA: ¿por qué es necesario confiar en la IA? ¿Y cómo abordará Mira este problema?
En las discusiones sobre la IA, a menudo se presta más atención a sus poderosas capacidades, mientras que se ignoran los problemas de "ilusión" o sesgo que existen en la IA. La "ilusión" de la IA se refiere a que a veces la IA puede "inventar" respuestas, explicando de manera aparentemente razonable fenómenos que no existen. Por ejemplo, al preguntar a la IA por qué la luna es de color rosa, puede ofrecer una serie de explicaciones que parecen razonables pero que en realidad no tienen fundamento.
La aparición de "alucinaciones" o sesgos en la IA está relacionada con la trayectoria actual de la tecnología de IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este enfoque es difícil de verificar en cuanto a su veracidad. Además, los errores, sesgos e incluso contenidos ficticios en los datos de entrenamiento también pueden afectar la salida de la IA. En resumen, la IA aprende patrones del lenguaje humano, en lugar de hechos en sí mismos.
El actual mecanismo de generación de probabilidades y el modelo impulsado por datos casi inevitablemente conducen a ilusiones de IA. Aunque en el contenido de conocimiento general o entretenimiento este problema no causará consecuencias graves temporalmente, en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, podría tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de IA se convierte en uno de los problemas centrales en el proceso de desarrollo de la IA.
El proyecto Mira se dedica a abordar los problemas de sesgo y alucinaciones en la IA, al construir una capa de confianza en la IA para mejorar su fiabilidad. El enfoque central de Mira es utilizar el consenso de múltiples modelos de IA para validar las salidas de la IA. Es esencialmente una red de verificación que utiliza el consenso de múltiples modelos de IA para validar la fiabilidad de las salidas de la IA. Más importante aún, Mira utiliza el consenso descentralizado para la verificación.
La clave de la red Mira radica en la validación de consenso descentralizada, que es precisamente la especialidad del ámbito de las criptomonedas. Al mismo tiempo, también aprovecha las ventajas de la colaboración de múltiples modelos, reduciendo sesgos y alucinaciones a través de un modelo de validación colectivo.
En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones de verificación independientes. Los operadores de nodos participan en la verificación de estas declaraciones, asegurando la honestidad de los operadores de nodos a través de un mecanismo de incentivos / sanciones económicas criptográficas. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de verificación.
La arquitectura de red de Mira incluye la conversión de contenido, la validación distribuida y el mecanismo de consenso. Primero, el sistema descompone el contenido candidato enviado por el cliente en declaraciones verificables, luego las distribuye a los nodos para su validación, y finalmente resume los resultados para alcanzar un consenso. Para proteger la privacidad del cliente, las declaraciones se distribuirán a diferentes nodos de manera aleatoria en fragmentos.
Los operadores de nodos son responsables de ejecutar modelos de validación, procesar declaraciones y presentar resultados de validación. Su motivación para participar en la validación proviene de las ganancias que pueden obtener, las cuales se originan del valor creado para los clientes. La red Mira tiene como objetivo reducir la tasa de error de la IA, especialmente en campos como la medicina, el derecho, la aviación y las finanzas, lo que generará un gran valor. Para evitar que los nodos respondan de manera aleatoria, los nodos que se desvíen constantemente del consenso verán reducidos sus tokens de participación.
En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA: construir una red de validación de consenso descentralizada basada en múltiples modelos de IA, lo que proporciona una mayor confiabilidad a los servicios de IA para los clientes, reduce los sesgos y alucinaciones de la IA, y satisface la demanda de los clientes por una mayor precisión y exactitud. En resumen, Mira está construyendo una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.
Actualmente, Mira ha colaborado con varios marcos de agentes de IA. Los usuarios pueden participar en la red de prueba pública de Mira a través de Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Los usos futuros de estos puntos aún no se han anunciado, pero sin duda ofrecen un incentivo adicional para la participación de los usuarios.