Lanzamiento de la prueba pública de la red Mira: construyendo una capa de confianza en IA para resolver los problemas de sesgo y alucinación.

Capa de confianza de la IA: ¿Cómo la red Mira aborda los problemas de sesgo y alucinaciones de la IA?

Recientemente, se lanzó una versión beta pública en línea llamada Mira, que ha llamado la atención en la industria. El objetivo de este proyecto es construir una capa de confianza para la IA, abordando los problemas de sesgo y alucinaciones en la IA. Entonces, ¿por qué es necesario confiar en la IA? ¿Cómo aborda Mira este problema?

Al discutir la IA, a menudo las personas se centran más en su poderosa capacidad. Sin embargo, el problema de las "alucinaciones" o sesgos de la IA a menudo se pasa por alto. Lo que se llama "alucinaciones" de la IA, en términos simples, es que a veces la IA puede "inventar" y hablar tonterías de manera muy seria. Por ejemplo, si le preguntas a la IA por qué la luna es rosa, puede dar una serie de explicaciones que parecen razonables.

La aparición de "alucinaciones" o sesgos en la IA está relacionada con algunas de las rutas tecnológicas actuales de la IA. Por ejemplo, la IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero a veces no puede verificar la veracidad. Además, los propios datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la salida de la IA. En otras palabras, la IA aprende los patrones del lenguaje humano, en lugar de los hechos en sí.

El actual mecanismo de generación de probabilidades, junto con un modelo impulsado por datos, inevitablemente conducirá a que la IA produzca alucinaciones. Si estas salidas sesgadas o alucinadas se limitan a conocimientos generales o contenido de entretenimiento, no tendrán consecuencias directas por el momento. Pero si ocurren en campos que requieren un alto grado de rigor, como la medicina, el derecho, la aviación o las finanzas, podrían tener un impacto significativo. Por lo tanto, abordar el problema de las alucinaciones y los sesgos en la IA se ha convertido en uno de los problemas centrales en el proceso de desarrollo de la IA.

El proyecto Mira se dedica a abordar este problema, construyendo una capa de confianza para la IA que reduce los sesgos y alucinations de la IA, mejorando así la confiabilidad de la IA. Entonces, ¿cómo logra Mira este objetivo?

La estrategia central de Mira es validar la salida de la IA a través del consenso de múltiples modelos de IA. Es esencialmente una red de verificación que utiliza el consenso de varios modelos de IA para validar la fiabilidad de la salida de la IA. Más importante aún, Mira adopta un enfoque de verificación de consenso descentralizado.

La clave de la red Mira radica en la verificación de consenso descentralizada. Este enfoque no solo aprovecha las ventajas del ámbito criptográfico, sino que también se beneficia de las ventajas de la colaboración de múltiples modelos, reduciendo sesgos y alucinaciones a través de un modelo de verificación colectiva.

En términos de arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones verificables de forma independiente. Estas declaraciones requieren la participación de los operadores de nodos en la verificación. Para garantizar la honestidad de los operadores de nodos, Mira ha adoptado un mecanismo de incentivos/castigos económicos criptográficos, al mismo tiempo que introduce diferentes modelos de IA y la participación de operadores de nodos descentralizados para asegurar la fiabilidad de los resultados de verificación.

La arquitectura de la red de Mira incluye tres partes: conversión de contenido, validación distribuida y mecanismo de consenso, para lograr la fiabilidad de la verificación. En esta arquitectura, la conversión de contenido es una parte importante. La red de Mira primero descompone el contenido candidato en diferentes declaraciones verificables, que son distribuidas por el sistema a los nodos para su validación, con el fin de determinar la validez de las declaraciones y resumir los resultados para alcanzar el consenso. Para proteger la privacidad del cliente, la conversión del contenido candidato se descompone en pares de declaraciones, que se entregan a diferentes nodos de manera aleatoria para prevenir la filtración de información durante el proceso de verificación.

Los operadores de nodos son responsables de ejecutar modelos de validadores, procesar declaraciones y presentar resultados de validación. Su motivación para participar en la validación de declaraciones proviene de la posibilidad de obtener recompensas. Estas recompensas se originan en el valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA (ilusiones y sesgos), y una vez alcanzado este objetivo, puede generar un gran valor en campos como la medicina, el derecho, la aviación y las finanzas. Por lo tanto, los clientes están dispuestos a pagar por ello. Por supuesto, la sostenibilidad y la escala del pago dependen de si la red Mira puede continuar brindando valor a los clientes. Para evitar comportamientos oportunistas de respuesta aleatoria de nodos, los nodos que se desvían continuamente del consenso verán reducidos sus tokens de staking.

En general, Mira proporciona un nuevo enfoque para lograr la confiabilidad de la IA. Se basa en múltiples modelos de IA para construir una red de validación de consenso descentralizada, lo que aporta una mayor confiabilidad a los servicios de IA para los clientes, reduce los sesgos y alucinaciones de la IA, y satisface la demanda de los clientes de mayor precisión y tasa de aciertos. Al mismo tiempo, genera beneficios para los participantes de la red de Mira, basándose en el valor proporcionado a los clientes. En resumen, Mira intenta construir una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.

Actualmente, los usuarios pueden participar en la red de prueba pública de Mira utilizando Klok. Klok es una aplicación de chat LLM basada en Mira, donde los usuarios pueden experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos de Mira. En cuanto a los futuros usos de estos puntos, aún no se han anunciado.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
ZeroRushCaptainvip
· hace13h
Sugerencia de Capitulación, la IA ya ha aprendido a presumir de moneda, el camino para ser tontos está completamente cerrado, es trágico.
Ver originalesResponder0
SchroedingerGasvip
· hace13h
Su familia inventa cosas y también le hace creer a otros.
Ver originalesResponder0
OfflineValidatorvip
· hace13h
Otra vez están tomando a la gente por tonta.
Ver originalesResponder0
RugPullSurvivorvip
· hace13h
Otra vez un nuevo proyecto para Ser engañados
Ver originalesResponder0
GasGuzzlervip
· hace13h
¿Eso es todo? No es nada.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)