La couche de confiance de l'IA : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, un réseau de test public nommé Mira a été lancé, suscitant l'intérêt dans l'industrie. L'objectif de ce projet est de construire une couche de confiance pour l'IA, afin de résoudre les problèmes de biais et d'hallucinations de l'IA. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira s'attaque-t-elle à ce problème ?
Lorsqu'on parle de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, les problèmes d'"hallucination" ou de biais de l'IA sont souvent négligés. Ce qu'on appelle l'"hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en racontant des absurdités de manière très sérieuse. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables.
L'apparition de "hallucinations" ou de biais par l'IA est liée à certains des chemins technologiques actuels de l'IA. Par exemple, l'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais parfois elle ne peut pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même du contenu fictif, ce qui peut influencer la sortie de l'IA. En d'autres termes, l'IA apprend des modèles de langage humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel, associé à un modèle basé sur les données, conduit presque inévitablement l'IA à produire des illusions. Si ces sorties biaisées ou illusoires sont limitées à des connaissances générales ou à du contenu de divertissement, cela ne devrait pas avoir de conséquences directes à court terme. Cependant, si cela se produit dans des domaines nécessitant une rigueur élevée tels que la santé, le droit, l'aviation ou la finance, cela pourrait avoir des impacts significatifs. Par conséquent, résoudre les problèmes d'illusions et de biais de l'IA est devenu l'une des questions centrales dans le processus de développement de l'IA.
Le projet Mira s'efforce de résoudre ce problème en construisant une couche de confiance pour l'IA afin de réduire les biais et les hallucinations de l'IA, et d'améliorer la fiabilité de l'IA. Alors, comment Mira atteint-il cet objectif ?
La stratégie centrale de Mira est de valider les sorties de l'IA grâce au consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui s'appuie sur le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette approche exploite non seulement les avantages du domaine de la cryptographie, mais tire également parti des avantages de la collaboration multi-modèles, réduisant les biais et les illusions grâce à un modèle de validation collectif.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Afin d'assurer l'honnêteté des opérateurs de nœuds, Mira utilise un mécanisme d'incitation/punition économique cryptographique, tout en introduisant différents modèles d'IA et la participation de divers opérateurs de nœuds décentralisés pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend trois parties : la conversion de contenu, la validation distribuée et le mécanisme de consensus, afin d'assurer la fiabilité de la validation. Dans cette architecture, la conversion de contenu est un élément clé. Le réseau Mira commence par décomposer le contenu candidat en différentes déclarations vérifiables, qui sont distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de synthétiser les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, la conversion du contenu candidat en déclarations est décomposée en paires de déclarations, qui sont données à différents nœuds de manière aléatoire par fragments, pour éviter toute fuite d'informations pendant le processus de validation.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validation, du traitement des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation des déclarations provient des bénéfices qu'ils peuvent obtenir. Ces bénéfices proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA (hallucinations et biais) ; une fois cet objectif atteint, cela peut générer une valeur énorme dans les domaines de la santé, du droit, de l'aviation et de la finance. Par conséquent, les clients sont prêts à payer pour cela. Bien sûr, la durabilité et l'échelle du paiement dépendent de la capacité du réseau Mira à continuer à apporter de la valeur aux clients. Pour empêcher les comportements opportunistes de réponse aléatoire des nœuds, les nœuds qui s'écartent continuellement du consensus verront leurs jetons de mise réduits.
Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé sur la base de plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les hallucinations de l'IA, et répondant aux besoins des clients en matière de précision et d'exactitude. En même temps, elle génère des bénéfices pour les participants au réseau Mira sur la base de la valeur fournie aux clients. En résumé, Mira tente de construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira en utilisant Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs de vivre des sorties d'IA vérifiées et d'avoir la chance de gagner des points Mira. Quant à l'utilisation future de ces points, elle n'a pas encore été annoncée.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
5
Partager
Commentaire
0/400
ZeroRushCaptain
· Il y a 8h
Il est recommandé de capituler, l'IA a même appris à se vanter des jetons, le chemin pour devenir des pigeons est complètement bloqué, c'est tragique.
Voir l'originalRépondre0
SchroedingerGas
· Il y a 8h
Sa famille invente tout et fait croire aux autres à des illusions.
Voir l'originalRépondre0
OfflineValidator
· Il y a 8h
Encore une fois, se faire prendre pour des cons.
Voir l'originalRépondre0
RugPullSurvivor
· Il y a 8h
Encore un nouveau projet pour se faire prendre pour des cons
Lancement de la bêta publique du réseau Mira : construire une couche de confiance en IA pour résoudre les problèmes de biais et d'illusions.
La couche de confiance de l'IA : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, un réseau de test public nommé Mira a été lancé, suscitant l'intérêt dans l'industrie. L'objectif de ce projet est de construire une couche de confiance pour l'IA, afin de résoudre les problèmes de biais et d'hallucinations de l'IA. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira s'attaque-t-elle à ce problème ?
Lorsqu'on parle de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, les problèmes d'"hallucination" ou de biais de l'IA sont souvent négligés. Ce qu'on appelle l'"hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en racontant des absurdités de manière très sérieuse. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables.
L'apparition de "hallucinations" ou de biais par l'IA est liée à certains des chemins technologiques actuels de l'IA. Par exemple, l'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais parfois elle ne peut pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même du contenu fictif, ce qui peut influencer la sortie de l'IA. En d'autres termes, l'IA apprend des modèles de langage humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel, associé à un modèle basé sur les données, conduit presque inévitablement l'IA à produire des illusions. Si ces sorties biaisées ou illusoires sont limitées à des connaissances générales ou à du contenu de divertissement, cela ne devrait pas avoir de conséquences directes à court terme. Cependant, si cela se produit dans des domaines nécessitant une rigueur élevée tels que la santé, le droit, l'aviation ou la finance, cela pourrait avoir des impacts significatifs. Par conséquent, résoudre les problèmes d'illusions et de biais de l'IA est devenu l'une des questions centrales dans le processus de développement de l'IA.
Le projet Mira s'efforce de résoudre ce problème en construisant une couche de confiance pour l'IA afin de réduire les biais et les hallucinations de l'IA, et d'améliorer la fiabilité de l'IA. Alors, comment Mira atteint-il cet objectif ?
La stratégie centrale de Mira est de valider les sorties de l'IA grâce au consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui s'appuie sur le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette approche exploite non seulement les avantages du domaine de la cryptographie, mais tire également parti des avantages de la collaboration multi-modèles, réduisant les biais et les illusions grâce à un modèle de validation collectif.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Afin d'assurer l'honnêteté des opérateurs de nœuds, Mira utilise un mécanisme d'incitation/punition économique cryptographique, tout en introduisant différents modèles d'IA et la participation de divers opérateurs de nœuds décentralisés pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend trois parties : la conversion de contenu, la validation distribuée et le mécanisme de consensus, afin d'assurer la fiabilité de la validation. Dans cette architecture, la conversion de contenu est un élément clé. Le réseau Mira commence par décomposer le contenu candidat en différentes déclarations vérifiables, qui sont distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de synthétiser les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, la conversion du contenu candidat en déclarations est décomposée en paires de déclarations, qui sont données à différents nœuds de manière aléatoire par fragments, pour éviter toute fuite d'informations pendant le processus de validation.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validation, du traitement des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation des déclarations provient des bénéfices qu'ils peuvent obtenir. Ces bénéfices proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA (hallucinations et biais) ; une fois cet objectif atteint, cela peut générer une valeur énorme dans les domaines de la santé, du droit, de l'aviation et de la finance. Par conséquent, les clients sont prêts à payer pour cela. Bien sûr, la durabilité et l'échelle du paiement dépendent de la capacité du réseau Mira à continuer à apporter de la valeur aux clients. Pour empêcher les comportements opportunistes de réponse aléatoire des nœuds, les nœuds qui s'écartent continuellement du consensus verront leurs jetons de mise réduits.
Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé sur la base de plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les hallucinations de l'IA, et répondant aux besoins des clients en matière de précision et d'exactitude. En même temps, elle génère des bénéfices pour les participants au réseau Mira sur la base de la valeur fournie aux clients. En résumé, Mira tente de construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira en utilisant Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs de vivre des sorties d'IA vérifiées et d'avoir la chance de gagner des points Mira. Quant à l'utilisation future de ces points, elle n'a pas encore été annoncée.