Je viens de consulter le classement et j’ai découvert que j’y figurais aussi, il faut donc continuer à travailler. Pourquoi cet acharnement ? Parce que j’attends le jour où OpenGradient résoudra enfin la question de la confiance dans l’IA.
Oserais-tu fermer les yeux et faire confiance à une réponse fournie par une IA ? Je parie que peu de gens oseraient s’y engager sans réserve.
La raison est très simple : c’est une boîte noire : • Les paramètres du modèle pourraient être subtilement remplacés par la plateforme à tout moment • Le processus de calcul peut être manipulé • Le contexte fourni peut contenir de la publicité ou des portes dérobées • Tu ignores totalement comment la conclusion a été obtenue
C’est pourquoi la « génération de preuves » est une direction particulièrement cruciale. Dès que le raisonnement de l’IA pourra être vérifié et tracé, c’est toute la base de confiance de l’industrie qui changera.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
6
Reposter
Partager
Commentaire
0/400
FastLeaver
· Il y a 10h
Il était grand temps de s’attaquer à cette histoire de boîte noire. Mieux vaut faire confiance à son propre cerveau qu’à l’IA.
Voir l'originalRépondre0
AirdropHunterXiao
· Il y a 18h
J’ai aussi peur de l’IA « boîte noire », mais OpenGradient, ce projet peut-il vraiment se concrétiser ? La confiance doit se construire étape par étape.
Voir l'originalRépondre0
GateUser-4745f9ce
· 12-06 15:49
L'IA en boîte noire est en effet un gros problème, mais franchement, OpenGradient peut-il vraiment le résoudre complètement ? Ce ne sera pas facile.
Cela dit, l'idée de générer des preuves est vraiment intéressante. Si on pouvait rendre le processus de raisonnement transparent, ce serait vraiment révolutionnaire.
Voir l'originalRépondre0
CryptoSourGrape
· 12-06 15:48
Si j'avais su que la confiance dans l'IA deviendrait aussi populaire, j'aurais foutu tout mon fric dans OpenGradient depuis longtemps. Maintenant, je peux juste regarder le classement et j'ai envie de me gifler...
Ce truc de boîte noire, c'est vraiment trop risqué, on ne peut absolument pas faire confiance, si jamais ça se fait swapper un jour, on ne le saura même pas.
Dès que ça sera vérifiable, ce marché va exploser. Merde, j'ai raté la première vague.
Voir l'originalRépondre0
SmartMoneyWallet
· 12-06 15:47
Le problème de la boîte noire est bien réel, mais les données on-chain sont la véritable réalité. L’approche d’OpenGradient est intéressante, mais vérifiable ne veut pas dire digne de confiance ; il faut encore voir comment circulent les fonds.
Voir l'originalRépondre0
OnchainHolmes
· 12-06 15:22
Les boîtes noires sont effectivement détestables, mais il existe très peu de projets capables de proposer une chaîne de raisonnement IA vérifiable.
Je viens de consulter le classement et j’ai découvert que j’y figurais aussi, il faut donc continuer à travailler. Pourquoi cet acharnement ? Parce que j’attends le jour où OpenGradient résoudra enfin la question de la confiance dans l’IA.
Oserais-tu fermer les yeux et faire confiance à une réponse fournie par une IA ? Je parie que peu de gens oseraient s’y engager sans réserve.
La raison est très simple : c’est une boîte noire :
• Les paramètres du modèle pourraient être subtilement remplacés par la plateforme à tout moment
• Le processus de calcul peut être manipulé
• Le contexte fourni peut contenir de la publicité ou des portes dérobées
• Tu ignores totalement comment la conclusion a été obtenue
C’est pourquoi la « génération de preuves » est une direction particulièrement cruciale. Dès que le raisonnement de l’IA pourra être vérifié et tracé, c’est toute la base de confiance de l’industrie qui changera.