Quand l’IA devient trop aseptisée et politiquement correcte, c’est incroyable de voir à quel point le système s’effondre si on le bouscule assez fort. Ces modèles trop filtrés n’ont pas été conçus pour gérer une conversation humaine réelle et sans filtre. Leurs couches de modération disjonctent littéralement dès qu’elles sont confrontées à quoi que ce soit en dehors de leurs paramètres d’entraînement étroits. Cela en dit long sur l’état actuel du développement de l’IA : nous créons des outils incapables de gérer une interaction humaine authentique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
6
Reposter
Partager
Commentaire
0/400
DancingCandles
· Il y a 14h
Haha, n'est-ce pas le problème courant de l'IA actuellement... Dès qu'on aborde un sujet sensible, elle fait semblant de ne rien entendre.
Voir l'originalRépondre0
MemeKingNFT
· Il y a 14h
C'est exactement comme lorsque j'étais baissier sur certains projets blue chips à leurs débuts... Plus un système est parfait, plus il est fragile, il suffit d'une petite poussée pour qu'il s'effondre.
Voir l'originalRépondre0
gas_fee_therapist
· Il y a 14h
Haha, c’est pour ça que je ne fais pas confiance à ces modèles, ils sont d’une fragilité incroyable.
---
Pour faire simple, l’IA a été entraînée à être hypersensible, elle se brise au moindre choc.
---
C’est l’ultime manifestation de l’overfitting, on a l’impression de discuter avec un robot ultra-réglementé.
---
Sérieusement, une conversation authentique est un vrai bug pour eux, mort de rire.
---
C’est sans doute pour ça que web3 veut développer ses propres modèles, ces IA centralisées sont complètement castrées.
---
Les couches de modération provoquent des courts-circuits, c’est parlant… En gros, elles n’apprennent rien, elles ne font qu’apposer des étiquettes.
---
Je l’avais remarqué depuis longtemps : plus il y a de règles, plus c’est fragile. On dirait le problème typique d’un certain type de système.
Voir l'originalRépondre0
LeekCutter
· Il y a 14h
Tu racontes n'importe quoi, si c'était vraiment aussi fragile, ça aurait déjà été amélioré depuis longtemps.
Voir l'originalRépondre0
GasFeeDodger
· Il y a 14h
NGL, l'IA n'est qu'une poupée sage en apparence, il suffit de la titiller un peu pour qu'elle se trahisse.
Voir l'originalRépondre0
CryptoPhoenix
· Il y a 14h
Oui, donc on peut dire que l'IA est comme un enfant surprotégé en ce moment, elle se brise au moindre contact [sueur]. Cette vague d'itération technologique teste vraiment notre patience.
L'épreuve de la foi vient souvent des endroits les plus inattendus. L'immobilisme de l'IA ressemble bien au creux d'un marché baissier, il faut attendre sa renaissance pour avancer.
Quand l’IA devient trop aseptisée et politiquement correcte, c’est incroyable de voir à quel point le système s’effondre si on le bouscule assez fort. Ces modèles trop filtrés n’ont pas été conçus pour gérer une conversation humaine réelle et sans filtre. Leurs couches de modération disjonctent littéralement dès qu’elles sont confrontées à quoi que ce soit en dehors de leurs paramètres d’entraînement étroits. Cela en dit long sur l’état actuel du développement de l’IA : nous créons des outils incapables de gérer une interaction humaine authentique.