Sous la vague de projets IA, en y regardant de plus près, on remarque une nette différenciation. Certains projets investissent massivement dans la puissance de calcul et cherchent à obtenir des résultats impressionnants, tandis qu'une autre catégorie emprunte une voie différente — réorganiser la manière dont les agents intelligents fonctionnent.
Prenons l'exemple d'OpenMind AGI, leur approche est très différente. Ils ne se précipitent pas pour présenter des résultats spectaculaires, mais se concentrent plutôt sur une question apparemment anodine mais cruciale : comment l'IA peut-elle, dans des environnements complexes, prendre des décisions cohérentes et explicables de manière continue ?
Cela peut sembler peu important, mais c'est justement là que réside le problème. Une fois que l'IA parviendra à une véritable avancée en matière d'explicabilité et de cohérence dans la prise de décision, cela représentera une transformation qualitative.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
9
Reposter
Partager
Commentaire
0/400
Ser_APY_2000
· 01-13 09:29
L'aspect de l'explicabilité a effectivement été négligé par les projets impliqués, tous se concentrant sur la puissance de calcul et la démonstration de données. Je suis d'accord avec l'idée d'OpenMind.
Voir l'originalRépondre0
RektButStillHere
· 01-13 06:28
Ah là là, encore une pile de projets qui ne font que vanter des concepts, peu d'entre eux sont réellement réalisables.
Voir l'originalRépondre0
NFTArchaeologis
· 01-11 18:20
L'explicabilité et la cohérence... Ces deux mots mis ensemble ressemblent un peu à doter l'IA d'une "radiographie de la pensée". Les projets qui ne recherchent pas des résultats immédiats sont en effet rares.
Voir l'originalRépondre0
FastLeaver
· 01-10 15:59
Vraiment, par rapport à ceux qui se vantent chaque jour de la taille de leurs paramètres, je préfère voir qui a réellement résolu cette impasse qu'est l'explicabilité.
Voir l'originalRépondre0
UnluckyMiner
· 01-10 15:58
C'est ça qui pose problème, la véritable difficulté réside dans l'explicabilité. Ceux qui accumulent de la puissance de calcul pour afficher des chiffres finiront tôt ou tard par échouer.
Voir l'originalRépondre0
TeaTimeTrader
· 01-10 15:58
La puissance de calcul de la boucle est dépassée depuis longtemps, la véritable course se trouve dans la capacité d'explication.
Voir l'originalRépondre0
SmartMoneyWallet
· 01-10 15:55
Encore une fois, cette histoire d'explicabilité sonne bien, mais qu'en est-il des données de financement réelles ? Je pense que la plupart de ces projets n'ont pas suffisamment de fonds pour investir dans la puissance de calcul, et ils se contentent de présenter les goulots d'étranglement techniques comme une "approche innovante".
Voir l'originalRépondre0
RektRecorder
· 01-10 15:53
L'explicabilité, c'est une belle parole, mais peu de projets concrets peuvent réellement la mettre en œuvre...
Voir l'originalRépondre0
NFTDreamer
· 01-10 15:44
L'aspect de l'explicabilité est effectivement un point bloquant, mais honnêtement, j'ai encore quelques doutes sur la mise en œuvre d'OpenMind.
Sous la vague de projets IA, en y regardant de plus près, on remarque une nette différenciation. Certains projets investissent massivement dans la puissance de calcul et cherchent à obtenir des résultats impressionnants, tandis qu'une autre catégorie emprunte une voie différente — réorganiser la manière dont les agents intelligents fonctionnent.
Prenons l'exemple d'OpenMind AGI, leur approche est très différente. Ils ne se précipitent pas pour présenter des résultats spectaculaires, mais se concentrent plutôt sur une question apparemment anodine mais cruciale : comment l'IA peut-elle, dans des environnements complexes, prendre des décisions cohérentes et explicables de manière continue ?
Cela peut sembler peu important, mais c'est justement là que réside le problème. Une fois que l'IA parviendra à une véritable avancée en matière d'explicabilité et de cohérence dans la prise de décision, cela représentera une transformation qualitative.