Je viens de regarder la présentation du chef de Nvidia au Forum de Davos - le gars a parlé de trois avancées clés en IA au cours de la dernière année, et il y a vraiment de quoi en discuter.



Premièrement, comment les modèles d'IA ont évolué. Avant, ils produisaient beaucoup de hallucinations, mais au cours de l'année écoulée, un changement sérieux s'est produit. Les modèles ont commencé à fonctionner dans des tâches de recherche réelles, montrant des capacités de raisonnement, de planification et de réponse sans entraînement préalable. En gros, cela a conduit à la naissance de l'IA Agentive - des modèles capables d'agir de manière autonome.

Deuxièmement, c'est la croissance explosive des modèles ouverts. DeepSeek est devenu le premier modèle d'inférence sérieux avec un code ouvert, et cela a été un tournant pour l'industrie. Désormais, tout l'écosystème prospère - entreprises, centres de recherche, universités utilisent de plus en plus ces modèles pour leurs tâches.

Mais ce qui est le plus intéressant, c'est le troisième point sur l'IA physique. Ce n'est plus simplement du traitement de texte. Les modèles ont commencé à comprendre le monde physique : structures biologiques, processus chimiques. Quand on parle de physique, il s'agit de la capacité de l'IA à comprendre la dynamique des fluides, la physique des particules, voire la physique quantique. La dynamique des systèmes, le comportement de la matière - les modèles captent déjà cela. C'est un tout autre niveau qu'il y a un an.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler