Il était très facile d'oublier comment ZTE s'est effondrée en 2018 en une seule nuit. Une seule interdiction des États-Unis, et une entreprise de 80 000 employés ne pouvait plus rien produire. Pas de puce Qualcomm, pas de licence Google—c'était fini. Aujourd'hui, huit ans plus tard, nous voyons une histoire complètement différente dans l'industrie de l'IA en Chine.



En réalité, ce n'est pas vraiment la puce le problème. Nous savons que CUDA est le véritable obstacle—la plateforme de calcul développée par NVIDIA depuis plus de dix ans, et qui compte maintenant plus de 4,5 millions de développeurs dans le monde entier. Tout cet écosystème ressemble à une roue d'inertie presque impossible à arrêter. Mais cette fois, les entreprises chinoises d'IA n'ont pas choisi de confrontation directe. Elles ont opté pour une voie plus rationnelle.

Depuis la fin de 2024, nous voyons comment la stratégie a changé. Les modèles experts hybrides sont devenus la priorité—des modèles qui n'ont plus besoin d'exécuter tout le système pour chaque tâche. Regardez DeepSeek V3 : 671 milliards de paramètres, mais seulement 5,5 % actifs lors de chaque inférence. Le coût d'entraînement ? À peine 5,6 millions de dollars. En comparaison, GPT-4 a coûté $78 millions. Seulement une septième du prix.

Et le prix de leur API est vraiment un changement de jeu. Le coût par token d'entrée est de 0,028 $ à 0,28 $ par million, tandis que GPT-4 coûte 5 $. C'est 25 à 75 fois moins cher. Ce n'est pas seulement une stratégie marketing—c'est un changement structurel dans la façon dont l'industrie de l'IA fonctionne. En février, sur OpenRouter, l'utilisation hebdomadaire des modèles chinois a augmenté de 127 % en seulement trois semaines. Dépassant celle des États-Unis.

Mais la véritable avancée se trouve dans l'infrastructure. Dans le Jiangsu, ils ont construit une ligne de production de 148 mètres de long pour les serveurs utilisant les puces Loongson 3C6000 et TaiChu Yuanqi. De l'accord à l'exploitation, seulement 180 jours. Et maintenant, des grappes de puces locales commencent à entraîner des modèles complets—pas seulement pour l'inférence. C'est un changement qualitatif. En janvier, GLM-Image est devenu le premier modèle de génération d'images SOTA entièrement entraîné avec des puces locales. En février, China Telecom a terminé l'entraînement complet de leur modèle de niveau milliard à Shanghai en utilisant un pool de calcul local.

Dans l'écosystème Ascend de Huawei, il y a maintenant 4 millions de développeurs, plus de 3 000 partenaires, et 43 modèles majeurs pré-entraînés avec Ascend. La puissance de calcul FP16 de l'Ascend 910B a atteint le niveau du NVIDIA A100. Ce n'est pas encore parfait, mais ça fonctionne. Et la construction d'écosystèmes ne doit pas attendre la perfection—il faut utiliser la demande réelle du marché pour pousser le développement.

La situation énergétique ajoute une autre couche d'avantage. La Virginie et la Géorgie ont suspendu les permis pour de nouveaux centres de données en raison de contraintes d'électricité. On prévoit qu'en 2030, les centres de données américains consommeront 426 térawattheures—plus de 12 % de la consommation électrique totale. Mais en Chine, la production annuelle d'électricité est de 10,4 trillions d'unités, soit 2,5 fois celle des États-Unis. Et le prix industriel de l'électricité dans l'ouest de la Chine est de 0,03 $ par kilowattheure—la moitié ou un cinquième de celui des États-Unis, qui est de 0,12 à 0,15 $.

Ainsi, alors que l'Amérique s'inquiète de l'électricité, la Chine construit discrètement sa puissance de calcul et produit des tokens pour le marché mondial. La répartition des utilisateurs de DeepSeek est claire : 30,7 % en Chine, 13,6 % en Inde, 6,9 % en Indonésie, 4,3 % aux États-Unis, 3,2 % en France. Il y a 26 000 entreprises dans le monde, 3 200 institutions dans la version entreprise. En Chine, la part de marché est de 89 %. Dans d'autres pays, elle varie entre 40 et 60 %.

Le parallèle avec la tragédie des semi-conducteurs au Japon est évident. En 1986, le Japon a signé l'accord sur les semi-conducteurs entre les États-Unis et le Japon sous pression, devenant dépendant du contrôle externe. Leur part de marché est passée de 51 % à 7 %. La leçon est simple : si vous ne construisez pas votre propre écosystème, vous perdrez votre industrie.

Dans l'IA aujourd'hui, la Chine a choisi un chemin plus difficile—du perfectionnement extrême des algorithmes, à la montée en puissance des puces locales, de l'inférence à la formation, jusqu'au développement de 4 millions de développeurs dans l'écosystème Ascend, et à l'exportation de tokens à l'échelle mondiale. Chaque étape implique des dépenses réelles, des pertes à court terme. Mais c'est le prix de l'indépendance.

Le 27 février, trois entreprises locales de puces IA ont publié leurs résultats. Cambrian : +453 % de revenus, première année rentable. Moore Threads : +243 % de revenus mais une perte d’un milliard. Muxi : +121 % de revenus mais une perte de 8 milliards. Mi-feu, mi-eau. Mais le marché a besoin d'une alternative à NVIDIA. Et c'est une opportunité géopolitique à ne pas manquer. Chaque perte est un investissement dans l'indépendance, et c'est cela le vrai progrès.
GLM0,36%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler