Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Gemma 4 finally stable on llama.cpp
Le 2 avril, Google a lancé Gemma 4, supporté par llama.cpp dès le premier jour mais avec de nombreux bugs. Maintenant, tous les problèmes sont résolus
E2B, E4B, 26B MoE, 31B Dense
31B classé 3ème dans le classement Arena AI, 26B en 6ème position
La meilleure équipe de modèles open source
Utilisez --chat-template-file pour charger le modèle intercalé
Il est conseillé d’activer --cache-ram 2048
La longueur du contexte dépend de la mémoire vidéo
L’année dernière, le meilleur modèle local était la version quantifiée de Llama 3.1 70B, à peine utilisable
Maintenant, Gemma 4 31B Q5 tourne fluide sur Mac Studio, proche du niveau GPT-4
Les applications d’IA sans dépendance à l’API commencent à être commercialement viables. Les données restent sur la machine, coût zéro, latence très faible
Pour une entreprise individuelle, le modèle local est la véritable infrastructure. Les concurrents paient pour l’API, votre coût marginal est l’électricité
Gemma 4 + llama.cpp = solution optimale pour l’inférence locale, peut passer en production