Google veröffentlicht das klügste Open-Source-Modell Gemma 4! Umfassend auf die Apache-2.0-Lizenz umgestellt, die Leistung kommt an große proprietäre KI heran

動區BlockTempo

Google Official kündigt die Markteinführung der neuen Generation offener Modellserie Gemma 4 an. Das Modell verwendet dieselbe technische Architektur wie Gemini 3, stellt vollständig auf eine geschäftstaugliche Apache-2.0-Lizenz um und wirbt vor allem mit starker Leistungsfähigkeit beim lokalen Betrieb.
(Vorgeschichte: Google: Quantencomputer knacken Bitcoin in 9 Minuten – wie rechnet sich die Zahl, und wo liegt wirklich die Bedrohung?)
(Hintergrund-Ergänzung: KI sagt Naturkatastrophen voraus》Google bringt das „Groundsource“-Framework heraus, nutzt Gemini, um globale Nachrichten in 2,6 Millionen lebensrettende Datensätze umzuwandeln)

Inhaltsverzeichnis

Umschalten

  • Alle vier Versionen auf einmal, auch lokal läuft es reibungslos
  • Unterstützung für 256K-Fenster, nativen Multi-Modal- und Funktionsaufruf
  • Leistung kommt an riesige Modelle heran, Community-Bewertungen sind beeindruckend

Google setzt erneut einen gewaltigen Impuls in den Bereich Open-Source-KI. Offiziell wurde die Serie „Gemma 4“ vorgestellt, die damit wirbt, das derzeit intelligenteste offene Modell im eigenen Portfolio zu sein. Gemma 4 übernimmt direkt die weltklassige Forschungstechnologie des Flaggschiff-Modells Gemini 3 und bringt bahnbrechende Fähigkeiten zum Schließen sowie agentenorientierte (agentic) Arbeitsabläufe mit. Am meisten Aufmerksamkeit in der Community erhält, dass Google diesmal auf die Forderungen der Entwickler reagiert und vollständig auf eine geschäftsfreundliche Apache-2.0-Lizenz umstellt, sodass Nutzer in jeder Umgebung frei aufbauen und sicher bereitstellen können – vollkommen unter eigener Kontrolle über Daten und Infrastruktur.

We just released Gemma 4 — our most intelligent open models to date.

Built from the same world-class research as Gemini 3, Gemma 4 brings breakthrough intelligence directly to your own hardware for advanced reasoning and agentic workflows.

Released under a commercially… pic.twitter.com/W6Tvj9CuHW

— Google (@Google) April 2, 2026

Alle vier Versionen auf einmal, auch lokal läuft es reibungslos

Um unterschiedlichen Hardware- und Anwendungsszenarien gerecht zu werden, hat Gemma 4 insgesamt vier Versionen mit unterschiedlicher Größe veröffentlicht. Die leichteste E2B (2B-Parameter) ist speziell für mobile Endgeräte und Randgeräte wie Browser ausgelegt; E4B (4B-Parameter) hält ein Gleichgewicht zwischen Leistung und Effizienz und unterstützt zudem noch nativer visuelle sowie Audio-Eingaben. In der High-Performance-Schiene verwendet 26B A4B eine Mixture-of-Experts- (MoE-) Architektur: Beim Schließen werden nur etwa 4B-Parameter aktiviert, wodurch der Speicherbedarf stark sinkt – selbst auf Consumer-Hardware wie dem Mac Mini mit 24GB RAM läuft es flüssig. Das höchste Modell ist der dichte 31B-Ansatz, der das Leistungs-Flaggschiff der Serie darstellt.

Unterstützung für 256K-Fenster, nativen Multi-Modal- und Funktionsaufruf

In Bezug auf die technischen Spezifikationen unterstützt die große Modellvariante von Gemma 4 bis zu 256K Tokens Kontextfenster, sodass Entwickler auf einmal das gesamte Code-Repository oder riesige Mengen an Dokumentdaten verarbeiten können. Neben der nativen Unterstützung für Text- und Bildverarbeitung (E2B und E4B unterstützen auch Audio) verfügt Gemma 4 über starke native Fähigkeiten zum Funktionsaufruf (Function Calling). Es kann zuverlässig strukturierte JSON-Formate ausgeben und liefert damit eine hervorragende Grundlage für die Entwicklung autonomer Agent- Anwendungen. Darüber hinaus decken die Trainingsdaten über 140 Sprachen ab und bieten eine hohe globale Einsetzbarkeit.

Leistung kommt an riesige Modelle heran, Community-Bewertungen sind beeindruckend

Gemma 4 betont eine extrem hohe „Effizienz pro Token“. Laut Daten offener Modell-Rankings wie AI Arena liegt Gemma-4-31B derzeit auf dem 3. Platz der offenen Modelle; die Gesamtleistung kommt sogar an das riesige Qwen3.5-397B heran, obwohl seine Größe nur ein Zehntel davon beträgt. In den Forschungs-orientierten Inferenz-Benchmarks auf Graduate-Niveau (GPQA Diamond) erzielte die 31B-Version zudem mit 84,3% eine beeindruckende Leistung.

Let’s look at how the open model Gemma has progressed across its last three versions.
– Gemma 4 ranks 100 places above Gemma 3
– Gemma 3 ranks 87 above Gemma 2

All three models from @GoogleDeepMind are roughly the same size (31B, 27B, 27B), and these gains came only 9 and 13… https://t.co/9JnbveYzwT pic.twitter.com/JQtTz09Y1A

— Arena.ai (@arena) April 2, 2026

Derzeit können Entwickler Gemma 4 bereits direkt in Google AI Studio ausprobieren, oder Gewichte-Modelle über Plattformen wie Hugging Face, Ollama und andere herunterladen. Die Community ist ebenfalls schnell nachgezogen und hat quantisierte Versionen auf den GPU-Einsatz optimiert herausgebracht. Allerdings weisen einige Entwickler auch darauf hin, dass Gemma 4 bei der Arbeit mit realen, komplexen Code-Debugging-Umgebungen noch Optimierungspotenzial hat. Insgesamt ist jedoch die Open-Source-Veröffentlichung zweifellos ein starker Anstoß für digitale Souveränität und lokale KI-Anwendungen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare