Google DeepMind 6 เมษายน ได้เผยแพร่ Gemma 4 อย่างเป็นทางการแล้ว ซึ่งเป็นรุ่นที่ 4 ของโมเดลน้ำหนักแบบเปิดในตระกูล Gemma โดยเปิดตัวทั้งหมด 4 เวอร์ชัน ได้เปลี่ยนลิขสิทธิ์มาใช้ Apache 2.0 และเพิ่มการรองรับแบบเนทีฟสำหรับอินพุตแบบมัลติโหมดและเวิร์กโฟลว์ของเอเจนต์
สี่สเปกครอบคลุมตั้งแต่อุปกรณ์เคลื่อนที่ไปจนถึงเซิร์ฟเวอร์
โมเดลแบบ dense 31B อยู่อันดับที่ 3 ในบรรดาโมเดลโอเพนซอร์สในอันดับข้อความของ Arena AI;โมเดลแบบ mixture of experts ขนาด 26B อยู่อันดับที่ 6 Google ระบุว่า โมเดลขนาดใหญ่ทั้งสองนี้ยังคงมีข้อได้เปรียบเหนือโมเดลอื่น ๆ ที่มีจำนวนพารามิเตอร์มากกว่าถึง 20 เท่า ในการทดสอบเกณฑ์มาตรฐานของ Arena AI
ความสามารถหลัก:มัลติโหมด เสียง และ 140 ภาษา
ทั้งสี่เวอร์ชันรองรับอินพุตมัลติโหมดทั้งวิดีโอและรูปภาพแบบเนทีฟ ครอบคลุม OCR และความเข้าใจแผนภูมิ ในรุ่นสำหรับขอบเขต (E2B、E4B) ยังรองรับอินพุตเสียงเพิ่มเติม ซึ่งสามารถนำไปใช้ในสถานการณ์การรู้จำเสียงพูดได้
โมเดลทั้งหมดรองรับการเรียกใช้ฟังก์ชัน (function calling)、เอาต์พุต JSON แบบมีโครงสร้าง และคำสั่งระบบแบบเนทีฟที่ใช้สำหรับการสร้างเวิร์กโฟลว์ของเอเจนต์ ชุดข้อมูลสำหรับการฝึกประกอบด้วยมากกว่า 140 ภาษา
ลิขสิทธิ์เปลี่ยนจากแบบกำหนดเองมาเป็น Apache 2.0 ใช้งานเชิงพาณิชย์ได้สะดวกกว่า
ในอดีต ตระกูล Gemma ใช้ลิขสิทธิ์แบบกำหนดเองที่มีข้อจำกัดต่อการแก้ไขและการเผยแพร่ซ้ำ Gemma 4 เปลี่ยนมาใช้ลิขสิทธิ์ Apache 2.0 ซึ่งเป็นมาตรฐานในอุตสาหกรรม ทำให้สามารถนำไปใช้เชิงพาณิชย์ แก้ไข และเผยแพร่ซ้ำได้ โดยไม่จำเป็นต้องลงนามข้อตกลงเพิ่มเติมกับ Google Google ระบุว่าการดำเนินการนี้ทำให้ Gemma 4 เหมาะสมกับการใช้งานขององค์กรและนักพัฒนามากขึ้น
ขณะนี้โมเดลทั้งสี่พร้อมใช้งานแบบเปิดอย่างเต็มรูปแบบแล้ว Google ยังไม่ได้ประกาศไทม์ไลน์ในการนำโมเดลสำหรับขอบเขตไปผสานเข้ากับ Android หรือผลิตภัณฑ์ฮาร์ดแวร์สำหรับผู้บริโภค
บทความนี้ Google เปิดตัว Gemma 4:สี่สเปก ลิขสิทธิ์ Apache 2.0 ครอบคลุมตั้งแต่โทรศัพท์มือถือไปจนถึงเซิร์ฟเวอร์ ปรากฏขึ้นครั้งแรกที่ Chain News ABMedia