Google เปิดตัวโมเดลแบบโอเพนที่ชาญฉลาดที่สุด Gemma 4! ปรับใช้ใบอนุญาต Apache 2.0 ครบถ้วน ประสิทธิภาพแทบจะทัดเทียม AI แบบปิดระดับยักษ์ใหญ่

動區BlockTempo

Google อย่างเป็นทางการประกาศว่าได้เปิดตัวตระกูลโมเดลโอเพนรุ่นใหม่อย่างเป็นทางการ นั่นคือ Gemma 4 ชุดโมเดลดังกล่าวใช้โครงสร้างทางเทคนิคเดียวกันกับ Gemini 3 โดยหันไปใช้สิทธิ์การใช้งาน Apache 2.0 ที่เป็นมิตรต่อเชิงพาณิชย์อย่างเต็มรูปแบบ และเน้นย้ำความสามารถอันแข็งแกร่งในการรันแบบออนดีไวซ์ (บนเครื่องผู้ใช้)
(ข้อมูลต่อเนื่อง:คอมพิวเตอร์ควอนตัมของ Google คาดว่าจะแฮ็ก Bitcoin ได้ภายใน 9 นาที ตัวเลขคำนวณอย่างไร และภัยคุกคามที่แท้จริงอยู่ตรงไหน?)
(ข้อมูลเพิ่มเติมด้านภูมิหลัง:AI พยากรณ์ภัยพิบัติ》Google เปิดตัวเฟรมเวิร์ก “Groundsource” โดยใช้ Gemini แปลงข่าวทั่วโลกให้เป็นข้อมูลช่วยชีวิต 2.6 ล้านรายการ)

สารบัญของบทความ

Toggle

  • มาพร้อมกันครบทั้งสี่เวอร์ชัน รันแบบออนดีไวซ์ได้อย่างลื่นไหล
  • รองรับหน้าต่าง 256K รองรับมัลติโหมดแบบเนทีฟและการเรียกใช้ฟังก์ชัน
  • ประสิทธิภาพทัดเทียมกับตัวถังยักษ์ ความเห็นของชุมชนโดดเด่น

Google หยอดระเบิดลูกใหญ่ลงในวงการ AI โอเพนซอร์สอีกครั้ง ทางการประกาศล่าสุดเปิดตัวชุด “Gemma 4” โดยโฆษณาว่าเป็นโมเดลโอเพนที่ฉลาดที่สุดในเครือของตน Gemma 4 สืบทอดเทคนิคการวิจัยระดับโลกของโมเดลเรือธงอย่าง Gemini 3 โดยตรง นำมาซึ่งความสามารถด้านการให้เหตุผลแบบก้าวกระโดดและเวิร์กโฟลว์เชิงตัวแทน (Agentic) สิ่งที่ได้รับความสนใจจากชุมชนมากที่สุดคือ Google ตอบรับเสียงเรียกร้องของนักพัฒนาในครั้งนี้ โดยปรับใช้ใบอนุญาต Apache 2.0 ที่เป็นมิตรต่อเชิงพาณิชย์อย่างครอบคลุม เพื่อให้ผู้ใช้สามารถสร้างและปรับใช้อย่างปลอดภัยได้อย่างอิสระในทุกสภาพแวดล้อม ควบคุมข้อมูลและโครงสร้างพื้นฐานของตนเองได้อย่างเต็มที่

เราเพิ่งเปิดตัว Gemma 4 — โมเดลโอเพนที่ฉลาดที่สุดของเราเท่าที่เคยมีมา

สร้างจากงานวิจัยระดับโลกเดียวกับ Gemini 3, Gemma 4 นำความฉลาดอันก้าวล้ำมาสู่ฮาร์ดแวร์ของคุณโดยตรง เพื่อการให้เหตุผลขั้นสูงและเวิร์กโฟลว์เชิงตัวแทน

เผยแพร่ภายใต้… pic.twitter.com/W6Tvj9CuHW

— Google (@Google) April 2, 2026

มาพร้อมกันครบทั้งสี่เวอร์ชัน รันแบบออนดีไวซ์ได้อย่างลื่นไหล

เพื่อให้ตอบโจทย์ฮาร์ดแวร์และสถานการณ์การใช้งานที่แตกต่างกัน Gemma 4 จึงปล่อยออกมาทั้งหมด 4 เวอร์ชันที่มีขนาดต่างกัน โมเดลที่เบาที่สุดคือ E2B (พารามิเตอร์ 2B) ออกแบบมาเฉพาะสำหรับอุปกรณ์พกพาและอุปกรณ์ปลายทางอย่างบราวเซอร์ ในขณะที่ E4B (พารามิเตอร์ 4B) จะหาจุดสมดุลระหว่างประสิทธิภาพกับประสิทธิผล และรองรับการป้อนข้อมูลภาพและเสียงแบบเนทีฟมากขึ้น ส่วนฝั่งที่เน้นประสิทธิภาพ 26B A4B ใช้สถาปัตยกรรมแบบ Mixture of Experts (MoE) โดยระหว่างการอนุมานจะเปิดใช้งานพารามิเตอร์เพียงราว 4B ทำให้ความต้องการด้านหน่วยความจำลดลงอย่างมาก แม้บนฮาร์ดแวร์ผู้ใช้ทั่วไปอย่าง Mac Mini ที่มีหน่วยความจำ 24GB ก็ยังรันได้อย่างลื่นไหล โมเดลแบบหนาแน่นลำดับสูงสุด 31B คือธงประสิทธิภาพของซีรีส์นี้

รองรับหน้าต่าง 256K รองรับมัลติโหมดแบบเนทีฟและการเรียกใช้ฟังก์ชัน

ด้านข้อกำหนดทางเทคนิค เวอร์ชันโมเดลขนาดใหญ่ของ Gemma 4 สูงสุดรองรับบริบทแบบมีหน้าต่างถึง 256K tokens ทำให้นักพัฒนาสามารถประมวลผลคลังโค้ดทั้งชุดหรือข้อมูลเอกสารขนาดมหึมาได้ในครั้งเดียว นอกจากรองรับการประมวลผลข้อความและภาพแบบเนทีฟ (E2B และ E4B ยังคงรองรับการป้อนข้อมูลเสียง) แล้ว Gemma 4 ยังมีความสามารถด้านการเรียกใช้ฟังก์ชัน (Function Calling) แบบเนทีฟที่แข็งแกร่ง สามารถสร้างผลลัพธ์ในรูปแบบ JSON แบบมีโครงสร้างได้อย่างเสถียร ซึ่งเป็นรากฐานที่ยอดเยี่ยมสำหรับการสร้างแอปพลิเคชันตัวแทนอัตโนมัติ นอกจากนี้ ชุดข้อมูลการฝึกครอบคลุมภาษามากกว่า 140 ภาษา ทำให้มีความเหมาะสมสำหรับการใช้งานทั่วโลกในระดับสูง

ประสิทธิภาพทัดเทียมกับตัวถังยักษ์ ความเห็นของชุมชนโดดเด่น

Gemma 4 เน้นย้ำประสิทธิภาพ “ต่อหนึ่งไบต์” ที่สูงมาก จากข้อมูลของกระดานจัดอันดับโมเดลโอเพนอย่าง AI Arena ปัจจุบัน Gemma-4-31B อยู่อันดับที่ 3 ในบรรดาโมเดลโอเพน ผลการโดยรวมยังเทียบได้กับ Qwen3.5-397B ที่มีขนาดมหึมา แต่ขนาดของมันมีเพียงหนึ่งในสิบของโมเดลหลังเท่านั้น ในชุดเกณฑ์การให้เหตุผลระดับนักศึกษาระดับบัณฑิต (GPQA Diamond) เวอร์ชัน 31B ยังทำผลงานได้ถึง 84.3% ซึ่งน่าทึ่ง

ลองมาดูกันว่าโมเดลโอเพนอย่าง Gemma พัฒนามาอย่างไรในสามเวอร์ชันล่าสุด
– Gemma 4 อยู่สูงกว่า Gemma 3 จำนวน 100 อันดับ
– Gemma 3 อยู่สูงกว่า Gemma 2 จำนวน 87 อันดับ

ทั้งสามโมเดลจาก @GoogleDeepMind มีขนาดใกล้เคียงกัน (31B, 27B, 27B) และการพัฒนานี้เกิดขึ้นเพียง 9 และ 13… https://t.co/9JnbveYzwT pic.twitter.com/JQtTz09Y1A

— Arena.ai (@arena) April 2, 2026

ปัจจุบัน นักพัฒนาได้สามารถทดลองใช้ Gemma 4 ได้โดยตรงบน Google AI Studio หรือไปดาวน์โหลดโมเดลน้ำหนักได้จากแพลตฟอร์มต่างๆ เช่น Hugging Face, Ollama ฯลฯ ชุมชนก็ติดตามอย่างรวดเร็ว โดยเปิดตัวเวอร์ชันแบบควอนไทซ์ (quantized) ที่ปรับให้เหมาะกับ GPU อย่างไรก็ตาม ยังมีนักพัฒนาบางส่วนที่ชี้ว่า ในสภาพแวดล้อมการดีบักโค้ดที่ซับซ้อนของโลกจริง Gemma 4 ยังมีพื้นที่ให้ปรับปรุง โดยรวมแล้ว การเปิดซอร์สครั้งนี้ไม่ต้องสงสัยเลยว่าจะช่วยผลักดัน “อำนาจอธิปไตยทางดิจิทัล” และฉีดแรงหนุนให้กับการใช้งาน AI แบบออนดีไวซ์

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น