「ซื้อพลังการประมวลผลเท่าไหร่? ทั้งหมด」: ผู้ร่วมก่อตั้ง OpenAI กล่าวว่า 110 พันล้านดอลลาร์ยังไม่เพียงพอต่อความต้องการ การฝึกโมเดลล่วงหน้าได้เปลี่ยนไปสู่การเพิ่มประสิทธิภาพร่วมกันด้านต้นทุน

BlockBeatNews

จากการติดตามของ 1M AI News ผู้ร่วมก่อตั้งของ OpenAI อย่าง Greg Brockman ได้ทบทวนในระหว่างการให้สัมภาษณ์ถึงการพัฒนาขีดความสามารถด้านการเขียนโปรแกรมของ AI ที่ก้าวกระโดดขึ้นในเดือนธันวาคม 2025 เขาใช้พรอมพ์ทดสอบที่เขาเก็บรักษามานานเพื่อวัดความก้าวหน้า: ให้ AI สร้างเว็บไซต์ที่ในตอนที่เขาเรียนเขียนโปรแกรมนั้นใช้เวลาหลายเดือนกว่าจะทำเสร็จ ตลอดทั้งปี 2025 งานนี้ต้องใช้การป้อนพรอมพ์หลายรอบและราว ๆ สี่ชั่วโมงจึงจะทำได้ดี พอถึงเดือนธันวาคม กลับกลายเป็นว่าใช้พรอมพ์ครั้งเดียวก็เสร็จ และคุณภาพก็ดีมาก เขากล่าวว่ารุ่นใหม่ทำให้ AI จาก “ทำงานได้ราว 20%” กระโดดไปสู่ “ราว 80%” ซึ่งการก้าวข้ามนี้บังคับให้ทุกคน “ต้องจัดระเบียบเวิร์กโฟลว์ใหม่โดยยึดรอบ AI”

สำหรับทิศทางการใช้เงินระดมทุนมูลค่า 1100 ล้านดอลลาร์ Brockman เปรียบกำลังประมวลผลกับ “การจ้างพนักงานขาย”: เพียงผลิตภัณฑ์มีช่องทางการขายที่ขยายตามขนาดได้ ก็สามารถจ้างพนักงานขายมากขึ้นเพื่อสร้างรายได้มากขึ้น กำลังประมวลผลไม่ใช่ศูนย์กลางต้นทุน แต่เป็นศูนย์กลางรายได้ เขาเล่าย้อนถึงบทสนทนากับทีมในช่วงก่อนเปิดตัว ChatGPT: “พวกเขาถามว่า ‘เราควรซื้อกำลังประมวลผลเท่าไร?’ ผมตอบว่า ‘ทั้งหมด’ พวกเขาบอกว่า ‘ไม่ไม่ไม่ จริงจังนะ สุดท้ายแล้วควรซื้อเท่าไร?’ ผมตอบว่า ‘ไม่ว่าพวกเราจะสร้างอย่างไรก็ยังตามความต้องการไม่ทัน’” ข้อสรุปนี้ยังคงใช้ได้จนถึงทุกวันนี้ และการจัดซื้อกำลังประมวลผลต้องล็อกไว้ล่วงหน้า 18 ถึง 24 เดือน

เกี่ยวกับวิธีการใช้กำลังประมวลผลเหล่านี้ Brockman เผยว่า OpenAI ไม่ได้ไล่ตามการฝึกก่อน (pre-training) ขนาดใหญ่ที่สุดเพียงอย่างเดียวอีกต่อไป แต่ทำให้ “ความสามารถในการ pre-training” และ “ต้นทุนการอนุมาน” เป็นเป้าหมายร่วมในการเพิ่มประสิทธิภาพ: “คุณไม่จำเป็นต้องทำให้ใหญ่ที่สุดเท่าที่จะเป็นไปได้ เพราะคุณต้องคำนึงถึงสถานการณ์การใช้งานการอนุมานจำนวนมากที่เกิดขึ้นในปลายทาง สิ่งที่คุณต้องการจริง ๆ คือทางออกที่ดีที่สุดของปัญญา x ต้นทุน” แต่เขายืนยันคัดค้านคำกล่าวที่ว่า “การ pre-training ไม่สำคัญแล้ว” โดยมองว่ารุ่นพื้นฐานยิ่งฉลาดขึ้น ประสิทธิภาพของขั้นตอนการเรียนรู้เชิงเสริมแรง (reinforcement learning) และการอนุมานในภายหลังก็ยิ่งสูง และยัง “ยังคงจำเป็นอย่างยิ่ง” สำหรับ GPU ของ NVIDIA เพื่อรองรับการฝึกแบบรวมศูนย์ขนาดใหญ่

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น