สรุปโดยย่อ
กลุ่ม Threat Intelligence ของ Google (GTIG) เตือนอีกครั้งเกี่ยวกับความเสี่ยงของ AI โดยเผยแพร่รายงานล่าสุดเกี่ยวกับการใช้งานปัญญาประดิษฐ์โดยแฮกเกอร์ที่สนับสนุนโดยรัฐกลุ่มนี้ได้ระบุว่ามีการเพิ่มขึ้นของความพยายามในการดึงข้อมูลโมเดล ซึ่งเป็นวิธีการโจรกรรมทรัพย์สินทางปัญญาโดยการสอบถามโมเดล AI ซ้ำ ๆ เพื่อเรียนรู้ตรรกะภายในและทำซ้ำเป็นโมเดลใหม่
รายงานใหม่ของกลุ่ม Threat Intelligence ของ Google (GTIG) อธิบายว่าแฮกเกอร์ใช้ AI ในทุกด้าน ตั้งแต่การสืบสวนขั้นสูง การฟิชชิ่ง ไปจนถึงการพัฒนามัลแวร์อัตโนมัติ
อ่านเพิ่มเติมเกี่ยวกับเรื่องนี้และวิธีที่เราต่อสู้กับภัยคุกคาม ↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 12 กุมภาพันธ์ 2026
แม้ว่านี่จะเป็นเรื่องน่ากังวล แต่ก็ไม่ใช่ความเสี่ยงหลักที่ Google กำลังแสดงความกังวล รายงานยังเตือนว่ากลุ่มที่สนับสนุนโดยรัฐบาลใช้โมเดลภาษาขนาดใหญ่ (LLMs) สำหรับการวิจัยทางเทคนิค การเจาะจงเป้าหมาย และการสร้างล่อฟิชชิ่งที่ซับซ้อนอย่างรวดเร็ว รายงานเน้นความกังวลเกี่ยวกับเกาหลีเหนือ อิหร่าน สาธารณรัฐประชาชนจีน และรัสเซีย Gemini และการโจมตีฟิชชิ่ง กลุ่มเหล่านี้รายงานว่ากำลังใช้เครื่องมือ AI เช่น Gemini ของ Google สำหรับการสืบสวนและวิเคราะห์เป้าหมาย โดยใช้การรวบรวมข่าวกรองแบบเปิดในระดับสูง รวมถึงสร้างกลลวงฟิชชิ่งที่มีความเป็นส่วนตัวสูง “กิจกรรมนี้เน้นให้เห็นถึงการเปลี่ยนแปลงไปสู่การใช้ AI เพื่อสนับสนุนการฟิชชิ่งที่รวดเร็วและแม่นยำ ซึ่งสามารถหลีกเลี่ยงการทำงานด้วยมือแบบเดิม ๆ ที่ใช้ในการวิเคราะห์เป้าหมาย” รายงานจาก Google ระบุ “เป้าหมายมักพึ่งพาสัญญาณเช่นไวยากรณ์ผิดพลาด โครงสร้างประโยคแปลก ๆ หรือขาดบริบททางวัฒนธรรมเพื่อช่วยระบุความพยายามฟิชชิ่ง แต่ในปัจจุบัน กลุ่มผู้ก่อการร้ายใช้ LLMs เพื่อสร้างกลลวงที่เป็นส่วนตัวสูง ซึ่งสามารถสะท้อนโทนเสียงแบบมืออาชีพขององค์กรเป้าหมายได้”
ตัวอย่างเช่น หาก Gemini ได้รับชีวประวัติของเป้าหมาย มันสามารถสร้างบุคคลสมมุติที่น่าเชื่อถือและช่วยสร้างสถานการณ์ที่ดึงดูดความสนใจได้อย่างมีประสิทธิภาพ โดยการใช้ AI กลุ่มผู้ก่อการร้ายเหล่านี้ยังสามารถแปลภาษาในและนอกภาษาท้องถิ่นได้อย่างมีประสิทธิภาพมากขึ้น เนื่องจากความสามารถในการสร้างโค้ดของ AI ได้เพิ่มขึ้น ก็เปิดโอกาสให้ใช้งานในทางที่เป็นอันตรายมากขึ้นด้วย โดยกลุ่มเหล่านี้สามารถแก้ไขปัญหาและสร้างเครื่องมืออันตรายโดยใช้ความสามารถในการเขียนโค้ดของ AI รายงานยังเตือนเกี่ยวกับความสนใจที่เพิ่มขึ้นในการทดลองใช้ AI ที่มีความสามารถในการดำเนินการเอง (agentic AI) ซึ่งเป็นรูปแบบของปัญญาประดิษฐ์ที่สามารถทำงานด้วยความเป็นอิสระบางส่วน รองรับงานเช่นการพัฒนามัลแวร์และการทำงานอัตโนมัติ Google ระบุว่ามีความพยายามต่อสู้กับปัญหานี้ผ่านหลายกลยุทธ์ นอกจากการสร้างรายงาน Threat Intelligence หลายครั้งต่อปีแล้ว บริษัทยังมีทีมงานที่ค้นหาและวิเคราะห์ภัยคุกคามอย่างต่อเนื่อง Google ยังดำเนินมาตรการเสริมสร้าง Gemini ให้เป็นโมเดลที่ไม่สามารถนำไปใช้ในทางที่เป็นอันตรายได้ ผ่านทาง Google DeepMind ทีมงานพยายามระบุภัยคุกคามเหล่านี้ก่อนที่จะเกิดขึ้นอย่างเป็นรูปธรรม โดยมุ่งเน้นการตรวจจับฟังก์ชันที่เป็นอันตรายและลบออกก่อนที่จะสร้างความเสี่ยง แม้ว่าจากรายงานจะเห็นได้ว่าการใช้งาน AI ในภูมิทัศน์ภัยคุกคามเพิ่มขึ้น แต่ Google ก็ระบุว่ายังไม่มีความสามารถใหม่ที่เป็นนวัตกรรมสำคัญในขณะนี้ แต่เป็นเพียงการเพิ่มขึ้นของเครื่องมือและความเสี่ยงเท่านั้น