แฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐใช้เครื่องมือ AI ยอดนิยม รวมถึง Gemini, Google เตือน

Decrypt

สรุปโดยย่อ

  • กลุ่ม Threat Intelligence ของ Google ได้เผยแพร่รายงานล่าสุดเกี่ยวกับอันตรายจาก AI
  • รายงานชี้ให้เห็นว่าฝ่ายแฮกเกอร์ที่สนับสนุนโดยรัฐใช้เครื่องมืออย่าง Gemini ของ Google เองเพื่อเร่งความเร็วในการโจมตีทางไซเบอร์
  • แฮกเกอร์สนใจใน AI ที่มีความสามารถในการดำเนินการเอง (agentic AI) เพื่อให้ AI ควบคุมการโจมตีอย่างเต็มที่

กลุ่ม Threat Intelligence ของ Google (GTIG) เตือนอีกครั้งเกี่ยวกับความเสี่ยงของ AI โดยเผยแพร่รายงานล่าสุดเกี่ยวกับการใช้งานปัญญาประดิษฐ์โดยแฮกเกอร์ที่สนับสนุนโดยรัฐกลุ่มนี้ได้ระบุว่ามีการเพิ่มขึ้นของความพยายามในการดึงข้อมูลโมเดล ซึ่งเป็นวิธีการโจรกรรมทรัพย์สินทางปัญญาโดยการสอบถามโมเดล AI ซ้ำ ๆ เพื่อเรียนรู้ตรรกะภายในและทำซ้ำเป็นโมเดลใหม่

รายงานใหม่ของกลุ่ม Threat Intelligence ของ Google (GTIG) อธิบายว่าแฮกเกอร์ใช้ AI ในทุกด้าน ตั้งแต่การสืบสวนขั้นสูง การฟิชชิ่ง ไปจนถึงการพัฒนามัลแวร์อัตโนมัติ

อ่านเพิ่มเติมเกี่ยวกับเรื่องนี้และวิธีที่เราต่อสู้กับภัยคุกคาม ↓ https://t.co/NWUvNeBkn2

— Google Public Policy (@googlepubpolicy) 12 กุมภาพันธ์ 2026

แม้ว่านี่จะเป็นเรื่องน่ากังวล แต่ก็ไม่ใช่ความเสี่ยงหลักที่ Google กำลังแสดงความกังวล รายงานยังเตือนว่ากลุ่มที่สนับสนุนโดยรัฐบาลใช้โมเดลภาษาขนาดใหญ่ (LLMs) สำหรับการวิจัยทางเทคนิค การเจาะจงเป้าหมาย และการสร้างล่อฟิชชิ่งที่ซับซ้อนอย่างรวดเร็ว รายงานเน้นความกังวลเกี่ยวกับเกาหลีเหนือ อิหร่าน สาธารณรัฐประชาชนจีน และรัสเซีย Gemini และการโจมตีฟิชชิ่ง กลุ่มเหล่านี้รายงานว่ากำลังใช้เครื่องมือ AI เช่น Gemini ของ Google สำหรับการสืบสวนและวิเคราะห์เป้าหมาย โดยใช้การรวบรวมข่าวกรองแบบเปิดในระดับสูง รวมถึงสร้างกลลวงฟิชชิ่งที่มีความเป็นส่วนตัวสูง “กิจกรรมนี้เน้นให้เห็นถึงการเปลี่ยนแปลงไปสู่การใช้ AI เพื่อสนับสนุนการฟิชชิ่งที่รวดเร็วและแม่นยำ ซึ่งสามารถหลีกเลี่ยงการทำงานด้วยมือแบบเดิม ๆ ที่ใช้ในการวิเคราะห์เป้าหมาย” รายงานจาก Google ระบุ “เป้าหมายมักพึ่งพาสัญญาณเช่นไวยากรณ์ผิดพลาด โครงสร้างประโยคแปลก ๆ หรือขาดบริบททางวัฒนธรรมเพื่อช่วยระบุความพยายามฟิชชิ่ง แต่ในปัจจุบัน กลุ่มผู้ก่อการร้ายใช้ LLMs เพื่อสร้างกลลวงที่เป็นส่วนตัวสูง ซึ่งสามารถสะท้อนโทนเสียงแบบมืออาชีพขององค์กรเป้าหมายได้”

ตัวอย่างเช่น หาก Gemini ได้รับชีวประวัติของเป้าหมาย มันสามารถสร้างบุคคลสมมุติที่น่าเชื่อถือและช่วยสร้างสถานการณ์ที่ดึงดูดความสนใจได้อย่างมีประสิทธิภาพ โดยการใช้ AI กลุ่มผู้ก่อการร้ายเหล่านี้ยังสามารถแปลภาษาในและนอกภาษาท้องถิ่นได้อย่างมีประสิทธิภาพมากขึ้น เนื่องจากความสามารถในการสร้างโค้ดของ AI ได้เพิ่มขึ้น ก็เปิดโอกาสให้ใช้งานในทางที่เป็นอันตรายมากขึ้นด้วย โดยกลุ่มเหล่านี้สามารถแก้ไขปัญหาและสร้างเครื่องมืออันตรายโดยใช้ความสามารถในการเขียนโค้ดของ AI รายงานยังเตือนเกี่ยวกับความสนใจที่เพิ่มขึ้นในการทดลองใช้ AI ที่มีความสามารถในการดำเนินการเอง (agentic AI) ซึ่งเป็นรูปแบบของปัญญาประดิษฐ์ที่สามารถทำงานด้วยความเป็นอิสระบางส่วน รองรับงานเช่นการพัฒนามัลแวร์และการทำงานอัตโนมัติ Google ระบุว่ามีความพยายามต่อสู้กับปัญหานี้ผ่านหลายกลยุทธ์ นอกจากการสร้างรายงาน Threat Intelligence หลายครั้งต่อปีแล้ว บริษัทยังมีทีมงานที่ค้นหาและวิเคราะห์ภัยคุกคามอย่างต่อเนื่อง Google ยังดำเนินมาตรการเสริมสร้าง Gemini ให้เป็นโมเดลที่ไม่สามารถนำไปใช้ในทางที่เป็นอันตรายได้ ผ่านทาง Google DeepMind ทีมงานพยายามระบุภัยคุกคามเหล่านี้ก่อนที่จะเกิดขึ้นอย่างเป็นรูปธรรม โดยมุ่งเน้นการตรวจจับฟังก์ชันที่เป็นอันตรายและลบออกก่อนที่จะสร้างความเสี่ยง แม้ว่าจากรายงานจะเห็นได้ว่าการใช้งาน AI ในภูมิทัศน์ภัยคุกคามเพิ่มขึ้น แต่ Google ก็ระบุว่ายังไม่มีความสามารถใหม่ที่เป็นนวัตกรรมสำคัญในขณะนี้ แต่เป็นเพียงการเพิ่มขึ้นของเครื่องมือและความเสี่ยงเท่านั้น

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น