國家支持的駭客利用包括 Gemini 在內的熱門 AI 工具,Google 發出警告

Decrypt

簡要內容

  • 谷歌威脅情報組(GTIG)發布了最新的AI危險報告。
  • 報告指出,國家支持的黑客使用如谷歌自家的Gemini等工具來加快他們的網絡攻擊速度。
  • 黑客對代理型AI產生興趣,試圖讓AI完全掌控攻擊。

谷歌威脅情報組(GTIG)再次發出警告,關於AI的風險,發布了最新報告,說明危險的國家支持黑客如何利用人工智慧。該團隊已識別出模型提取攻擊的增加,這是一種知識產權盜竊的方法,黑客通過反覆查詢AI模型,試圖了解其內部邏輯並複製成新模型。

我們的谷歌威脅情報組(GTIG)新報告詳細分析了威脅行動者如何利用AI進行從高級偵察到釣魚攻擊再到自動化惡意軟件開發的一切。

更多內容及我們如何應對這些威脅 ↓ https://t.co/NWUvNeBkn2

— 谷歌公共政策 (@googlepubpolicy) 2026年2月12日

儘管這令人擔憂,但谷歌關注的主要風險並非如此。報告進一步警告,政府支持的威脅行動者正在利用大型語言模型(LLMs)進行技術研究,針對性攻擊以及快速生成細緻的釣魚誘餌。報告中特別提及朝鮮民主主義人民共和國、伊朗、中國和俄羅斯的擔憂。

Gemini與釣魚攻擊 據報導,這些行動者使用AI工具,例如谷歌的Gemini,進行偵察和目標分析,利用開源情報大規模收集,並創建超個性化的釣魚詐騙。

“這一活動凸顯了向AI輔助釣魚推進的轉變,LLMs的速度和準確性可以超越傳統的人工目標分析。”谷歌的報告指出。

“長期以來,目標經常依賴語法錯誤、句子結構尷尬或缺乏文化背景等指標來識別釣魚企圖。如今,威脅行動者越來越多地利用LLMs生成超個性化的誘餌,模仿目標組織的專業語調。”

例如,如果將目標的傳記資料提供給Gemini,它可以生成一個良好的人物角色,幫助設計出能有效吸引目標注意的情境。通過使用AI,這些威脅行動者還能更有效地進行本地語言的轉換與生成。

隨著AI生成代碼的能力提升,這也為其惡意用途打開了大門,這些行動者利用AI的程式碼生成功能來排查和生成惡意工具。

報告還警告,對代理型AI的實驗興趣日益增加。這是一種具有一定自主行動能力的人工智慧,能支持惡意軟件開發及其自動化等任務。

谷歌表示,為應對這一問題,他們採取了多種措施。除了每年多次發布威脅情報報告外,谷歌還有一支團隊不斷搜尋潛在威脅。谷歌也在推行措施,將Gemini打造為一個不能被用於惡意目的的模型。

通過谷歌DeepMind,團隊試圖在威脅成形之前識別這些問題。實際上,谷歌的目標是辨識惡意功能,並在其造成風險之前將其移除。

儘管報告顯示AI在威脅領域的應用有所增加,但谷歌指出,目前尚未出現突破性的能力。現階段,僅是工具的使用和風險的增加。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)