簡要內容
谷歌威脅情報組(GTIG)再次發出警告,關於AI的風險,發布了最新報告,說明危險的國家支持黑客如何利用人工智慧。該團隊已識別出模型提取攻擊的增加,這是一種知識產權盜竊的方法,黑客通過反覆查詢AI模型,試圖了解其內部邏輯並複製成新模型。
我們的谷歌威脅情報組(GTIG)新報告詳細分析了威脅行動者如何利用AI進行從高級偵察到釣魚攻擊再到自動化惡意軟件開發的一切。
更多內容及我們如何應對這些威脅 ↓ https://t.co/NWUvNeBkn2
— 谷歌公共政策 (@googlepubpolicy) 2026年2月12日
儘管這令人擔憂,但谷歌關注的主要風險並非如此。報告進一步警告,政府支持的威脅行動者正在利用大型語言模型(LLMs)進行技術研究,針對性攻擊以及快速生成細緻的釣魚誘餌。報告中特別提及朝鮮民主主義人民共和國、伊朗、中國和俄羅斯的擔憂。
Gemini與釣魚攻擊 據報導,這些行動者使用AI工具,例如谷歌的Gemini,進行偵察和目標分析,利用開源情報大規模收集,並創建超個性化的釣魚詐騙。
“這一活動凸顯了向AI輔助釣魚推進的轉變,LLMs的速度和準確性可以超越傳統的人工目標分析。”谷歌的報告指出。
“長期以來,目標經常依賴語法錯誤、句子結構尷尬或缺乏文化背景等指標來識別釣魚企圖。如今,威脅行動者越來越多地利用LLMs生成超個性化的誘餌,模仿目標組織的專業語調。”
例如,如果將目標的傳記資料提供給Gemini,它可以生成一個良好的人物角色,幫助設計出能有效吸引目標注意的情境。通過使用AI,這些威脅行動者還能更有效地進行本地語言的轉換與生成。
隨著AI生成代碼的能力提升,這也為其惡意用途打開了大門,這些行動者利用AI的程式碼生成功能來排查和生成惡意工具。
報告還警告,對代理型AI的實驗興趣日益增加。這是一種具有一定自主行動能力的人工智慧,能支持惡意軟件開發及其自動化等任務。
谷歌表示,為應對這一問題,他們採取了多種措施。除了每年多次發布威脅情報報告外,谷歌還有一支團隊不斷搜尋潛在威脅。谷歌也在推行措施,將Gemini打造為一個不能被用於惡意目的的模型。
通過谷歌DeepMind,團隊試圖在威脅成形之前識別這些問題。實際上,谷歌的目標是辨識惡意功能,並在其造成風險之前將其移除。
儘管報告顯示AI在威脅領域的應用有所增加,但谷歌指出,目前尚未出現突破性的能力。現階段,僅是工具的使用和風險的增加。