OpenAI ra mắt mô hình chuyên dụng về an ninh mạng GPT-5.4-Cyber: đã vá 3.000 lỗ hổng nguy hiểm, cạnh tranh Claude Mythos

robot
Đang tạo bản tóm tắt

OpenAI phát hành GPT-5.4-Cyber, đây là mô hình ngôn ngữ lớn đầu tiên được tinh chỉnh đặc biệt cho các tác vụ phòng thủ mạng, đồng thời mở rộng đáng kể kế hoạch truy cập đáng tin cậy TAC, cho phép hàng nghìn cá nhân đã xác thực và hàng trăm nhóm tổ chức sử dụng. Kể từ khi Codex Security ra mắt, đã giúp sửa chữa hơn 3.000 lỗ hổng nguy hiểm cao.
(Tiểu sử: OpenAI ra mắt GPT-5.2! Nhắm vào việc thay thế chuyên gia, giảm ảo tưởng, sắp xếp chi phí API)
(Bổ sung nền: Mô hình mới của Anthropic “Claude Mythos” bị rò rỉ, được gọi là mạnh nhất từ trước đến nay, khả năng tấn công mạng khiến chính đội ngũ của họ cũng lo lắng)

3.000 lỗ hổng nguy hiểm cao là con số mà Codex Security của OpenAI đã giúp cộng đồng an ninh mạng sửa chữa kể từ khi ra mắt gần đây. Hôm nay, OpenAI chính thức giới thiệu GPT-5.4-Cyber, một mô hình được tinh chỉnh đặc biệt cho các tác vụ phòng thủ mạng, đồng thời mở rộng đáng kể kế hoạch TAC (Trusted Access for Cyber, Truy cập đáng tin cậy cho An ninh mạng), từ thử nghiệm quy mô nhỏ sang hàng nghìn cá nhân đã xác thực và hàng trăm tổ chức chịu trách nhiệm bảo vệ phần mềm quan trọng.

Từ GPT-5.2 đến GPT-5.4-Cyber: Một lộ trình tiến bộ an toàn được xây dựng có chủ đích

GPT-5.4-Cyber không xuất hiện một cách ngẫu nhiên, mà là kết quả của quá trình xây dựng hệ sinh thái an ninh mạng của OpenAI từ năm 2023, thể hiện rõ nét trong mô hình.

  • Năm 2023, OpenAI khởi động Chương trình tài trợ an ninh mạng trị giá 10 triệu USD (Cybersecurity Grant Program), cùng năm bắt đầu đánh giá khả năng mạng của các mô hình
  • Năm 2025, ra mắt GPT-5.2 và lần đầu tiên tích hợp đào tạo chuyên sâu về an ninh mạng; sau đó GPT-5.3-Codex nâng cao khả năng suy luận; đến GPT-5.4, OpenAI đã xếp nó vào mức “khả năng mạng cao” trong Khung chuẩn bị (Preparedness Framework) của họ
  • Hôm nay, GPT-5.4-Cyber dựa trên GPT-5.4, đã giảm thiểu tối đa khả năng từ chối các công việc hợp pháp liên quan đến an ninh mạng, đồng thời mở khóa các chức năng phòng thủ nâng cao mới

Trong số các khả năng mới đáng chú ý nhất là Reverse engineering nhị phân. Dịch ra là: không cần mã nguồn gốc, có thể phân tích trực tiếp các tệp thực thi đã biên dịch, để phát hiện các phần mềm độc hại tiềm năng, lỗ hổng và độ an toàn của hệ thống.

Tại sao “Chỉ dành cho các nhà phòng thủ”

Thiết kế quan trọng nhất của lần ra mắt này không nằm ở khả năng của mô hình, mà ở ai có thể sử dụng và như thế nào.

GPT-5.4-Cyber là một mô hình “mở rộng” hơn, giảm thiểu tỷ lệ từ chối đối với các hoạt động hợp pháp về an ninh mạng, điều này cũng có thể khiến nó hữu ích hơn cho kẻ tấn công. Giải pháp của OpenAI là: xây tường lửa bằng xác thực danh tính.

Kế hoạch TAC phân chia quyền truy cập thành hai cấp độ. Người dùng cá nhân thông thường có thể xác thực danh tính qua chatgpt.com/cyber để có quyền truy cập cơ bản; còn các doanh nghiệp và tổ chức nghiên cứu cần qua đại diện của OpenAI để xin cấp quyền truy cập đáng tin cậy cao hơn, nhằm sử dụng đầy đủ các chức năng của GPT-5.4-Cyber.

OpenAI gọi quy trình này là “Dân chủ hóa truy cập”: sử dụng các tiêu chuẩn rõ ràng (xác thực danh tính, KYC) để làm cho công cụ phổ biến rộng rãi, đồng thời ngăn chặn lạm dụng.

Song song đó, OpenAI cũng liên tục mở rộng hệ sinh thái để tăng cường phòng thủ: Codex for Open Source đã phủ sóng hơn 1.000 dự án mã nguồn mở, đồng thời đóng góp tài chính cho Linux Foundation (như một phần của kế hoạch tài trợ an ninh mã nguồn mở trị giá 12,5 triệu USD). Sau khi ra mắt, Codex Security đã giúp sửa chữa hơn 3.000 lỗ hổng nguy hiểm cao và các lỗ hổng quan trọng khác.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim