Thảo luận về việc xả nước thải hạt nhân ra biển! Chính phủ Nhật Bản bị vạch trần việc sử dụng vũ khí AI để giám sát toàn bộ mạng lưới theo thời gian thực nhằm phát hiện "thông tin sai lệch"

Nguồn: Xinzhiyuan

EDIT: Aeneas buồn ngủ quá

[Giới thiệu] Một số phương tiện truyền thông đã đưa tin rằng ngay từ năm ngoái, chính phủ Nhật Bản đã bắt đầu sử dụng các công cụ AI để phát hiện các nhận xét liên quan đến việc xả nước thải hạt nhân Fukushima và đã phản hồi trong vòng vài giờ.

Những ngày qua, thông tin Nhật Bản chính thức bắt đầu xả nước nhiễm hạt nhân ra Thái Bình Dương đã thu hút sự chú ý rộng rãi.

Ngay trước khi xả thải, một số phương tiện truyền thông đưa tin rằng chính phủ Nhật Bản đã sử dụng các công cụ AI từ năm ngoái để theo dõi mọi nhận xét liên quan đến kế hoạch xả nước thải hạt nhân của nhà máy điện hạt nhân Fukushima.

Vào tháng 6 năm nay, AI đã phát hiện ra một báo cáo của truyền thông Hàn Quốc cho rằng các quan chức cấp cao của Bộ Ngoại giao Nhật Bản đã quyên góp chính trị rất lớn cho Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA).

Trong vòng vài giờ, chính phủ Nhật Bản đã phản hồi, bác bỏ báo cáo này là "vô căn cứ" bằng cả tiếng Anh và tiếng Nhật.

Theo báo cáo trước đây của Nikkei Asia, Bộ Ngoại giao Nhật Bản sẽ ra mắt hệ thống AI hoàn toàn mới vào năm 2023 để thu thập và phân tích thông tin trên mạng xã hội và các nền tảng khác, cũng như theo dõi tác động của dư luận trong trung và dài hạn. thuật ngữ.

Điều đáng chú ý là khuôn khổ này không chỉ bao gồm thông tin dành cho khán giả Nhật Bản mà còn bao gồm thông tin dành cho Nhật Bản ở các quốc gia và khu vực khác.

Đánh giá sự kiện

Vào tháng 3 năm 2011, một trận động đất và sóng thần đã phá hủy hệ thống làm mát tại nhà máy điện hạt nhân Fukushima Daiichi, khiến nhiên liệu hạt nhân trong ba lò phản ứng tan chảy và rò rỉ chất phóng xạ. Tình trạng ô nhiễm nghiêm trọng sau đó đã buộc hàng chục nghìn người phải sơ tán.

Kể từ đó, hơn 1,3 triệu mét khối nước biển đã được sử dụng để làm mát lõi lò phản ứng vốn quá nóng sau vụ nổ.

Nước bị ô nhiễm này cũng được thu gom và lưu trữ trong hơn 1.000 bể chứa bằng thép không gỉ tại chỗ.

Trong số 64 nguyên tố phóng xạ gây ô nhiễm, các nguyên tố phóng xạ đe dọa chủ yếu đến sức khỏe con người là: carbon-14, iốt-131, Caesium-137, strontium-90, coban-60 và tritium-3.

Để xử lý lượng nước thải hạt nhân này, Công ty Điện lực Tokyo (TEPCO) đã áp dụng hệ thống xử lý chất lỏng tiên tiến (ALPS) tự phát triển, được chia thành 5 giai đoạn gồm đồng kết tủa, hấp phụ và lọc vật lý.

Tuy nhiên, lượng nước lớn như vậy cũng khiến việc lưu trữ bền vững ngày càng khó khăn.

Vào tháng 4 năm 2021, chính phủ Nhật Bản đã chính thức phê duyệt việc xả lượng nước thải hạt nhân đã qua xử lý này ra biển.

Bất chấp những lo ngại của nhiều quốc gia và tổ chức quốc tế, điều này không ngăn cản Nhật Bản thúc đẩy kế hoạch.

Đồng thời, Bộ Ngoại giao Nhật Bản cũng đã bắt đầu sử dụng AI để giám sát các báo cáo trực tuyến về chất phóng xạ có trong nước thải hạt nhân và làm loãng nồng độ thông tin đó bằng cách sản xuất một số lượng lớn tài liệu quảng cáo.

Ngày 21/7, Bộ Ngoại giao Nhật Bản đã đăng tải một video hoạt hình trên Twitter, giải thích về biện pháp bảo vệ an toàn trong quá trình xử lý nước thải hạt nhân bằng các biện pháp của Nhật Bản, Anh, Pháp, Tây Ban Nha, Nga, Ả Rập, Trung Quốc và Hàn Quốc.

Video giải thích cách nước của nhà máy được lọc theo tiêu chuẩn quy định thông qua Hệ thống xử lý chất lỏng tiên tiến (ALPS). Và nhấn mạnh rằng trước khi thải ra các vùng biển rộng hơn, nước thải hạt nhân thải ra đã bị nước biển pha loãng 100 lần.

Bài phát biểu theo dõi AI

Trên thực tế, công nghệ theo dõi dư luận Internet này đã được khám phá sâu rộng và rộng rãi trong lĩnh vực AI.

Một trong những cách phổ biến nhất là việc sử dụng kết hợp các thuật toán, mô hình học máy và con người để xử lý "tin tức giả" được đăng trên mạng xã hội.

Một nghiên cứu trên Twitter năm 2018 cho thấy những câu chuyện tin tức giả có khả năng được con người đăng lại nhiều hơn 70% so với tin tức thật.

Trong khi đó, tin tức thực tế mất thời gian lâu hơn khoảng 6 lần để đến được với nhóm 1.500 người và hầu hết hiếm khi đến được hơn 1.000 người. Ngược lại, tin giả phổ biến có thể tiếp cận tới 100.000 người.

Để đạt được mục tiêu này, Meta đã ra mắt công cụ AI hoàn toàn mới Sphere vào năm 2022 để đảm bảo tính chính xác của thông tin.

Sphere là mô hình AI đầu tiên có khả năng quét hàng trăm nghìn trích dẫn cùng một lúc để kiểm tra xem chúng có hỗ trợ các tuyên bố tương ứng hay không.

Bộ dữ liệu của Sphere bao gồm 134 triệu trang web công cộng. Nó dựa vào kiến thức chung của Internet để nhanh chóng quét hàng trăm nghìn trích dẫn trên web để tìm lỗi thực tế.

Meta cho biết Sphere đã quét tất cả các trang trên Wikipedia để xem liệu nó có thể xác định được các nguồn trích dẫn không hỗ trợ các tuyên bố được đưa ra trong các trang đó hay không.

Khi Sphere tìm thấy các nguồn đáng ngờ, nó có thể đề xuất các nguồn hoặc chỉnh sửa mạnh hơn để giúp cải thiện độ chính xác của mục nhập.

Trước đây, nhiều hệ thống AI có thể xác định thông tin thiếu nguồn trích dẫn, nhưng các nhà nghiên cứu tại Meta cho biết việc chọn ra những tuyên bố đáng ngờ và xác định xem nguồn trích dẫn có thực sự hỗ trợ chúng hay không đòi hỏi "sự hiểu biết và phân tích sâu sắc của hệ thống AI".

Sự phát triển của Sphere đánh dấu nỗ lực của Meta nhằm giải quyết thông tin sai lệch trên nền tảng này.

Meta đã phải đối mặt với sự chỉ trích gay gắt từ người dùng và cơ quan quản lý trong nhiều năm vì thông tin sai lệch lan truyền trên Facebook, Instagram và WhatsApp. CEO Tiêu Zha thậm chí còn được triệu tập trước Quốc hội để thảo luận về vấn đề này.

Khám phá tin tức giả và khám phá các kiểu giao tiếp trên mạng xã hội

Ở châu Âu còn có dự án Fandango đang xây dựng các công cụ phần mềm giúp các nhà báo và người kiểm chứng sự thật phát hiện tin giả.

Cho dù đó là PS hay DeepFake, hệ thống của Fandango có thể đảo ngược các thay đổi, sử dụng thuật toán để giúp các nhà báo phát hiện nội dung giả mạo.

Ngoài ra, hệ thống còn tìm kiếm các trang web hoặc bài đăng trên mạng xã hội có từ ngữ và ý kiến tương tự dựa trên tin tức giả mạo đã bị người xác minh tính xác thực gắn cờ.

Đằng sau hệ thống này là sự hỗ trợ của nhiều thuật toán AI khác nhau, đặc biệt là xử lý ngôn ngữ tự nhiên.

Bronstein, giáo sư tại Đại học Lugano ở Thụy Sĩ và Đại học Hoàng gia Luân Đôn ở Vương quốc Anh, đã áp dụng một cách tiếp cận AI không điển hình để phát hiện tin tức giả.

Dự án có tên GoodNews, cải tiến các công cụ phát hiện tin giả truyền thống bằng AI.

Trước đây, các công cụ này đã phân tích các đặc điểm ngữ nghĩa độc đáo của tin giả nhưng chúng thường gặp phải trở ngại, chẳng hạn như WhatsApp bị mã hóa và không cho phép truy cập.

Ngoài ra, nhiều khi tin giả có thể là hình ảnh, khó phân tích bằng kỹ thuật xử lý ngôn ngữ tự nhiên.

Vì vậy, nhóm của Giáo sư Bronstein đã thay đổi mô hình truyền thống để nghiên cứu cách thức tin giả lan truyền.

Kết quả cho thấy tin giả có thể nhận được nhiều lượt chia sẻ hơn lượt thích trên Facebook, trong khi các bài đăng thông thường có xu hướng nhận được nhiều lượt thích hơn lượt chia sẻ. Bằng cách phát hiện những khuôn mẫu như vậy, GoodNews sẽ gắn điểm đáng tin cậy cho các tin tức.

Mô hình đầu tiên của nhóm, sử dụng máy học dựa trên đồ thị, được đào tạo dựa trên dữ liệu từ Twitter, một số dữ liệu trong số đó đã được các nhà báo chứng minh là sai.

Từ đó, họ đào tạo thuật toán AI, dạy cho mô hình biết câu chuyện nào là sai và câu chuyện nào là không.

### Phát hiện DeepFake đa phương thức nên AIGC không còn nơi nào để ẩn

Ngoài văn bản thuần túy, sự phát triển nhanh chóng của các mô hình tạo hình ảnh như Stable Diffusion cũng khiến vấn đề DeepFake ngày càng trở nên nghiêm trọng.

Trong việc giả mạo phương tiện truyền thông đa phương thức, khuôn mặt của những người quan trọng trong ảnh của các bản tin khác nhau (khuôn mặt của tổng thống Pháp trong hình bên dưới) được thay thế và các cụm từ hoặc từ khóa trong văn bản bị giả mạo (cụm từ tích cực "được chào đón đến ” được đổi thành câu phủ định “buộc phải từ chức”).

Để đáp ứng những thách thức mới, các nhà nghiên cứu đã đề xuất một mô hình suy luận giả mạo phân cấp đa phương thức, có thể phát hiện sự không nhất quán về ngữ nghĩa giữa các phương thức của các mẫu bị giả mạo bằng cách hợp nhất và suy ra các đặc điểm ngữ nghĩa giữa các phương thức.

Hiện tại, công việc này đã được CVPR 2023 nghiệm thu.

Cụ thể, tác giả đề xuất mô hình suy luận giả mạo phân cấp đa phương thức HierArchical Multi-modal Manipulation tRansformer (HAMMER).

Mô hình này dựa trên kiến trúc mô hình của sự hợp nhất ngữ nghĩa đa phương thức và lý luận dựa trên cấu trúc tháp đôi, đồng thời thực hiện việc phát hiện và định vị giả mạo đa phương thức một cách chi tiết và phân cấp thông qua lý luận giả mạo nông và sâu.

Mô hình HAMMER có hai đặc điểm sau:

  1. Trong lý luận giả mạo nông cạn, Học tập tương phản nhận biết thao tác được sử dụng để căn chỉnh các đặc điểm ngữ nghĩa của hình ảnh và văn bản không đồng nhất được trích xuất bằng bộ mã hóa hình ảnh và bộ mã hóa văn bản. Đồng thời, tính năng nhúng một phương thức được sử dụng để tương tác thông tin thông qua cơ chế chú ý chéo và cơ chế Tổng hợp chú ý bản vá cục bộ (Local Patch Chú ý tổng hợp) được thiết kế để xác định khu vực giả mạo hình ảnh;

  2. Trong suy luận giả mạo sâu, các đặc điểm ngữ nghĩa đa phương thức được hợp nhất hơn nữa bằng cách sử dụng cơ chế chú ý chéo nhận biết phương thức trong bộ tổng hợp đa phương thức. Trên cơ sở này, việc gắn thẻ trình tự đa phương thức đặc biệt và phân loại đa nhãn đa phương thức được thực hiện để xác định vị trí các từ giả mạo văn bản và phát hiện các loại giả mạo chi tiết hơn.

Kết quả thử nghiệm cho thấy HAMMER do nhóm nghiên cứu đề xuất có thể phát hiện và định vị giả mạo phương tiện đa phương thức chính xác hơn các phương pháp phát hiện đa phương thức và đơn phương thức.

Đánh giá từ kết quả trực quan của việc phát hiện và bản địa hóa giả mạo đa phương thức, HAMMER có thể thực hiện đồng thời các nhiệm vụ phát hiện và bản địa hóa giả mạo một cách chính xác.

Ngoài ra, kết quả trực quan hóa sự chú ý của mô hình đối với các từ bị giả mạo còn chứng minh thêm rằng HAMMER thực hiện phát hiện và định vị giả mạo đa phương thức bằng cách tập trung vào các vùng hình ảnh không nhất quán về mặt ngữ nghĩa với văn bản bị giả mạo.

Người giới thiệu:

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)