📢 #Gate观点任务# 第九十期精彩啟程!調研 Pell Network (PELL) 項目,在Gate.io動態發佈您的看法觀點,瓜分 $100 GT!
💰️ 選取10名優質發帖用戶,每人輕鬆贏取 $10 GT 獎勵,獲獎文章還將被標記為“精選”!
👉 參與方式:
調研$PELL項目,發表你對項目的見解。
帶上$PELL現貨交易鏈接:https://www.gate.io/trade/PELL_USDT
推廣$PELL Launchpool挖礦活動,質押$BTC、$PELL、$GT參與瓜分7,002,801 $PELL挖礦獎勵:https://www.gate.io/launchpool/PELL?pid=237
推廣$PELL上線狂歡活動,充值、交易、註冊享三重福利,參與瓜分$30,000 PELL獎勵:https://www.gate.io/announcements/article/43851
建議創作的主題方向:
🔹 什麼是 Pell Network?
🔹 Pell Network 在BTC再質押方面有什麼優勢?
🔹 $PELL 代幣經濟模型是如何運作的?
您可以選擇以上一個或多個方向發表看法,也可以跳出框架,分享主題以外的獨到見解。
注意:帖子不得包含除 #Gate观点任务# 和 #PELL# 之外的其他標籤,並確保你的帖子至少有 60 字,並獲得至少 3
核污水排海引熱議!日政府被曝出動AI 武器,實時監控全網「虛假信息」
來源:新智元
編輯:Aeneas 好困
這幾天,日本正式開始向太平洋排放核污染水的消息,引起了廣泛的關注。
而就在排放之前,有媒體報導稱,日本政府從去年起便開始利用AI工具監控任何與福島核電站計劃排放核污水有關的言論。
今年6月,該AI發現了一份韓國媒體的報導,聲稱日本外務省高級官員向國際原子能機構(IAEA)進行了巨額政治獻金。
值得注意的是,該框架不僅包括面向日本受眾的信息,還包括其他國家和地區針對日本的信息。
事件回顧
2011年3月,地震和海嘯摧毀了福島第一核電站的冷卻系統,導致三個反應堆中的核燃料熔毀,放射性物質不斷洩漏。隨之而來的大面積污染,迫使數万人撤離。
為了抑制爆炸後過熱的反應堆堆芯,自那以後,已經有超過130萬立方米的海水被用於冷卻。
這些受污染的水也被收集起來,並存儲在該場地上的1000多個不銹鋼儲罐中。
在造成污染的64種放射性元素中,主要對人類健康構成威脅的放射性元素為:碳-14,碘-131,銫-137,鍶-90,鈷-60和氚-3。
為了處理這些核污水,東京電力公司(TEPCO)採用了自行研發的先進液體處理系統(ALPS),過程分為共沉澱、吸附和物理過濾等五個階段。
2021年4月,日本政府正式批准將這些經過處理的核污水排入大海。
儘管多個國家和國際組織對此表示擔憂,但這並沒有阻止日本對該計劃的推進。
與此同時,日本外務省也開始使用AI來監控網上關於核污水中含有放射性物質的報導,並通過製作大量宣傳材料來稀釋這些信息的濃度。
7月21日,日本外務省在推特上發布的一則動畫視頻,就用日語、英語、法語、西班牙語、俄語、阿拉伯語、中文和韓語,解釋了核污水處理過程中採取的安全防護措施。
視頻解釋了工廠的水如何通過高級液體處理系統(ALPS)按照監管標准進行淨化。並且強調,在被釋放到更廣泛的海洋區域之前,排放的核污水已經被海水稀釋了100倍。
AI監控言論
實際上,這種監控互聯網輿論的技術,在AI領域早已有了非常深入和廣泛的探索。
其中最為熱門的,便是利用算法、機器學習模型和人工的組合來應對社交媒體中發布的「虛假新聞」。
2018年的一項Twitter研究顯示,虛假新聞報導被人類轉發的可能性比真實新聞高70%。
與此同時,真實新聞需要大約6倍的時間才能在1500人的群體中傳播,而且大部分時候的傳播範圍很少能超過1000人。相比之下,熱門的虛假新聞卻可以傳播到多達10萬人。
Sphere是第一個能夠一次性掃描數十萬引用,來檢查它們是否支持相應聲明的AI模型。
當Sphere發現可疑來源時,就會推薦更強大的來源或更正,來幫助提高條目的準確性。
Sphere的研發,標誌著Meta為解決平台上的錯誤信息所做的努力。
幾年來,Meta一直因為Facebook、Instagram和WhatsApp上傳播的錯誤信息,遭受著用戶和監管機構的嚴厲批評。 CEO小扎甚至被召到國會面前討論這個問題。
發現假新聞,探索社交媒體傳播模式
在歐洲,還有一個Fandango項目,他們在構建軟件工具,幫助記者和事實核查員檢測假新聞。
另外,系統還會根據已經被事實核查員標記的假消息,尋找到具有類似詞語和觀點的網頁或者社交媒體帖子。
這個項目叫做GoodNews,顛覆了傳統的假新聞AI探測工具。
另外,很多時候假新聞可能是圖像,使用自然語言處理技術很難進行分析。
結果表明,假新聞在Facebook上的分享量可能遠遠多於點贊數,而普通帖子的點贊數往往多於分享量。通過發現這樣的模式,GoodNews就會將可信度分數附加到新聞項目上。
由此,他們訓練了AI算法,教會模型哪些故事是假的,哪些不是。
除了單純的文本外,如Stable Diffusion等視覺生成模型的快速發展,也讓DeepFake問題愈發嚴峻。
在多模態媒體篡改中,各類新聞報導的圖片中重要人物的人臉(下圖中法國總統人臉)被替換,文字中關鍵短語或者單詞被篡改(下圖中正面短語「is welcome to 」被篡改為負面短語「is forced to resign」)。
目前,該工作已被CVPR 2023收錄。
此模型建立在基於雙塔結構的多模態語義融合與推理的模型架構上,並將多模態篡改的檢測與定位細粒度層次化地通過淺層與深層篡改推理來實現。
在淺層篡改推理中,通過篡改感知的對比學習(Manipulation-Aware Contrastive Learning)來對齊圖像編碼器和文本編碼器提取出的圖像和文本單模態的語義特徵。同時將單模態嵌入特征利用交叉注意力機制進行信息交互,並設計局部塊注意力聚合機制(Local Patch Attentional Aggregation)來定位圖像篡改區域;
在深層篡改推理中,利用多模態聚合器中的模態感知交叉注意力機制進一步融合多模態語義特徵。在此基礎上,進行特殊的多模態序列標記(multi-modal sequence tagging)和多模態多標籤分類(multi-modal multi-label classification)來定位文本篡改單詞並檢測更細粒度的篡改類型。
實驗結果表明研究團隊提出的HAMMER與多模態和單模態檢測方法相比,都能更準確地檢測並定位多模態媒體篡改。