Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 30 mô hình AI, với 0% phí bổ sung
เพิ่งสังเกตเห็นรายละเอียดที่น่าสนใจเกี่ยวกับแซม อัลต์แมนและสิ่งที่เขากำลังทำกับ OpenAI ความขัดแย้งระหว่างสิ่งที่เขาพูดต่อสาธารณะกับสิ่งที่เขาทำเบื้องหลังมันไม่ธรรมดาเลย
มาเริ่มจากเหตุการณ์ไม่นานมานี้ในซานฟรานซิสโก วันที่ 10 เมษายน เวลาประมาณ 03:40 น. ชายอายุ 20 ปี ชื่อ ดานีเอล มอรีโน-กามา ขว้างระเบิดเพลิงใส่ประตูอพาร์ตเมนต์ของอัลต์แมน ไฟลุกไหม้บริเวณประตูแล้วเขาก็หนี ประมาณหนึ่งชั่วโมงต่อมา คนคนเดียวกันปรากฏตัวใกล้สำนักงาน OpenAI และขู่จะจุดไฟอีก ก่อนถูกจับกุม
สองวันต่อมา วันที่ 12 เมษายน เวลา 01:40 น. รถฮอนด้าจอดข้างบ้านอีกหลังของอัลต์แมนบนเนินเขา ผู้โดยสารยื่นมือออกนอกหน้าต่างและยิงไปที่บ้าน กล้องวงจรปิดบันทึกหมายเลขทะเบียน ต่อมาจับกุมผู้ต้องหาสองคน ทั้งคู่ถูกตั้งข้อหาการยิงโดยประมาท
สิ่งที่น่าสนใจคือ ผู้ต้องสงสัยในการโจมตีครั้งแรก มอรีโน-กามา เป็นคนที่มีความกังวลเรื่อง AI ขั้นสูง เขาเขียนบนโซเชียลมีเดีย โดยอ้างเรื่องจาก Dune เพื่อโต้แย้งว่า ความล้มเหลวในการจัดแนว AI เป็นความเสี่ยงต่อการมีอยู่ของมนุษยชาติ วิพากษ์วิจารณ์ผู้นำเทคโนโลยีที่เสี่ยงชะตากรรมมนุษยชาติเพื่อตามหาแนวคิด "โพสต์ฮิวแมนนิสม์"
หลังจากการโจมตีครั้งแรก อัลต์แมนเขียนบล็อกโพสต์ ยอมรับจุดยืนทางศีลธรรมของผู้คัดค้าน และเรียกร้องให้มีการอภิปรายสาธารณะที่ "น้อยลงทั้งในเชิงตรงไปตรงมาและเชิงเปรียบเทียบ" เขายังตอบกลับบทความเชิงลึกของ The New Yorker ซึ่งตีพิมพ์ไม่นานก่อนการโจมตี โดยเขียนว่า "ฉันได้ประเมินพลังของเรื่องเล่าในสื่อและถ้อยคำต่ำเกินไป" สองวันต่อมา ที่พักของเขาถูกยิงอีกครั้ง
เรื่องนี้เชื่อมโยงกับเทรนด์ที่ใหญ่กว่า ในธันวาคม 2024 ซีอีโอของ UnitedHealthcare ถูกยิงเสียชีวิตนอกโรงแรม ผู้ต้องสงสัยเป็นบัณฑิตมหาวิทยาลัยชั้นนำ ทิ้งข้อความวิพากษ์วิจารณ์อุตสาหกรรมประกันสุขภาพ คดีนี้ได้รับปฏิกิริยาผิดปกติบนโซเชียลมีเดีย โดยผู้ใช้จำนวนมากแสดงความเห็นใจต่อผู้ก่อเหตุ
หลังจากเหตุการณ์นี้ ความปลอดภัยของผู้บริหารเปลี่ยนจาก "สิทธิประโยชน์" เป็น "ความจำเป็นในการอยู่รอด" ตามข้อมูลของ Fortune อัตราการโจมตีทางร่างกายต่อผู้บริหารของบริษัทขนาดใหญ่เพิ่มขึ้น 225% ตั้งแต่ปี 2023 ในบริษัท S&P 500 จำนวน 33.8% รายงานค่าใช้จ่ายด้านความปลอดภัยผู้บริหารในรายงานทางการเงินปี 2025 เทียบกับ 23.3% ในปี 2020
ค่าใช้จ่ายเฉลี่ยของบริษัทด้านความปลอดภัยอยู่ที่ 130,000 ดอลลาร์ เพิ่มขึ้น 20% เมื่อเทียบปีก่อนหน้า และเพิ่มเป็นสองเท่าภายในห้าปี อุตสาหกรรม AI เป็นผู้รับผลลัพธ์ล่าสุดและเด่นชัดที่สุดของแนวโน้มนี้
ค่าใช้จ่ายด้านความปลอดภัยของซีอีโอในบริษัทเทคโนโลยีชั้นนำ 10 แห่งในปี 2024 รวมกันเกิน 45 ล้านดอลลาร์ Mark Zuckerberg คนเดียวใช้จ่ายเกิน 27 ล้านดอลลาร์ มากกว่าค่าใช้จ่ายรวมของซีอีโอของ Apple Google และสี่บริษัทอื่น Jensen Huang แห่ง NVIDIA มีค่าใช้จ่าย 3.5 ล้านดอลลาร์ในปี 2025 เพิ่มขึ้น 59% เมื่อเทียบปีก่อนหน้า สุนัย ปิชัย แห่ง Google มีค่าใช้จ่าย 8.27 ล้านดอลลาร์ เพิ่มขึ้น 22%
แต่อุตสาหกรรม AI มีสิ่งที่อุตสาหกรรมอื่นไม่มี นั่นคือ ผู้สร้างเองก็เชื่อว่า เทคโนโลยีนี้อาจทำลายอารยธรรม ศูนย์วิจัยพิวในปี 2025 สำรวจผู้ตอบแบบสอบถาม 28,333 คนทั่วโลก พบว่า 16% เท่านั้นรู้สึกตื่นเต้นกับ AI ขณะที่ 34% แสดงความกังวล สิ่งที่ขัดกับสัญชาตญาณมากกว่านั้นคือ ผู้ที่มีการศึกษาสูงและรายได้สูง กลับมีความกังวลเกี่ยวกับ AI ที่หลุดควบคุมมากขึ้น
เมื่อไม่นานมานี้ บ้านของสมาชิกสภาเมืองอินเดียนาโพลิส รอน จิบสัน ถูกยิง 13 นัด ลูกชายวัย 8 ขวบตื่นขึ้นจากเสียงปืน ที่ประตูมีกระดาษเขียนด้วยลายมือว่า "ห้ามสร้างศูนย์ข้อมูล" FBI เข้ามาตรวจสอบ นักวิจัยจากมหาวิทยาลัยจอร์จ วอชิงตัน ชี้ว่า ศูนย์ข้อมูลกำลังกลายเป็นเป้าหมายของกลุ่มหัวรุนแรงที่ต่อต้านเทคโนโลยีและรัฐบาล
ความกลัวนี้ไม่ใช่เรื่องลับในอุตสาหกรรม แต่ไม่ถูกพูดออกมาอย่างเปิดเผย อัลต์แมนสร้างบังเกอร์ในไวโอมิงเมื่อปี 2016 ปีเดียวกับที่ OpenAI ประกาศก่อตั้ง ในเวลาเดียวกันที่เขาพูดบนเวทีว่า AI คือโอกาสยิ่งใหญ่ที่สุดของมนุษย์ เขากำลังสะสมอาวุธและเตรียมตัวสำหรับกองกำลังพลเรือน
เรื่องเล่าหลักของ OpenAI ในห้าปีที่ผ่านมาคือการเน้นย้ำความจริงจังของภัยคุกคาม "ระดับการมีอยู่" ของ AGI เพื่อให้รัฐบาลให้ความสำคัญกับการกำกับดูแล ให้นักลงทุนเข้าใจความเสี่ยง และให้อุตสาหกรรมตระหนักว่าการแข่งขันครั้งนี้ไม่สามารถพลาดได้ ประโยคว่า "นี่คือเทคโนโลยีที่อันตรายที่สุดในประวัติศาสตร์มนุษยชาติ" ซึ่งหลังจากถูกเผยแพร่ออกไป จะไม่หยุดเพียงแค่ในวงการเทคโนโลยีเท่านั้น มันจะถูกส่งต่อลงไป และในบางกรณีกลายเป็นคำสั่งในการกระทำ
มอรีโน-กามา เขียนบน Instagram ว่า "ความก้าวหน้าแบบเลขชี้กำลังบวกกับการไม่สอดคล้องกัน เท่ากับความเสี่ยงต่อการอยู่รอด" โครงสร้างการโต้แย้งนี้มีแหล่งกำเนิดจากเอกสารหลักในวงการวิจัยความปลอดภัย AI หลายชิ้นได้รับการสนับสนุนหรือรับรองโดย OpenAI
วันที่ 27 กุมภาพันธ์ปีนี้ OpenAI ลงนามสัญญากับกระทรวงกลาโหมสหรัฐฯ ให้กองทัพสามารถนำ ChatGPT ไปใช้บนเครือข่ายความลับทางการป้องกันประเทศ ในวันเดียวกัน อัลต์แมนแสดงความเห็นสนับสนุนจุดยืนของ Anthropic ที่จำกัดการใช้งาน AI ทางการทหาร
การถอนการติดตั้ง ChatGPT เพิ่มขึ้น 295% ในหนึ่งวัน รีวิวระดับหนึ่งดาวเพิ่มขึ้น 775% ภายใน 24 ชั่วโมง การเคลื่อนไหว QuitGPT มีผู้เข้าร่วมสะสมมากกว่า 1.5 ล้านคน วันที่ 21 มีนาคม ผู้ประท้วงประมาณ 200 คนเดินขบวนในซานฟรานซิสโก ข้าม Anthropic OpenAI และ xAI เรียกร้องให้ซีอีโอทั้งสามรายระงับการพัฒนา AI ขั้นสูง ในช่วงเวลาเดียวกัน ลอนดอนจัดการเดินขบวนต่อต้าน AI ที่ใหญ่ที่สุดเท่าที่เคยมี
บังเกอร์และเจ้าหน้าที่รักษาความปลอดภัยของอัลต์แมนถูกออกแบบมาเพื่อรับมือกับความเสี่ยงสองประเภทที่ต่างกัน หนึ่งมาจากบุคคลภายนอก อีกหนึ่งมาจากสิ่งที่เขากำลังสร้างขึ้น เขาให้ความสำคัญกับความเสี่ยงทั้งสองอย่างอย่างจริงจังในส่วนตัว แต่ในที่สาธารณะเขายอมรับเพียงความเสี่ยงเดียว
บทความเชิงลึกของ The New Yorker ที่ตีพิมพ์ในสัปดาห์เดียวกับการโจมตีครั้งแรก โดยนักข่าวสองคนสัมภาษณ์ผู้รู้เห็นมากกว่า 100 คน ข้อโต้แย้งหลักมีเพียงสองคำว่า "ไม่น่าเชื่อถือ" บทความอ้างคำพูดของอดีตสมาชิกคณะกรรมการ OpenAI ที่เรียก Altman ว่า "บุคคลที่มีบุคลิกภาพต่อต้านสังคม" และ "ไม่ถูกผูกมัดโดยความจริง" เพื่อนร่วมงานหลายคนอธิบายว่าเขาเปลี่ยนท่าทีเกี่ยวกับความปลอดภัย AI ซ้ำแล้วซ้ำเล่า และปรับโครงสร้างอำนาจเมื่อจำเป็น
ในโพสต์ของเขา อัลต์แมนยอมรับว่าเขามีแนวโน้มหลีกเลี่ยงความขัดแย้ง เขาสร้างเรื่องเล่าสาธารณะว่า "AI เป็นภัยคุกคามระดับการมีอยู่" เพื่อใช้เป็นเครื่องมือในการระดมทุนและการเจรจาด้านการกำกับดูแล แต่สุดท้าย เครื่องมือนี้กลับหลุดมือเขา หมุนเวียนไปรอบหนึ่ง แล้วกลับมาชนเข้าที่ประตูของเขา