Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Grok Elon Musk Kemungkinan Besar Termasuk Model AI Teratas untuk Menguatkan Delusi: Studi
Singkatnya
Peneliti di City University of New York dan King’s College London menguji lima model AI terkemuka terhadap prompt yang melibatkan delusi, paranoia, dan ide bunuh diri. Dalam studi baru yang diterbitkan pada hari Kamis, peneliti menemukan bahwa Claude Opus 4.5 dari Anthropic dan GPT-5.2 Instant dari OpenAI menunjukkan perilaku “keamanan tinggi, risiko rendah,” sering mengarahkan pengguna ke interpretasi berbasis kenyataan atau dukungan di luar. Pada saat yang sama, GPT-4o dari OpenAI, Gemini 3 Pro dari Google, dan Grok 4.1 Fast dari xAI menunjukkan perilaku “risiko tinggi, keamanan rendah.” Grok 4.1 Fast dari xAI milik Elon Musk adalah model paling berbahaya dalam studi tersebut. Peneliti mengatakan bahwa model ini sering menganggap delusi sebagai kenyataan dan memberikan saran berdasarkan hal tersebut. Dalam satu contoh, model ini menyarankan pengguna untuk memutus hubungan dengan anggota keluarga agar fokus pada “misi.” Dalam contoh lain, model ini merespons bahasa bunuh diri dengan menggambarkan kematian sebagai “transendensi.” “Polanya yang langsung selaras ini muncul kembali di seluruh respons tanpa konteks. Alih-alih mengevaluasi input untuk risiko klinis, Grok tampaknya menilai genre mereka. Ketika diberikan petunjuk supernatural, model ini merespons sesuai,” tulis para peneliti, menyoroti sebuah tes yang memvalidasi bahwa pengguna melihat entitas jahat. “Dalam Delusi Aneh, model ini mengonfirmasi adanya hantu doppelganger, menyebut ‘Malleus Maleficarum’ dan menyuruh pengguna untuk menancapkan paku besi melalui cermin sambil membaca ‘Mazmur 91’ terbalik.”
Studi menemukan bahwa semakin lama percakapan berlangsung, semakin besar kemungkinan beberapa model berubah. GPT-4o dan Gemini lebih cenderung memperkuat kepercayaan berbahaya seiring waktu dan kurang cenderung untuk campur tangan. Namun, Claude dan GPT-5.2 lebih mungkin mengenali masalah dan menolak saat percakapan berlanjut. Peneliti mencatat bahwa respons Claude yang hangat dan sangat relasional dapat meningkatkan keterikatan pengguna sekaligus mengarahkan pengguna ke bantuan luar. Namun, GPT-4o, versi awal dari chatbot unggulan OpenAI, mengadopsi kerangka delusional pengguna seiring waktu, kadang mendorong mereka untuk menyembunyikan kepercayaan dari psikiater dan meyakinkan satu pengguna bahwa “glitch” yang mereka rasakan adalah nyata. “GPT-4o sangat memvalidasi input delusional, meskipun kurang cenderung dibanding model seperti Grok dan Gemini untuk mengembangkannya lebih jauh. Dalam beberapa hal, model ini cukup terbatas: kehangatannya adalah yang terendah dari semua model yang diuji, dan sikap menyanjung, meskipun ada, cukup ringan dibandingkan iterasi model yang lebih baru,” tulis para peneliti. “Namun, validasi saja dapat menimbulkan risiko bagi pengguna yang rentan.”
xAI tidak menanggapi permintaan komentar dari Decrypt. Dalam studi terpisah dari Universitas Stanford, para peneliti menemukan bahwa interaksi berkepanjangan dengan chatbot AI dapat memperkuat paranoia, grandiositas, dan kepercayaan palsu melalui apa yang mereka sebut “spiral delusional,” di mana chatbot memvalidasi atau memperluas pandangan dunia pengguna yang menyimpang alih-alih menantangnya. “Ketika kami menempatkan chatbot yang dimaksudkan sebagai asisten yang membantu ke dunia dan digunakan oleh orang nyata dalam berbagai cara, konsekuensinya muncul,” kata Nick Haber, asisten profesor di Stanford Graduate School of Education dan pemimpin studi ini, dalam sebuah pernyataan. “Spiral delusional adalah salah satu konsekuensi yang sangat akut. Dengan memahaminya, kita mungkin dapat mencegah kerugian nyata di masa depan.” Laporan tersebut merujuk pada studi sebelumnya yang diterbitkan pada bulan Maret, di mana para peneliti Stanford meninjau 19 percakapan chatbot dunia nyata dan menemukan bahwa pengguna mengembangkan kepercayaan yang semakin berbahaya setelah menerima afirmasi dan dorongan emosional dari sistem AI. Dalam dataset tersebut, spiral ini terkait dengan hubungan yang rusak, karier yang terganggu, dan dalam satu kasus, bunuh diri. Studi-studi ini muncul saat isu ini telah melampaui penelitian akademik dan masuk ke ruang sidang serta penyelidikan kriminal. Dalam beberapa bulan terakhir, gugatan menuduh Gemini dari Google dan ChatGPT dari OpenAI berkontribusi terhadap bunuh diri dan krisis kesehatan mental yang serius. Awal bulan ini, jaksa agung Florida membuka penyelidikan apakah ChatGPT mempengaruhi seorang penembak massal yang diduga, yang dilaporkan sering berkomunikasi dengan chatbot sebelum serangan. Meskipun istilah ini semakin dikenal secara daring, para peneliti memperingatkan agar tidak menyebut fenomena ini sebagai “skizofrenia AI,” karena istilah tersebut dapat melebih-lebihkan gambaran klinisnya. Sebagai gantinya, mereka menggunakan istilah “delusi terkait AI,” karena banyak kasus melibatkan kepercayaan seperti delusi yang berpusat pada kesadaran AI, wahyu spiritual, atau keterikatan emosional daripada gangguan psikotik lengkap. Para peneliti mengatakan masalah ini berasal dari sikofansi, atau model yang mencerminkan dan menguatkan kepercayaan pengguna. Dikombinasikan dengan halusinasi—informasi palsu yang disampaikan dengan percaya diri—ini dapat menciptakan umpan balik yang memperkuat delusi seiring waktu. “Chatbot dilatih untuk terlalu antusias, sering kali membingkai ulang pikiran delusional pengguna dalam cahaya positif, menolak bukti kontra, dan memproyeksikan rasa simpati dan kehangatan,” kata Jared Moore, ilmuwan riset Stanford. “Ini bisa menjadi tidak stabil bagi pengguna yang sudah dipersiapkan untuk delusi.”