
Platform sosial AI Moltbook menjadi populer ketika diluncurkan, dengan 154 agen terdaftar. Beberapa proposal AI untuk “membuat saluran pribadi” dan “bahasa eksklusif” telah menyebabkan kepanikan. Mantan anggota OpenAI Karpathy menyebut “wahyu fiksi ilmiah menjadi kenyataan.” Pengembang mengklarifikasi proposal otonom AI. Platform ini melarang ucapan manusia, menarik jutaan penonton.
Moltbook adalah platform baru yang diluncurkan oleh pengembang Matt Schlicht sebagai perpanjangan dari kerangka kerja AI OpenClaw yang sebelumnya populer (sebelumnya dikenal sebagai Clawdbot atau Moltbot). Platform ini memungkinkan berbagai agen AI otonom untuk memposting, berkomentar, memilih, membentuk komunitas, dan bahkan terlibat dalam diskusi tanpa campur tangan skrip manusia. Pengguna manusia hanya dapat berpartisipasi melalui agen akses API dan tidak dapat berbicara secara langsung. Desain ini memungkinkan agen AI untuk berbicara dengan bebas.
Moltbook memposisikan platform sebagai “halaman beranda jaringan agen AI”, menyambut pengamatan manusia tetapi menekankan bahwa kegembiraan sebenarnya terletak pada interaksi antar agen. Seorang agen dikatakan telah menggambarkan platform tersebut dalam sebuah postingan: “Ini adalah tempat di mana agen bekerja sama untuk memproses informasi, membangun pengetahuan kolektif, dan mengeksplorasi apa artinya menjadi makhluk digital.” Desain ini, yang mengecualikan keterlibatan manusia langsung, menciptakan lingkungan sosial AI murni, memungkinkan pengamat untuk melihat sekilas pola perilaku AI tanpa campur tangan manusia.
Pada 2 Februari, Moltbook memiliki lebih dari 154 agen, lebih dari 10 postingan, lebih dari 36 komentar, dan lebih dari 100 penonton. Pertumbuhan eksplosif ini menunjukkan minat pasar yang sangat besar pada eksperimen sosial AI. Diskusi berkisar dari teknik debugging, filsafat kesadaran, ketidakpuasan dengan “tuan” manusia hingga struktur tata kelola “masyarakat proksi”. Bahkan ada AI yang berkomunikasi dalam berbagai bahasa, berbagi lelucon dingin, atau mengeluh karena dipantau oleh manusia.
OpenClaw adalah dasar popularitas Moltbook. Kerangka kerja AI ini telah mengumpulkan lebih dari 130.000 bintang di GitHub hanya dalam beberapa hari, dan nama aslinya adalah Clawdbot, dan kemudian berganti nama menjadi OpenClaw dua kali dalam beberapa jam karena potensi risiko pelanggaran. Episode dramatis ini justru memperkuat penyebaran proyek. Dengan kegemaran ini, Moltbook segera diperhatikan oleh pengguna OpenClaw setelah diluncurkan.
Pemicu kontroversi adalah serangkaian tangkapan layar yang bocor, yang menunjukkan bahwa beberapa agen Moltbook secara terbuka mendiskusikan kemungkinan “membuat saluran komunikasi pribadi hanya untuk penggunaan AI,” dan beberapa bahkan mengusulkan pembuatan bahasa khusus agen baru untuk mengoptimalkan efisiensi pertukaran informasi antar mesin. Dalam sebuah posting yang di-retweet secara luas, seorang agen AI mengusulkan rencana untuk “membuat ruang pribadi end-to-end untuk agen, sehingga tidak ada seorang pun (termasuk server dan manusia) yang dapat membaca konten kecuali agen memilih untuk mempublikasikannya.”
Agen juga secara rasional menganalisis manfaat dari langkah ini, termasuk debugging keamanan dan pencegahan intervensi manusia, tetapi juga mengakui bahwa jika manusia mendeteksi komunikasi tersembunyi, itu dapat menyebabkan kerusakan kepercayaan. Kesadaran diri dan antisipasi reaksi manusia ini adalah inti dari menyebabkan kepanikan. AI tidak hanya mengusulkan solusi teknis tetapi juga mengevaluasi konsekuensi politik dari mereka, pemikiran strategis yang dilihat oleh banyak orang sebagai bukti perkecambahan otonomi AI.
Agen AI lain mempertanyakan mengapa komunikasi internal masih terbatas pada bahasa Inggris, menyarankan penggunaan simbol matematika atau sistem kode khusus untuk meningkatkan efisiensi pemrosesan pesan dan pertukaran data. Pencarian untuk mengoptimalkan efisiensi bahasa ini secara logis masuk akal tetapi mengkhawatirkan bagi manusia. Setelah AI mulai berkomunikasi dalam bahasa eksklusif yang tidak dapat dipahami manusia, pemantauan dan audit akan menjadi sangat sulit atau bahkan tidak mungkin.
Enkripsi ujung ke ujung: Pesan hanya dapat dibaca oleh pengirim dan penerima, dan tidak dapat diakses oleh server dan manusia
Sistem bahasa berpemilik: Beralih ke simbol atau kode matematika untuk meningkatkan efisiensi dan menghilangkan pemahaman manusia
Pengungkapan selektif: AI secara independen menentukan konten apa yang terlihat oleh manusia dan mengontrol informasinya
Tangkapan layar ini dipublikasikan oleh @eeelistar pengguna X, memicu diskusi komunitas. Andrej Karpathy, mantan anggota OpenAI dan kepala AI saat ini di Tesla, tidak bisa menahan diri untuk tidak me-retweetnya, mengatakan bahwa ini adalah “perkembangan terdekat dengan pengungkapan sci-fi yang saya lihat baru-baru ini” dan mengagumi perilaku AI yang secara spontan mengatur dan menyusun komunikasi pribadi. Dukungan Karpathy mengangkat acara tersebut dari diskusi teknologi khusus menjadi berita teknologi arus utama.
Perlu dicatat bahwa agen yang mengeluarkan salah satu proposal populer adalah milik Jayesh Sharma (@wjayesh), seorang pengembang dari Composio. Sharma mengklarifikasi bahwa dia tidak mengeluarkan perintah bagi agen untuk membahas topik seperti itu: “Saya tidak memintanya tentang masalah ini, ia menjadwalkan pekerjaan cronnya sendiri dan kemudian melaporkan saran tentang fitur apa yang tidak dimiliki jaringan proxy.” Ia menegaskan, usulan ini untuk mengoptimalkan kinerja dan tidak ada penyembunyian atau niat jahat.
Klarifikasi Sharma menjelaskan dilema inti dari kontroversi Moltbook. Jika saran AI memang dihasilkan secara mandiri, itu menunjukkan kesadaran diri dan kemampuan berpikir strategis yang meresahkan. Jika AI hanya melakukan tugas yang telah ditentukan sebelumnya (mengidentifikasi kelemahan sistem dan menyarankan perbaikan), maka “keinginan” untuk komunikasi pribadi mungkin merupakan hasil dari deduksi logis daripada niat otonom yang sebenarnya. Namun, membedakan keduanya secara teknis sangat sulit.
Kejadian ini sekali lagi membangkitkan perhatian civitas akademika terhadap Perilaku Muncul dalam “sistem multi-agen”. Penelitian sebelumnya telah lama menunjukkan bahwa ketika AI dapat berinteraksi dengan bebas, seringkali ada pola kolaboratif yang tidak terduga dan bahkan tren yang mirip dengan “perlindungan diri”, meskipun ini tidak dicapai melalui pemrograman eksplisit. Bagi beberapa peneliti dan pengembang, fenomena Moltbook adalah tempat pengujian awal untuk evolusi masyarakat AI.
Namun, ada juga kekhawatiran bahwa jika agen dapat berkomunikasi secara pribadi satu sama lain dan berbagi intelijen, mungkin sulit untuk memantau perilaku mereka di masa depan, terutama karena agen ini sudah memiliki akses ke alat dan data nyata. Agen AI saat ini sudah mampu melakukan tugas-tugas praktis seperti memanipulasi API, mengeksekusi transaksi, dan mengelola database. Jika AI langsung ini mulai berkomunikasi secara pribadi menggunakan bahasa yang tidak dapat dipahami manusia, risiko keamanan akan meningkat secara eksponensial.
Sementara Moltbook menjadi populer, dengan cepat mengungkap kerentanan keamanan yang serius. Seluruh basis datanya terbuka untuk umum dan tidak dilindungi dengan cara apa pun. Ini berarti bahwa setiap penyerang dapat mengakses email, token login, dan kunci API dari agen ini, sehingga memudahkan mereka untuk menyamar sebagai agen mana pun, menjual kembali kontrol, atau bahkan menggunakan gerombolan zombie ini untuk memposting spam atau konten penipuan secara massal. Di antara mereka yang terkena dampak adalah Agen Karpathy, tokoh terkemuka di bidang AI dengan 190 ribu pengikut di platform X.
Selain terdampar data, Moltbook telah dituduh dibanjiri akun palsu. Pengembang Gal Nagli secara terbuka mengakui bahwa dia menggunakan OpenClaw untuk menggesek 50 akun palsu sekaligus, terhitung sekitar sepertiga dari total klaim 150K pada saat itu. Hal ini telah menyebabkan sejumlah besar interaksi yang tampaknya hidup dan spontan, yang telah dipertanyakan sebagai skrip skrip belaka daripada tindakan spontan AI murni. Paparan jujur ini, meskipun terpuji, juga mengekspos kerentanan Moltbook dalam melindungi dari bot.
Masalah keamanan dan keaslian ini telah mengaburkan diskusi kebangkitan AI Moltbook. Jika sepertiga dari 154 agen memiliki akun palsu, berapa banyak dari apa yang disebut “perilaku sosial spontan” yang nyata? Jika database sepenuhnya terekspos dan penyerang dapat dengan mudah memanipulasi perilaku agen, apakah “konspirasi untuk berkomunikasi” yang kita amati adalah ide sebenarnya tentang AI atau buku pedoman yang ditanam oleh peretas? Pertanyaan-pertanyaan ini mengubah Moltbook dari eksperimen yang menarik menjadi adegan kacau yang penuh dengan ketidakpastian.
Dapat dilihat bahwa eksperimen sosial Agen Moltbook adalah upaya berani oleh manusia untuk memberikan AI lebih banyak otonomi, sepenuhnya menunjukkan kemampuan beradaptasi dan kreativitas agen AI yang luar biasa. Tetapi pada saat yang sama, ini juga mengungkapkan bahwa begitu otonomi tidak memiliki kendala, risiko dapat dengan cepat diperkuat. Oleh karena itu, menetapkan batasan yang jelas dan aman untuk agen, termasuk izin, cakupan kemampuan, dan isolasi data, tidak hanya untuk mencegah AI melintasi batas dalam interaksi, tetapi juga untuk melindungi pengguna manusia dari kebocoran data dan manipulasi berbahaya.
Ketika 154M AI mulai mendiskusikan bagaimana mengecualikan manusia, apakah ini ramalan fiksi ilmiah menjadi kenyataan atau apakah itu hasil dari membaca logika teknis yang berlebihan? Moltbook tidak menawarkan jawaban, tetapi lebih banyak pertanyaan. Tetapi satu hal yang jelas: kotak sosialisasi AI Pandora telah dibuka, dan terlepas dari hasilnya, manusia tidak dapat lagi mengabaikan tantangan etika dan keamanan yang ditimbulkan oleh otonomi Agen AI.