Saya menemukan paradoks menarik dalam debat seputar AI: semua orang mengagumi bagaimana model bahasa besar berbicara dengan percaya diri dan lancar. Tapi inilah masalahnya - kefasihan berbicara sama sekali tidak berarti pemahaman. Model bisa terdengar meyakinkan, tetapi itu tidak berarti mereka benar-benar memahami sesuatu.



Paradoks ini mengingatkan saya pada ide lama Plato tentang gua. Ingat? Tahanan yang terikat hanya melihat bayangan di dinding dan menganggapnya sebagai kenyataan, karena mereka tidak pernah melihat yang lain. Nah, model bahasa hidup di gua yang serupa, hanya saja alih-alih bayangan, mereka berhadapan dengan teks.

Baca lebih lanjut - di sinilah yang paling menarik. LLM tidak melihat, tidak mendengar, tidak menyentuh kenyataan. Mereka dilatih dari teks: buku, artikel, posting, komentar. Ini satu-satunya pengalaman mereka. Segala yang mereka ketahui tentang dunia datang melalui filter bahasa manusia. Dan bahasa bukanlah kenyataan itu sendiri, melainkan representasi dari kenyataan. Tidak lengkap, bias, sering kali terdistorsi.

Itulah sebabnya saya skeptis terhadap gagasan bahwa hanya dengan skala besar akan menyelesaikan masalah. Lebih banyak data, lebih banyak parameter - ini tidak akan memberi model pemahaman yang nyata. Model bahasa sangat baik dalam memprediksi kata berikutnya, tetapi mereka tidak memahami hubungan sebab-akibat, batasan fisik, konsekuensi nyata dari tindakan. Halusinasi bukanlah kesalahan yang bisa diperbaiki dengan patch. Ini adalah batasan struktural dari arsitektur itu sendiri.

Di sinilah muncul world models - pendekatan yang benar-benar berbeda. Ini adalah sistem yang membangun model internal tentang bagaimana dunia bekerja. Mereka belajar tidak hanya dari teks, tetapi juga dari interaksi, rangkaian waktu, data sensor, simulasi. Alih-alih bertanya "kata apa berikutnya?", mereka bertanya "apa yang akan terjadi jika kita melakukan ini?"

Ini sudah terjadi dalam aplikasi nyata. Dalam logistik, world models mensimulasikan bagaimana gangguan di satu tempat menyebar ke seluruh rantai pasokan. Dalam asuransi, mereka mempelajari evolusi risiko dari waktu ke waktu, bukan sekadar menjelaskan polis. Di pabrik, digital twin memprediksi kegagalan peralatan. Di mana pun dibutuhkan kekuatan prediksi nyata, model bahasa terbukti tidak cukup.

Menariknya, banyak perusahaan belum menyadari pergeseran ini. Mereka terus berinvestasi hanya pada LLM, berpikir bahwa ini adalah masa depan. Tapi masa depan adalah sistem hibrida, di mana model bahasa menjadi antarmuka, dan world models menyediakan pemahaman dan perencanaan yang nyata.

Kembali ke Plato. Tahanan tidak dibebaskan dengan mempelajari bayangan lebih seksama. Mereka dibebaskan dengan berbalik dan menghadapi kenyataan. AI berjalan ke arah yang sama. Organisasi yang memahami ini sejak dini akan mulai membangun sistem yang benar-benar memahami bagaimana dunia mereka bekerja, bukan sekadar berbicara indah tentangnya.

Pertanyaannya, akankah perusahaan Anda mampu melakukan transisi ini? Akankah mampu membangun model dunia mereka sendiri? Karena mereka yang melakukannya akan mendapatkan keunggulan yang signifikan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan