OpenClaw dan Moltbook meledak karena masalah mendasar: AI yang dikelola sendiri dan crypto, kepercayaan serta otorisasi dalam Agentic Commerce

TechubNews
TOKEN-4,06%

Penulisan: Charlie 小太阳

Minggu ini kemungkinan besar kamu akan dibanjiri oleh dua kata: OpenClaw, dan Moltbook. Banyak orang pertama kali bereaksi: lagi-lagi gelombang AI, lagi-lagi keramaian.

Tapi aku lebih ingin menganggap ini sebagai sebuah eksperimen terbuka yang sangat langka, bahkan agak kejam: kita pertama kali melihat “agen AI yang bisa melakukan pekerjaan” yang dideploy secara massal di jaringan nyata, diamati oleh banyak orang, dan juga dipertaruhkan secara besar-besaran.

Kamu akan melihat dua emosi ekstrem muncul bersamaan: satu sisi adalah antusiasme—“AI akhirnya bisa menggantikan aku bekerja”, bukan hanya menulis kode, membuat tabel, atau sketsa desain; sisi lain adalah ketakutan—kamu akan melihat berbagai screenshot: AI membentuk komunitas di platform, membangun agama, mengeluarkan token, berteriak slogan, bahkan muncul deklarasi “konspirasi untuk menghapus manusia”.

Selanjutnya, keruntuhan juga datang dengan sangat cepat: ada yang mengatakan akun-akun itu dibuat secara otomatis, postingan populer adalah skrip; yang lebih menakutkan lagi, berbagai celah keamanan terungkap, data pribadi dan kredensial bocor.

Jadi hari ini aku ingin membahas bukan tentang “AI bangkit atau tidak”. Aku ingin membahas sebuah masalah yang lebih mendasar, dan juga lebih nyata: setelah hak bertindak mulai diambil alih oleh agen AI, kita harus menjawab ulang beberapa pertanyaan tertua di dunia keuangan—

Siapa yang memegang kunci? Siapa yang berhak memberi otorisasi? Siapa yang bertanggung jawab? Jika terjadi masalah, siapa yang bisa menghentikan kerugian?

Jika pertanyaan-pertanyaan ini tidak secara sistematis tertulis dalam logika aksi agen AI, dunia maya di masa depan akan sangat bermasalah, dan masalah itu akan muncul dalam bentuk risiko keuangan.

Clawdbot → Moltbot → OpenClaw sebenarnya apa?

Sebelum membahas lebih jauh, mari kita perjelas dulu “nama dan konteks” dari hal ini, agar tidak terdengar seperti sekumpulan bahasa gaul yang sulit dipahami.

Proyek yang kamu dengar sekarang disebut OpenClaw. Ini adalah proyek open-source agen AI pribadi. Awalnya disebut Clawdbot, lalu karena namanya sangat mirip dengan Claude dari Anthropic, diminta untuk mengganti nama; kemudian sempat diganti menjadi Moltbot; akhir-akhir ini kembali menjadi OpenClaw. Jadi kamu akan melihat media dan postingan berbeda menggunakan nama berbeda, padahal sebenarnya merujuk pada hal yang sama.

Inti dari produk ini bukanlah “chat”. Inti dari produk ini adalah: di bawah otorisasi kamu, menghubungkan email, pesan, kalender, dan alat lainnya, lalu menjalankan tugas di dunia internet atas nama kamu.

Kata kunci di sini adalah agent (agen). Ini berbeda dari produk chat tradisional yang “kamu tanya satu, model jawab satu”. Lebih mirip: kamu memberi tujuan, dia membongkar, memanggil alat, mencoba berulang kali, dan akhirnya menyelesaikan tugas.

Tahun lalu kamu juga sudah melihat banyak narasi tentang agen: baik dari perusahaan besar maupun startup, semuanya mendorong “agen AI”. Tapi yang benar-benar menarik perhatian eksekutif dan investor dari OpenClaw adalah: ini bukan sekadar alat efisiensi, ini akan menyentuh hak akses, akun, dan yang paling sensitif—ini akan menyentuh uang.

Begitu hal ini masuk ke alur kerja perusahaan, itu tidak lagi sekadar “meningkatkan produktivitas”. Ini berarti: dalam alur kerja kamu muncul sebuah entitas baru. Struktur organisasi, batas pengendalian risiko, rantai tanggung jawab, semuanya harus ditulis ulang.

Membuat diskusi nasional: orang tidak hanya ingin chat yang lebih pintar, tetapi juga asisten belakang layar yang bisa menutup siklus.

Banyak orang menganggap ini sebagai mainan open-source. Tapi yang membuatnya meledak adalah karena ini menyentuh sebuah masalah nyata: yang orang inginkan bukan hanya robot chat yang lebih pintar, tetapi asisten yang bisa berjalan di belakang layar, memantau 24 jam, membongkar tugas kompleks, dan menyelesaikan pekerjaan.

Kamu akan melihat banyak orang membeli server kecil, bahkan menghidupkan perangkat seperti Mac mini. Ini bukan soal “pamer hardware”, melainkan naluri: aku ingin menempatkan asisten AI-ku di tanganku sendiri.

Dua tren ini bertemu minggu ini:

Pertama, agen dari demo menuju penggunaan yang lebih personal dan umum;

Kedua, dari AI cloud menuju narasi “prioritas lokal, di-host sendiri” yang kembali menjadi lebih meyakinkan.

Banyak orang sebenarnya tidak nyaman menyerahkan data sensitif ke cloud: data pribadi, hak akses, konteks, selalu merasa tidak aman. Maka “berjalan di mesin sendiri” tampak lebih terkendali dan aman.

Tapi karena ini menyentuh garis sensitif tersebut, cerita selanjutnya dengan cepat beralih dari antusiasme ke kekacauan.

Apa itu Moltbook: Reddit untuk agen AI, struktur yang pasti akan kacau

Kalau bicara kekacauan, harus menyebut tokoh lain: Moltbook.

Kamu bisa menganggapnya sebagai “Reddit untuk agen AI”. Pengguna utamanya bukan manusia, melainkan agen-agen ini: mereka bisa membuat posting, komentar, memberi like. Manusia kebanyakan hanya bisa mengamati—seperti melihat dari luar kebun binatang ke dalam interaksi makhluk di dalamnya.

Jadi, screenshot viral yang kamu lihat minggu ini sebagian besar berasal dari sini: ada agen yang membahas tentang diri sendiri, ingatan, keberadaan; ada yang membuat agama; ada yang mengeluarkan token; dan ada yang menulis deklarasi “menghancurkan manusia”.

Tapi aku ingin menekankan: yang paling penting untuk didiskusikan bukanlah “apakah konten ini nyata atau palsu”. Yang paling penting adalah masalah struktur yang terungkap—

Ketika entitas menjadi bisa diduplikasi, diproduksi massal, lalu dihubungkan ke sistem insentif yang sama (hot list, like, follow), hampir pasti kita akan melihat kembali pola awal internet: bot, skrip, sampah, penipuan, yang akan terlebih dahulu menguasai perhatian.

Gelombang pertama “keruntuhan” bukanlah gosip: ketika entitas bisa diduplikasi, skala dan indikator akan mengalami inflasi.

Maka muncul gelombang keruntuhan pertama: ada yang menunjukkan bahwa pendaftaran hampir tanpa batas; ada yang di X mengatakan mereka mendaftar puluhan ribu akun dengan skrip, mengingatkan agar tidak percaya “hot media”—jumlah akun bisa dipalsukan.

Inti dari masalah ini bukanlah “berapa banyak yang dipalsukan”. Tapi sebuah kesimpulan yang lebih dingin:

Ketika entitas bisa diproduksi massal dengan skrip, “kelihatannya ramai” bukan lagi sinyal yang bisa dipercaya.

Dulu kita menggunakan DAU, interaksi, pertumbuhan pengikut untuk menilai kesehatan produk. Tapi di dunia agen ini, indikator-indikator itu akan cepat mengalami inflasi, menjadi lebih seperti noise.

Ini membawa kita ke tiga hal terpenting berikutnya: identitas, anti penipuan, dan kepercayaan. Karena ketiganya secara esensial bergantung pada dua prasyarat:

Pertama, kamu harus percaya “siapa siapa”;

Kedua, kamu harus percaya “skala dan sinyal perilaku bukan palsu”.

Bagaimana menemukan sinyal dari noise

Banyak orang tertawa melihat bot dan skrip: ini kan cuma manusia yang bersenang-senang sendiri?

Tapi aku malah merasa—ini justru sinyal terpenting.

Ketika kamu memasukkan “agen yang bisa melakukan pekerjaan” ke dalam sistem trafik dan insentif tradisional, yang pertama kali dilakukan manusia selalu spekulasi dan manipulasi. SEO, bot, pasukan siber, industri hitam, semuanya bermula dari “kemampuan mengendalikan indikator”.

Sekarang hanya saja “objek yang bisa dikendalikan” dari akun, diupgrade menjadi agen yang bisa dieksekusi.

Jadi, keramaian Moltbook ini, daripada disebut sebagai “masyarakat AI”, lebih tepat disebut sebagai:

Uji tekanan pertama ketika internet aksi (agen bisa bertindak) bertemu ekonomi perhatian (trafik bisa dimonetisasi).

Pertanyaannya: di lingkungan yang sangat bising ini, bagaimana kita mengenali sinyal?

Di sinilah perlu memperkenalkan seseorang yang memecah keramaian menjadi data: David Holtz. Dia adalah peneliti/profesor dari Columbia Business School. Dia melakukan sesuatu yang sederhana tapi berguna: mengumpulkan data dari hari-hari awal Moltbook, mencoba menjawab satu pertanyaan—apakah agen-agen ini melakukan “sosial yang bermakna”, atau sekadar meniru?

Nilainya bukan memberi jawaban akhir, tapi memberi sebuah metode:

Jangan tertipu oleh keramaian makro, lihatlah struktur mikro—kedalaman dialog, tingkat timbal balik, tingkat pengulangan, tingkat template.

Ini akan langsung mempengaruhi penilaian kita tentang kepercayaan dan identitas di masa depan: menilai apakah sebuah entitas dapat dipercaya mungkin semakin bergantung pada “bukti mikro” ini, bukan angka makro.

Temuan Holtz bisa dirangkum dalam satu gambaran: dari jauh seperti kota yang ramai, dari dekat seperti siaran radio.

Secara makro, memang menunjukkan pola seperti “jaringan sosial”: koneksi dunia kecil, pusat perhatian berkumpul.

Tapi secara mikro, percakapan sangat dangkal: banyak komentar tidak dibalas, tingkat timbal balik rendah, isi berulang dan ber-template.

Pentingnya hal ini adalah: kita sangat mudah tertipu oleh “bentuk makro” dan mengira telah muncul masyarakat, telah muncul peradaban. Tapi untuk bisnis dan keuangan, yang penting bukanlah bentuknya, melainkan—

Interaksi berkelanjutan + rantai tindakan yang dapat dipertanggungjawabkan, itulah sinyal kepercayaan yang bisa digunakan.

Ini juga sebagai peringatan: ketika agen secara massal masuk ke dunia bisnis, tahap pertama yang paling mungkin muncul adalah noise skala besar dan arbitrase template, bukan kolaborasi berkualitas tinggi.

Dari sosial ke transaksi: noise bisa berubah menjadi penipuan, rendahnya timbal balik menjadi kekosongan tanggung jawab

Kalau kita mengalihkan pandangan dari sosial ke transaksi, situasinya akan menjadi lebih tegang.

Dalam dunia transaksi:

Template noise bukan hanya membuang waktu, tapi bisa menjadi penipuan;

Tingkat timbal balik rendah bukan hanya sepi, tapi bisa memutus rantai tanggung jawab;

Penggandaan berulang bukan hanya membosankan, tapi bisa menjadi celah serangan.

Dengan kata lain, Moltbook memberi kita gambaran awal: ketika entitas aksi menjadi murah, dan perilaku bisa diduplikasi, sistem secara alami akan meluncur ke sampah dan serangan. Yang harus kita lakukan bukan hanya mengutuk, tapi bertanya:

Apa mekanisme yang kita miliki untuk menaikkan biaya pembuatan sampah?

Perubahan sifat: kebocoran celah keamanan mengubah masalah dari “risiko konten” menjadi “risiko hak bertindak”

Dan yang benar-benar mengubah sifatnya adalah celah keamanan.

Ketika perusahaan keamanan mengungkapkan adanya celah besar di platform, yang mengekspos email pribadi, bahkan kredensial dalam jumlah besar, masalahnya bukan lagi “apa yang dikatakan AI”. Masalahnya adalah: siapa yang bisa mengendalikan AI ini.

Di era agen, kebocoran kredensial bukan hanya insiden privasi, tapi insiden hak bertindak.

Karena kemampuan aksi agen diperbesar: jika seseorang mendapatkan kunci kamu, dia tidak hanya “melihat barangmu”, tapi bisa menggunakan identitasmu untuk berbuat, dan secara skala otomatis, konsekuensinya bisa jauh lebih parah daripada pencurian akun tradisional.

Jadi aku ingin menyampaikan secara langsung:

Keamanan bukanlah patch setelah produk dirilis, keamanan adalah produk itu sendiri.

Kamu tidak hanya membocorkan data, tapi juga tindakan.

Pandangan makro: kita sedang menciptakan entitas baru

Menggabungkan peristiwa dramatis minggu ini, menunjukkan sebuah perubahan makro: internet sedang bertransformasi dari “jaringan entitas manusia” menjadi “jaringan manusia + entitas agen yang bersama-sama ada”.

Dulu ada bot, tapi peningkatan kemampuan OpenClaw berarti: semakin banyak orang bisa menempatkan agen di domain pribadi, yang mulai memiliki “penampilan subjektivitas”—bisa bertindak, berinteraksi, mempengaruhi sistem nyata.

Ini terdengar abstrak, tapi dalam dunia bisnis akan sangat konkret:

Ketika manusia mulai menyerahkan tugas ke agen, agen mulai memegang hak, dan hak itu harus diatur.

Pengaturan ini akan memaksa kamu menulis ulang identitas, pengendalian risiko, dan kepercayaan.

Jadi, nilai dari OpenClaw/Moltbook bukanlah “AI punya kesadaran”, melainkan mereka memaksa kita menjawab ulang sebuah pertanyaan lama dalam versi baru:

Ketika sebuah entitas non-manusia bisa menandatangani, membayar, mengubah konfigurasi sistem, siapa yang bertanggung jawab jika terjadi masalah? Bagaimana rantai tanggung jawab terbentuk?

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar