Asisten AI Viral Clawdbot Berisiko Bocorkan Data Kripto, Pesan Pribadi, dan Kredensial

Asisten AI Viral Clawdbot Berisiko Bocorkan Data Kripto, Pesan Pribadi, dan Kredensial

Waduh, ini peringatan keras buat siapa pun yang lagi bereksperimen pakai AI asisten! Clawdbot, yang lagi viral karena kemampuannya yang canggih, ternyata punya celah keamanan yang cukup ngeri kalau nggak dikonfigurasi dengan benar.

Kenapa Clawdbot Jadi Sorotan Peneliti Keamanan?

Masalah utamanya adalah “pintu yang nggak dikunci”. Peneliti menemukan banyak pengguna Clawdbot yang server kontrolnya bisa diakses siapa saja di internet tanpa perlu password (autentikasi).

“Clawdbot Control” yang Terbuka Lebar

Baca Juga Injective ($INJ) Bakal Makin Langka Lewat Supply Squeeze

Bisa Menguras Kripto Wallet dalam 5 Menit

Ini poin yang paling gila. Karena Clawdbot punya akses penuh ke sistem komputer kamu (bisa baca file dan jalankan perintah), ada risiko Prompt Injection:

3Akses Shell yang “Pedas”

Berbeda dengan AI biasa, Clawdbot punya akses ke shell (perintah sistem). FAQ resminya bahkan mengakui kalau fitur ini sangat berisiko: “Menjalankan AI agent dengan shell access adalah sesuatu yang… pedas. Tidak ada konfigurasi yang benar-benar aman.”

Kalau kamu atau rekanmu ada yang menjalankan infrastruktur AI seperti ini, artikel tersebut menyarankan:


Intinya, secanggih apa pun AI-nya, kalau kita lalai soal keamanan dasarnya, data pribadi dan aset digital kita jadi taruhannya.

Exit mobile version