telkomsel halo

LLM berbahaya, picu serangan siber AI di Indonesia

07:17:00 | 17 Jan 2026
LLM berbahaya, picu serangan siber AI di Indonesia
JAKARTA (IndoTelko) - Riset terbaru Palo Alto Networks Unit 42 menyoroti meningkatnya risiko keamanan siber seiring meluasnya pemanfaatan kecerdasan buatan (artificial intelligence/AI). Di balik adopsi model bahasa besar (large language models/LLMs) seperti ChatGPT dan Google Gemini oleh pelaku usaha maupun layanan publik, tersimpan potensi penyalahgunaan untuk mengotomatisasi phishing, penipuan digital, hingga pengembangan malware dalam skala besar.

Ancaman ini dinilai kian relevan bagi Indonesia. Tingginya penggunaan aplikasi pesan instan, platform e-commerce, serta layanan publik berbasis digital membuat masyarakat menjadi target empuk serangan siber berbasis AI. Sejumlah temuan sebelumnya mengungkap maraknya aplikasi ChatGPT palsu yang disusupi malware dan digunakan dalam kampanye phishing. Indikator dari Tim Tanggap Insiden Keamanan Siber Nasional (CSIRT) juga menunjukkan kemunculan pola ancaman baru bergaya agen AI, termasuk phishing yang semakin canggih dan berpotensi mencuri data pribadi serta kredensial keuangan.

Dalam laporan bertajuk The Dual-Use Dilemma of AI: Malicious LLMs, Unit 42 mengungkap keberadaan LLM berbahaya atau “dark LLMs” seperti WormGPT, FraudGPT, dan KawaiiGPT. Model-model AI tanpa pengaman ini diketahui diperdagangkan secara terbuka melalui Telegram dan forum dark web. Keberadaannya dinilai memangkas hambatan teknis dan waktu yang sebelumnya membatasi pelaku kejahatan siber, sehingga serangan dapat dilakukan lebih cepat, masif, dan terarah.

Unit 42 mengidentifikasi setidaknya tiga dampak utama LLM berbahaya terhadap lanskap kejahatan siber di Indonesia. Pertama, kemampuan AI menghasilkan bahasa yang presisi memungkinkan pelaku menciptakan pesan phishing dan penipuan email bisnis yang sangat meyakinkan, termasuk meniru gaya komunikasi pimpinan perusahaan, lembaga keuangan, maupun instansi pemerintah.

Kedua, teknologi ini mendorong komersialisasi kejahatan siber dengan memudahkan pembuatan malware, phishing kit, hingga skrip pencurian data secara instan, yang sebelumnya hanya dapat dilakukan oleh pelaku dengan kemampuan teknis tinggi.

Ketiga, hilangnya hambatan teknis membuat kejahatan siber semakin “terdemokratisasi”. Pelaku dengan kemampuan rendah kini dapat menjalankan penipuan dan pemerasan digital secara cepat dan berulang, menjadikan kejahatan siber sebagai operasi yang murah dan terindustrialisasi. Sebagai ilustrasi, WormGPT disebut mampu menghasilkan konten penipuan dalam Bahasa Indonesia yang fasih dan kontekstual, sehingga serangan social engineering melalui email maupun aplikasi pesan menjadi semakin sulit dikenali.

Unit 42 menilai, pemanfaatan AI tingkat lanjut oleh pelaku ancaman siber mendorong percepatan aktivitas berbahaya di ruang digital. Karena itu, pembuat kebijakan didorong untuk menetapkan standar dan kerangka kerja yang mengatur proliferasi model AI berisiko, termasuk kewajiban penerapan praktik keamanan terbaik seperti audit keamanan secara berkala.

GCG BUMN
Sejalan dengan penyusunan peta jalan AI nasional, Unit 42 menegaskan bahwa fokus utama bukanlah membatasi penggunaan AI, melainkan memperkuat ketahanan keamanan siber terhadap serangan berbasis AI yang bergerak cepat dan berskala besar. Pendekatan prevention-first, dengan mengintegrasikan praktik AI yang aman ke dalam tata kelola dan strategi pertahanan, dinilai krusial agar Indonesia dapat memaksimalkan manfaat inovasi AI tanpa meningkatkan paparan risiko digital. Kolaborasi erat antara pemerintah, regulator, dan sektor swasta pun menjadi kunci untuk memastikan praktik AI yang aman tertanam dalam kerangka tata kelola nasional. (mas)

Artikel Terkait
Rekomendasi
Berita Pilihan
More Stories