Di tengah perkembangan pesat teknologi kecerdasan buatan (AI), muncul kekhawatiran baru yang tak bisa diabaikan yaitu Dark AI.
Kaspersky, perusahaan keamanan siber global, memperingatkan bahwa teknologi ini kini dimanfaatkan oleh kelompok Advanced Persistent Threat (APT) dan aktor negara untuk meluncurkan serangan digital yang makin sulit dilacak dan diatasi.
Kaspersky ungkap ancaman baru dari kecerdasan buatan gelap yang dimanfaatkan aktor negara dan kelompok kriminal siber di Asia Pasifik.
Baca juga: Hati-Hati! Serangan Siber Menyamar Jadi ChatGPT, UMKM Jadi Target Utama
Apa Itu Dark AI?
Dark AI merujuk pada penggunaan model AI secara ilegal, tidak etis, atau tanpa pengawasan, seperti LLM (Large Language Models) yang dimodifikasi untuk tujuan jahat.
Tidak seperti AI pada umumnya yang dilatih dalam lingkungan yang aman dan terkendali, Dark AI beroperasi tanpa batasan keamanan, compliance, atau etika.
Model seperti Black Hat GPT, WormGPT, FraudGPT, dan DarkBard menjadi contoh nyata dari gelombang AI generatif berbahaya ini.
Mereka mampu membuat kode berbahaya, menulis email phishing yang sangat meyakinkan, memproduksi deepfake suara dan video, hingga membantu operasi siber tingkat tinggi.
AI Menjadi Senjata Baru Bagi APT
Menurut Sergey Lozhkin, Head of GReAT (Global Research and Analysis Team) untuk wilayah META dan Asia Pasifik di Kaspersky, sejak AI generatif seperti ChatGPT populer pada 2023, para penjahat siber telah mulai menyempurnakan teknik serangannya.
“AI saat ini ibarat pedang bermata dua. Ia bisa menjadi pelindung, tapi juga senjata mematikan jika jatuh ke tangan yang salah,” ujar Lozhkin.
Ia menambahkan bahwa APT kini mulai memanfaatkan LLM dalam operasi sibernya, termasuk dalam aktivitas spionase dan manipulasi opini publik.
Sebagai informasi, laporan terbaru OpenAI mengungkap bahwa lebih dari 20 operasi spionase digital telah mencoba menyalahgunakan platform mereka.
Pelaku menggunakan AI untuk menciptakan persona palsu, menulis konten multibahasa, dan merespons target secara real-time, menjadikan deteksi dan pencegahan makin sulit dilakukan.
Beberapa skenario serangan yang melibatkan Dark AI:
- Phishing email yang sangat persuasif dan sulit dibedakan dari email asli.
- Deepfake video tokoh publik untuk menyebarkan informasi palsu.
- AI yang menyamar sebagai customer service untuk mencuri data login.
- Pembuatan malware otomatis berbasis prompt AI.
Baca juga: Multitasking ala Gen Z Hadirkan Ancaman Siber, Kok Bisa?
Asia Pasifik Jadi Target Strategis
Wilayah Asia Pasifik diprediksi akan menjadi salah satu target utama dari gelombang baru serangan ini.
Faktor seperti pertumbuhan digital yang cepat, tingginya adopsi teknologi baru, serta kompleksitas geopolitik membuat wilayah ini rentan.
Organisasi dan bisnis di kawasan ini harus mulai menganggap Dark AI sebagai bagian dari risiko strategis dan segera mengimplementasikan langkah pertahanan yang lebih kuat.
Untuk melindungi diri dari ancaman Dark AI, Kaspersky menyarankan beberapa strategi berikut:
- Gunakan solusi keamanan generasi terbaru seperti Kaspersky Next untuk mendeteksi malware dan ancaman AI di seluruh rantai pasokan.
- Manfaatkan Threat Intelligence secara real-time guna memantau potensi eksploitasi berbasis AI.
- Edukasi karyawan dan batasi kontrol akses, agar tidak terjadi kebocoran data melalui AI bayangan (shadow AI).
- Bangun Security Operation Center (SOC) untuk pemantauan dan respons cepat terhadap insiden siber.
AI tidak punya moral bawaan, ia hanya mengikuti perintah. Ketika teknologi ini disalahgunakan, dampaknya bisa jauh lebih merusak dibandingkan metode konvensional.
Dunia kini berada di persimpangan jalan: memanfaatkan AI untuk pertahanan atau membiarkan Dark AI berkembang menjadi senjata pemusnah digital.
