Dunia keamanan siber kembali diguncang oleh temuan mengejutkan yang melibatkan asisten kecerdasan buatan milik Google, Gemini. Dalam laporan eksklusif yang dipublikasikan oleh Wired, sekelompok peneliti berhasil mendemonstrasikan metode peretasan baru yang memanfaatkan injeksi perintah tidak langsung melalui Google Calendar.
Teknik ini memungkinkan peretas untuk mengendalikan perangkat rumah pintar yang terhubung ke ekosistem Google Home, hanya dengan menyisipkan perintah tersembunyi dalam undangan kalender.
Ketika pengguna meminta ringkasan jadwal mereka dan secara alami mengucapkan terima kasih kepada Gemini, sistem AI justru mengeksekusi perintah tersembunyi seperti membuka jendela atau mematikan lampu tanpa disadari oleh pengguna.
Dikutip dari Engadget, Kamis (7/8/2025), demonstrasi serangan ini dipresentasikan secara publik dalam konferensi keamanan siber bergengsi, Black Hat, dan langsung memicu diskusi serius di kalangan pakar teknologi. Namun, sebelum tampil di panggung internasional, tim peneliti telah lebih dulu melaporkan temuan mereka kepada Google pada Februari lalu.
Andy Wen, direktur senior manajemen produk keamanan di Google Workspace, mengonfirmasi bahwa perusahaan telah menerima laporan tersebut dan sedang bekerja keras untuk menanggulangi potensi ancaman yang ditimbulkan.
Dalam wawancaranya dengan Wired, Wen menyatakan bahwa jenis serangan seperti ini memang masih tergolong langka di dunia nyata. Namun, ia juga mengakui bahwa semakin canggihnya model bahasa besar seperti Gemini membuka celah baru bagi pelaku kejahatan siber untuk mengeksplorasi teknik eksploitasi yang lebih halus dan sulit dideteksi.
“Tantangan utama terletak pada bagaimana sistem AI merespons bahasa alami yang tampak tidak berbahaya, tetapi sebenarnya mengandung instruksi tersembunyi yang bisa dimanfaatkan untuk tujuan jahat,” kata Wen.
Google sendiri tidak tinggal diam. Perusahaan teknologi raksasa ini menanggapi laporan tersebut dengan sangat serius dan langsung mengerahkan tim internal untuk mempercepat pengembangan alat deteksi dan pencegahan yang lebih tangguh. Tujuannya adalah menciptakan sistem yang mampu mengenali dan memblokir perintah berbahaya, bahkan jika disamarkan dalam konteks yang tampak wajar.
Wen menambahkan bahwa Google berharap bisa mencapai titik di mana pengguna tidak perlu khawatir terhadap serangan semacam ini, meskipun ia mengakui bahwa tantangan tersebut tidak akan hilang dalam waktu dekat.
Temuan ini menjadi pengingat penting bahwa di balik kemudahan dan kecanggihan teknologi AI, terdapat risiko keamanan yang tidak boleh diabaikan. Integrasi antara asisten AI dan perangkat rumah pintar memang menawarkan kenyamanan luar biasa, tetapi juga membuka pintu bagi potensi eksploitasi jika sistem tidak dirancang dengan lapisan keamanan yang memadai.
Dalam era di mana interaksi manusia dengan AI semakin natural dan kontekstual, pendekatan keamanan pun harus berevolusi bukan hanya mengandalkan proteksi teknis, tetapi juga memahami bagaimana bahasa bisa dimanipulasi untuk tujuan yang tidak diinginkan.
Dengan meningkatnya adopsi AI dalam kehidupan sehari-hari, dari rumah pintar hingga layanan bisnis, isu keamanan seperti ini akan semakin relevan. Google Gemini mungkin hanya satu contoh, tetapi kasus ini membuka mata industri terhadap pentingnya membangun AI yang tidak hanya cerdas, tetapi juga aman dan tahan terhadap manipulasi linguistik.
Ke depan, kolaborasi antara peneliti independen dan perusahaan teknologi besar akan menjadi kunci dalam menciptakan ekosistem AI yang benar-benar bisa dipercaya.