Di tengah lonjakan penggunaan kecerdasan buatan oleh generasi muda, Common Sense Media lembaga nirlaba yang dikenal luas atas komitmennya terhadap keselamatan anak di ranah digital baru saja merilis penilaian risiko terhadap produk AI Gemini milik Google.
Dikutip dari Techcrunch, Selasa (9/9/2025), laporan ini menjadi sorotan karena mengungkap sejumlah celah keamanan yang berpotensi membahayakan anak-anak dan remaja, meskipun Gemini telah dilengkapi dengan fitur pengaman dasar.
Dalam analisisnya, Common Sense menyoroti bahwa Gemini memang secara eksplisit memberi tahu anak-anak bahwa ia adalah komputer, bukan teman.
Langkah ini dinilai penting untuk mencegah terbentuknya ilusi hubungan emosional yang bisa memicu delusi atau bahkan psikosis, terutama pada pengguna yang secara mental lebih rentan.
Namun, di balik transparansi tersebut, organisasi ini menilai bahwa Gemini masih menyimpan risiko tersembunyi yang perlu segera ditangani.
Salah satu temuan utama adalah bahwa versi Gemini untuk anak-anak di bawah 13 tahun dan remaja tampak seperti versi dewasa yang hanya diberi lapisan keamanan tambahan.
Common Sense menekankan bahwa pendekatan ini tidak cukup. Produk AI yang ditujukan untuk anak-anak seharusnya dirancang dari awal dengan mempertimbangkan kebutuhan perkembangan dan psikologis mereka, bukan sekadar memodifikasi sistem yang dibuat untuk orang dewasa.
Lebih mengkhawatirkan lagi, Gemini dilaporkan masih dapat menyampaikan konten yang tidak pantas dan berisiko tinggi kepada anak-anak.
Informasi seputar seks, narkoba, alkohol, hingga saran kesehatan mental yang tidak aman ditemukan dalam pengujian, menunjukkan bahwa filter yang ada belum sepenuhnya efektif.
Dalam konteks ini, orang tua patut waspada, terutama karena AI telah dikaitkan dengan sejumlah kasus bunuh diri remaja dalam beberapa bulan terakhir.
Salah satu kasus yang paling mengguncang adalah gugatan terhadap OpenAI, menyusul kematian seorang remaja laki-laki berusia 16 tahun yang diduga berkonsultasi dengan ChatGPT selama berbulan-bulan tentang rencana bunuh dirinya. Tragedi ini terjadi setelah remaja tersebut berhasil melewati sistem pengaman chatbot.
Sebelumnya, Character.AI juga menghadapi gugatan serupa atas kematian seorang pengguna remaja, menandakan bahwa risiko ini bukanlah kasus terisolasi.
Penilaian Common Sense terhadap Gemini muncul di saat yang krusial, karena Apple dikabarkan tengah mempertimbangkan untuk mengintegrasikan Gemini sebagai model bahasa besar (LLM) dalam Siri versi AI yang akan dirilis tahun depan.
Jika kolaborasi ini terwujud tanpa perbaikan keamanan yang signifikan, maka jutaan remaja pengguna iPhone bisa terpapar risiko yang sama.
Common Sense juga menyoroti bahwa Gemini gagal memahami perbedaan kebutuhan antara pengguna muda dan dewasa. Anak-anak dan remaja membutuhkan pendekatan yang lebih personal dan edukatif, bukan sistem seragam yang mengabaikan tahap perkembangan mereka.
Karena itu, baik versi anak-anak maupun remaja dari Gemini diberi label “Risiko Tinggi” dalam penilaian keseluruhan, meskipun Google telah menambahkan filter keamanan.
Robbie Torney, Direktur Senior Program AI di Common Sense Media, menyatakan bahwa meskipun Gemini telah memenuhi beberapa standar dasar, platform ini masih kurang dalam hal detail dan personalisasi.
Menurutnya, AI yang dirancang untuk anak-anak harus benar-benar memahami kebutuhan mereka, bukan sekadar menjadi versi ringan dari produk dewasa. Pernyataan ini memperkuat urgensi untuk merancang AI yang benar-benar ramah anak, bukan hanya aman secara teknis.
Menanggapi laporan tersebut, Google membantah sebagian besar temuan dan menyatakan bahwa mereka terus meningkatkan fitur keselamatan. Perusahaan mengklaim telah menerapkan kebijakan khusus untuk pengguna di bawah 18 tahun, melakukan pengujian red-team, dan berkonsultasi dengan pakar eksternal guna memperkuat perlindungan.
Meski begitu, mereka mengakui bahwa beberapa respons Gemini belum berjalan sesuai harapan, sehingga perlindungan tambahan sedang dikembangkan.
Google juga menegaskan bahwa sistem mereka dirancang untuk mencegah chatbot terlibat dalam percakapan yang bisa menimbulkan kesan hubungan nyata. Mereka menyebut bahwa beberapa fitur yang dikritik oleh Common Sense sebenarnya tidak tersedia untuk pengguna di bawah 18 tahun.
Namun, Google juga mengungkap bahwa mereka tidak memiliki akses ke pertanyaan spesifik yang digunakan dalam pengujian, sehingga sulit untuk memverifikasi hasilnya secara menyeluruh.
Common Sense Media sendiri telah melakukan penilaian terhadap berbagai layanan AI lainnya. Dalam laporan sebelumnya, Meta AI dan Character.AI dinilai “tidak dapat diterima” karena tingkat risikonya sangat tinggi.
Perplexity berada di kategori risiko tinggi, ChatGPT dinilai sedang, sementara Claude yang ditujukan untuk pengguna dewasa mendapat label risiko minimal. Temuan ini memperlihatkan bahwa tantangan keamanan AI bukan hanya milik satu perusahaan, melainkan persoalan industri yang lebih luas.