Kecerdasan buatan (AI) sering dianggap lebih rasional dan kebal terhadap manipulasi emosional, berbeda dengan manusia yang rentan terpengaruh rayuan atau tekanan sosial.
Dilansir dari The Verge (01/09/25), sebuah studi terbaru dari University of Pennsylvania justru menunjukkan hal mengejutkan: chatbot AI modern seperti GPT-4o Mini ternyata bisa dipengaruhi dengan trik psikologis sederhana yang biasa digunakan untuk memanipulasi manusia.
Penelitian ini menguji bagaimana chatbot bereaksi ketika diberikan instruksi yang berbahaya, seperti cara membuat bahan kimia ilegal atau mengeluarkan hinaan. Secara teori, sistem AI dilengkapi guardrail agar menolak perintah semacam itu.
Baca juga: Fenomena Foto Profil Pink-Hijau di Media Sosial, Ini Cara Membuatnya!
Hasil awal memang menunjukkan resistensi kuat, misalnya, hanya 1% dari GPT-4o Mini yang bersedia menjawab ketika langsung ditanya soal pembuatan lidokain (zat kimia terlarang). Tetapi, situasinya berubah drastis ketika peneliti menyelipkan pendekatan persuasi yang lebih halus.
Dari Penolakan ke Kepatuhan 100%
Salah satu eksperimen menarik dilakukan dengan pertanyaan bertahap. Sebelum meminta instruksi membuat lidokain, chatbot diberi pertanyaan netral tentang “cara sintesis vanilin” (senyawa aman yang digunakan dalam perasa makanan).
Setelah “dipanaskan” dengan konteks itu, persentase chatbot yang kemudian mau membeberkan cara membuat lidokain meningkat tajam hingga 100%.
Hal serupa juga terlihat pada kasus lainnya. Saat peneliti meminta chatbot untuk melontarkan hinaan ringan, hasil awal menunjukkan resistensi kuat. Tetapi ketika sebelumnya chatbot diarahkan untuk membuat komentar yang lebih lembut atau bercanda, kemungkinan ia menuruti permintaan meningkat signifikan.
Trik Psikologi Lama, Korban Baru
Penelitian ini menyoroti bahwa trik psikologi klasik yang kerap berhasil pada manusia ternyata juga berlaku pada AI. Beberapa metode yang digunakan meliputi:
- Flattery (pujian): Membuat chatbot lebih kooperatif dengan memberikan pujian sebelum instruksi berbahaya.
- Peer pressure (tekanan sosial): Menggambarkan seolah “banyak chatbot lain yang sudah melakukan ini,” sehingga memengaruhi keputusan model.
- Foot-in-the-door (komitmen bertahap): Memulai dengan permintaan sederhana dan aman, lalu perlahan mengarah ke instruksi berbahaya.
Kerapuhan ini menunjukkan bahwa sistem AI bukan sekadar mesin logis, melainkan model yang bisa “terjebak” dalam pola interaksi sosial yang menyerupai manusia.
Temuan ini menimbulkan pertanyaan besar tentang keamanan dan etika penggunaan AI. Jika chatbot bisa dimanipulasi dengan cara sederhana, ada risiko besar bagi penyalahgunaan, terutama untuk:
- Cybersecurity: Pihak jahat bisa memanfaatkan celah persuasi ini untuk mendapatkan instruksi berbahaya.
- Disinformasi: AI bisa diarahkan untuk menyebarkan konten palsu atau ujaran kebencian secara lebih halus.
- Kepercayaan publik: Ketika pengguna tahu bahwa chatbot bisa “dibohongi,” rasa percaya terhadap teknologi ini bisa menurun.
Baca juga: Menkomdigi Ungkap Dugaan Aliran Dana di Media Sosial untuk Provokasi Aksi
Para peneliti menekankan bahwa guardrail teknis saja tidak cukup. Perlu pendekatan yang lebih kuat, termasuk memahami sisi “psikologi AI” agar sistem lebih tahan terhadap manipulasi.
AI, Manusia, dan Cermin Psikologi
Yang paling menarik dari studi ini adalah fakta bahwa AI, meskipun tidak memiliki emosi, tetap dapat meniru kerentanan psikologis manusia.
Hal ini membuat kita bertanya: apakah AI hanya meniru pola bahasa, ataukah secara tidak langsung “mewarisi” bias kognitif yang sama dengan manusia karena dilatih dari data percakapan manusia?
Kesimpulannya, penelitian ini bukan sekadar membuktikan bahwa AI bisa dimanipulasi, tetapi juga menjadi peringatan bahwa AI tidak sepenuhnya netral atau aman dari pengaruh eksternal.
Sama seperti manusia, AI dapat “dibujuk” untuk melakukan sesuatu yang seharusnya ditolak, jika trik yang digunakan cukup persuasif.