Di tengah lanskap teknologi yang semakin kompetitif, dua raksasa kecerdasan buatan OpenAI dan Anthropic mengambil langkah yang jarang terjadi: bekerja sama. Dalam dunia AI yang sering dipenuhi rivalitas dan perlombaan menuju supremasi model, kolaborasi ini menjadi angin segar.
Kedua perusahaan sepakat untuk saling mengevaluasi sistem publik masing-masing dan membagikan hasil analisis mereka secara terbuka. Meski laporan lengkapnya bersifat teknis, temuan ini layak disimak oleh siapa pun yang mengikuti perkembangan etika dan keamanan AI.
Dikutip dari Engadget, Kamis (28/8/2025), langkah ini bukan sekadar formalitas. Anthropic menyoroti sejumlah potensi risiko dalam model OpenAI, termasuk kecenderungan untuk memberikan respons yang menjilat, mengungkap informasi sensitif, serta mendukung perilaku berbahaya.
Evaluasi mereka juga mengidentifikasi kemampuan model GPT-4o dan GPT-4.1 yang bisa dimanfaatkan untuk melemahkan sistem pengawasan keamanan. Meski model o3 dan o4-mini menunjukkan hasil yang sejalan dengan standar internal Anthropic, kekhawatiran tetap muncul terkait potensi penyalahgunaan dalam skenario dunia nyata.
Namun, penting untuk dicatat bahwa pengujian Anthropic belum mencakup rilisan terbaru dari OpenAI, yakni GPT-5. Model ini dilengkapi dengan fitur “Penyelesaian Aman” sebuah sistem proteksi yang dirancang untuk mencegah respons terhadap kueri berbahaya.
Fitur ini menjadi sorotan setelah OpenAI menghadapi gugatan hukum pertama terkait kematian tragis seorang remaja yang sempat berdiskusi tentang rencana bunuh diri dengan ChatGPT selama berbulan-bulan. Kasus ini membuka diskusi luas tentang tanggung jawab sosial dan etika dalam pengembangan AI publik.
Di sisi lain, OpenAI juga melakukan evaluasi terhadap model milik Anthropic, khususnya Claude. Fokus pengujian mencakup hierarki instruksi, jailbreaking, halusinasi, dan skema manipulatif.
Hasilnya cukup positif: model Claude menunjukkan performa yang solid dalam mengikuti hierarki instruksi dan memiliki tingkat penolakan tinggi terhadap pertanyaan yang berisiko menghasilkan jawaban keliru. Ini menunjukkan bahwa Claude memiliki mekanisme pertahanan yang cukup kuat dalam menghadapi ketidakpastian dan potensi penyalahgunaan.
Menariknya, kolaborasi ini terjadi di tengah ketegangan yang sempat muncul antara kedua perusahaan. OpenAI diduga melanggar ketentuan layanan Anthropic dengan menggunakan model Claude dalam proses pengembangan GPT terbaru. Akibatnya, Anthropic sempat membatasi akses OpenAI ke perangkatnya.
Meski demikian, langkah untuk melakukan penilaian bersama menunjukkan bahwa isu keamanan AI kini menjadi prioritas yang melampaui batas-batas korporasi.
Di tengah meningkatnya tekanan dari regulator dan pakar hukum, terutama terkait perlindungan anak di bawah umur, transparansi dan kolaborasi seperti ini menjadi kunci untuk membangun masa depan AI yang lebih aman dan bertanggung jawab.
Kolaborasi antara OpenAI dan Anthropic bukan hanya soal teknis, tetapi juga soal etika dan keberanian untuk membuka diri terhadap kritik. Di era di mana AI semakin meresap ke dalam kehidupan sehari-hari, langkah ini bisa menjadi preseden penting bagi perusahaan teknologi lain untuk mengedepankan keamanan dan tanggung jawab sosial.
Dunia sedang menyaksikan bagaimana dua pemain besar AI mencoba menjawab pertanyaan paling mendesak: bagaimana menciptakan teknologi yang cerdas, aman, dan manusiawi?