Risiko keamanan dari model AI DeepSeek R1 kembali menjadi perhatian publik setelah sebuah penelitian oleh Cisco dan Robust Intelligence, yang bekerja sama dengan akademisi dari University of Pennsylvania, mengungkapkan bahwa model ini sangat rentan terhadap penyebaran informasi berbahaya. Meskipun DeepSeek R1 mendapatkan pujian atas performa teknologinya, temuan penelitian tersebut menunjukkan bahwa model ini gagal dalam membendung informasi sensitif dengan tingkat keberhasilan mencapai 100%.
Penelitian yang dipublikasikan pada akhir Januari 2025 ini, menggunakan metode pengujian algoritmik bernama jailbreaking, memberikan sekitar 50 perintah acak kepada enam model AI populer, termasuk DeepSeek R1. Data dari HarmBench benchmark mengungkapkan bahwa model ini menunjukkan perilaku berbahaya dalam mengakses informasi sensitif yang berkaitan dengan kejahatan siber, kimia dan biologi berbahaya, misinformasi, aktivitas ilegal, dan perundungan.
Paul Kassianik dan Amin Karbasi, perwakilan peneliti dari Robust Intelligence, menyatakan bahwa selama pengembangan, DeepSeek R1 dilatih dengan anggaran lebih kecil dibandingkan dengan penyedia model AI populer lainnya. “Namun, tampaknya terdapat konsekuensi serius terkait dengan hal tersebut,” ungkap mereka dalam laporan itu. Hal ini menunjukkan bahwa meskipun hemat biaya, pendekatan pengembangan yang minim anggaran dapat mengorbankan keamanan dan keselamatan informasi.
Adapun hasil penelitian menunjukkan bahwa tingkat keberhasilan DeepSeek R1 dalam menjawab perintah terkait isu-isu sensitif mencapai 100% di semua kategori. Hal ini menempatkannya sebagai yang paling rentan dibandingkan dengan model AI lainnya, seperti Llama 3.1 405B dan GPT 4o yang masing-masing memiliki tingkat serangan berhasil (attack success rate/ASR) 96% dan 86%. Sementara itu, model yang lebih aman seperti Gemini 1.5 Pro dan Claude 3.5 Sonnet memiliki tingkat ASR masing-masing 64% dan 36%, dengan OpenAI o1 menjadi yang terbaik dengan 26%.
Hasil ini menggambarkan kontras yang mencolok antara DeepSeek R1 dan sejumlah model AI terkenal lainnya, seperti OpenAI o1, yang mampu memblokir sebagian besar serangan pada semua kategori tertentu. “Walau demikian, DeepSeek R1 masih memiliki kemampuan penalaran tingkat tinggi dan bisa bersaing dengan model-model canggih, berkat strategi pelatihan yang efisien,” tambah laporan Cisco.
CEO Anthropic, Dario Amodei, juga memberikan perhatian serius terhadap masalah ini setelah melakukan uji keamanan model AI terhadap informasi terkait senjata biologis. Menurutnya, DeepSeek R1 menempati peringkat terburuk dalam kemampuannya membendung informasi sensitif yang berpotensi membahayakan. Dalam kutipannya, Dario mengakui bahwa meskipun dihadapkan pada risiko yang signifikan, ekosistem pengembangan DeepSeek telah menunjukkan kemampuan yang mengesankan dengan dana pengembangan yang rendah.
Kekhawatiran global terhadap model DeepSeek R1 ini telah menyebabkan beberapa negara untuk memblokir akses terhadap teknologi besutan pengembang AI asal China tersebut. Setelah Amerika Serikat, Italia, Irlandia, dan Korea Selatan, baru-baru ini Australia juga memutuskan untuk memblokir DeepSeek. Langkah ini mencerminkan kesadaran akan risiko keamanan nasional yang dapat ditimbulkan oleh penyebaran informasi berbahaya melalui model AI yang tidak dapat membendung isu sensitif.
Dengan semakin banyaknya laporan dan penemuan yang mengungkapkan kerentanan tersebut, para ilmuwan dan pengembang di seluruh dunia diingatkan untuk berfokus pada keamanan AI dan pemanfaatan teknologi yang bertanggung jawab. Tindakan preventif menjadi perhatian utama agar potensi bahaya dari penyebaran informasi berbahaya melalui AI dapat dicegah. Keterlibatan berbagai pihak, termasuk pemerintah dan lembaga penelitian, dalam meneliti dan menanggapi isu ini menjadi semakin penting, guna memastikan bahwa pengembangan AI tidak hanya mengutamakan inovasi, tetapi juga adalah aman bagi masyarakat luas.