DeepSeek Diduga Latih AI Pakai Output Google Gemini, Ini Tanggapan Komunitas AI

Deepseek

GadgetDIVA - Laboratorium kecerdasan buatan asal Tiongkok, DeepSeek, tengah menuai perhatian setelah meluncurkan model penalaran terbarunya, DeepSeek R1. Model ini sukses mencuri perhatian karena kemampuannya yang mengesankan dalam berbagai tes matematika dan pemrograman. Namun di balik pencapaian tersebut, muncul kontroversi serius: DeepSeek dituduh melatih modelnya menggunakan data dari Google Gemini—tanpa izin.

Kecurigaan ini pertama kali mencuat dari komunitas peneliti AI global. Salah satunya datang dari Sam Paech, seorang programmer asal Melbourne, Australia. Dalam unggahannya di platform X (dulu Twitter), Paech menyebut bahwa respons DeepSeek R1-0528 sangat mirip dengan gaya bahasa dan struktur jawaban Gemini 2.5 Pro. Ia bahkan menyatakan bahwa gaya penalaran DeepSeek tampak “hampir mencerminkan” Gemini.

Kekhawatiran serupa juga disampaikan oleh tim di balik proyek SpeechMap. Mereka mengamati adanya pola penalaran yang konsisten dengan model milik Google tersebut. Meskipun belum ditemukan bukti teknis yang mutlak, kemiripan ini cukup menggelitik rasa ingin tahu banyak pihak, terutama terkait bagaimana data pelatihan untuk DeepSeek R1 dikumpulkan.

Advertisement

Menariknya, ini bukan pertama kalinya DeepSeek terseret dalam kontroversi soal praktik pelatihan data. Pada Desember 2024, komunitas pengembang sempat menemukan bahwa model DeepSeek V3 beberapa kali menyebut dirinya sebagai ChatGPT. Hal ini mengindikasikan kemungkinan bahwa model tersebut dilatih dengan log dari model milik OpenAI.

Tak lama setelah temuan tersebut, laporan dari Financial Times dan Bloomberg mengungkap bahwa OpenAI dan Microsoft menemukan indikasi bahwa DeepSeek menggunakan teknik distilasi—yaitu proses pelatihan model baru dengan meniru output dari model AI besar seperti GPT atau Gemini. Bahkan lebih mengejutkan, Microsoft menyebut adanya dugaan kebocoran data dari akun pengembang OpenAI yang mungkin terhubung dengan DeepSeek.

Apa Itu Distilasi dan Mengapa Dipermasalahkan?

Teknik distilasi sebenarnya bukan hal baru di dunia AI. Banyak pengembang menggunakannya untuk membuat model yang lebih ringan namun tetap tangguh. Namun, perlu dicatat bahwa OpenAI secara tegas melarang penggunaan output dari model mereka sebagai sumber pelatihan untuk produk pesaing.

Advertisement

Masalahnya makin kompleks ketika mempertimbangkan kondisi data saat ini. Seiring makin maraknya konten AI di internet, data pelatihan kian berisiko tercampur konten buatan AI lain—terutama dari situs spam dan bot. Dalam konteks ini, mencari data yang benar-benar “murni” menjadi semakin sulit, dan praktik distilasi tanpa izin memperparah isu kontaminasi data.

Menurut Nathan Lambert, peneliti dari Allen Institute for AI (AI2), kemungkinan DeepSeek menggunakan Gemini sebagai salah satu sumber pelatihan memang tidak bisa diabaikan begitu saja. Ia menyebut bahwa jejak penalaran yang mirip adalah indikasi awal yang layak diselidiki lebih lanjut.

Etika dan Transparansi dalam Sorotan

Hingga artikel ini ditulis, pihak DeepSeek belum memberikan pernyataan resmi mengenai tudingan tersebut. Sikap diam ini pun menimbulkan spekulasi lanjutan di kalangan pengamat teknologi dan AI.

Advertisement

Kontroversi ini akhirnya membuka kembali diskusi mendalam mengenai etika, transparansi, dan kepemilikan data dalam pengembangan AI generatif. Di era di mana kecepatan inovasi melampaui regulasi, pertanyaan-pertanyaan tentang sumber data, lisensi, dan tanggung jawab moral menjadi semakin penting.

Beberapa pakar menyarankan perlunya kerangka hukum internasional yang tegas dalam mengatur penggunaan data pelatihan untuk model AI. Selain itu, penting juga bagi pengembang untuk terbuka mengenai metodologi pelatihan mereka, agar kepercayaan publik terhadap teknologi AI tidak tercoreng.

Kasus yang melibatkan DeepSeek ini bukan hanya soal dugaan pelanggaran teknis, tapi juga refleksi dari kompleksitas moral di balik kemajuan AI. Di tengah euforia kemajuan teknologi, publik pun mulai menuntut transparansi dan etika yang lebih kuat dari para pemain besar industri kecerdasan buatan.

Advertisement

Apakah DeepSeek bersalah atau tidak, hanya waktu dan investigasi lebih lanjut yang akan menjawabnya. Namun satu hal pasti: isu ini telah menjadi alarm bagi komunitas AI global untuk lebih hati-hati dalam menavigasi era AI generatif yang terus melaju tanpa henti.

Cek berita teknologi, review gadget dan video Gadgetdiva.id di Google News. Baca berita otomotif untuk perempuan di Otodiva.id, kalau butuh in-depth review gadget terkini kunjungi Gizmologi.id. Bagi yang suka jalan-jalan, wajib baca Traveldiva.id.