Çinli yapay zeka geliştiricisi DeepSeek’in son modeli Google Gemini verileriyle mi eğitildi?

Uzmanlar, DeepSeek Yapay Zeka Modelinin Google’ın Gemini Verilerinden Eğitildiğine Dair İddiaları Araştırıyor

Yapay zeka uzmanları ve geliştiriciler, son olarak Çinli laboratuvar DeepSeek tarafından yayınlanan R1 akıl yürütme yapay zeka modelinin eğitim verilerinin bir kısmının Google’ın Gemini yapay zeka ailesinden geldiğine dair şüphelerini dile getiriyor.

Geçtiğimiz hafta piyasaya sürülen bu güncellenmiş model, matematik ve kodlama kriterlerinde oldukça yüksek performans sergiledi. Ancak modelin eğitiminde kullanılan veri kaynağı hakkında şirketten net bir açıklama gelmedi. Bazı yapay zeka araştırmacıları, verilerin en azından bir bölümünün Google’ın Gemini yapay zeka ailesine ait olabileceğini speküle ediyor.

Melbourne merkezli yapay zeka geliştiricisi Sam Paech, DeepSeek’in son modelinin Google’ın Gemini verilerinden eğitildiğini iddia ediyor. Paech, modelin tercih ettiği kelime ve ifadelerin, Gemini 2.5 Pro’nun benzer ifadelerine dayandığını belirtiyor.

Bu iddialar kesin bir kanıt niteliği taşımıyor olsa da SpeechMap adlı “duygusal zeka” değerlendirme aracını oluşturan bir başka geliştirici, DeepSeek modelinin “Gemini izleri gibi okunduğunu” ifade ediyor.

DeepSeek’in Geçmişteki Veri Kullanımı Tartışmaları

DeepSeek, daha önce de rakip yapay zeka modellerinden veri toplamakla suçlanmıştı. Geliştiriciler, V3 modelinin OpenAI’ın ChatGPT isimli sohbet botu platformu üzerinde eğitilmiş olabileceğini gözlemlemişti.

Aralık ayında, OpenAI ile ilişkilendirilen Microsoft, büyük miktarda verinin sızdırıldığını tespit etti ve bu verilerin DeepSeek ile ilişkilendirilmesi üzerine soruşturma başlatıldı. Bu durum, yapay zeka modellerinin eğitiminde “distilasyon” yönteminin kullanılmasıyla bağlantılıydı.

Buna rağmen, OpenAI’nin hizmet koşulları, müşterilerin rakip yapay zeka oluşturmak için şirketin model çıktılarını kullanmasını yasaklıyor.

Veri Kirliliği ve Yapay Zeka Şirketlerinden Alınan Önlemler

Yapay zeka şirketleri, artan veri kirliliği ve distilasyon yöntemi ile eğitim verilerine ulaşma sorunlarıyla mücadele etmek için güvenlik önlemlerini artırıyor.

OpenAI’nin belirli gelişmiş modellere erişimine kimlik doğrulama süreci koyarak güvenliği sağlamaya çalışması, yapay zeka alanında yeni bir dönemi başlatabilir. Aynı şekilde Google ve Anthropic gibi şirketler, model izlerini koruma altına almak için çeşitli önlemler almaya başladı.

Yapay zeka alanındaki gelişmeleri yakından takip etmeye devam edeceğiz. Haberimizi güncellemelerle sizlere aktarmaya devam edeceğiz.

Related Posts

Bayburtlu öğrencilerden görme engelliler için yapay zeka destekli robot köpek

Bayburt’ta görme engellilerin günlük hayatta yaşadığı zorlukları azaltmak isteyen lise öğrencileri, “Görevbot” adını verdikleri yapay zeka destekli robot köpek yaptı.

Tesla satışları alarm veriyor: Almanya, Norveç ve Çin’de sert düşüşler yaşanıyor

CEO Elon Musk’ın eylem ve açıklamalarının da bu düşüşte etkili olduğu belirtiliyor. Son yıllarda satış listelerinin zirvesinde yer alan Tesla, 2025 yılında küresel çapta önemli bir satış kriziyle mücadele ediyor. Şirketin CEO’su Elon Musk’ın …

Uzmanlar uyarıyor: Venüs’ün asteroidleri Dünya’ya çarpabilir

Uzay boşluğunda sürüklenmeye devam eden ve Venüs ile aynı yörüngeyi paylaşan asteroidler, Dünya’yı tehdit edebilir.

Dünyanın ilk insansı robot boksu Çin’de yapıldı: Çelik yumruklar havada uçtu

Robot boksu sırasında düz yumruklar, kanca yumruklar, yan ve aparkat vuruşlar sergilendi. Robotlar düştükten sonra yerden bile kalktı.

Gece görüş gözlüğü tarih mi oluyor? Kızılötesi gören lens geliştirildi

Gece görüş gözlüğü tarih mi oluyor? Kızılötesi gören lens geliştirildi

Yapay zekanın babası ChatGPT’nin her zaman yanlış yanıtladığı soruyu açıkladı: Hala hata yapmalarına şaşırıyorum

Yapay zekanın gelişimine yön veren önemli isimlerden biri olan Geoffrey Hinton, OpenAI’nin en gelişmiş modellerinden biri olan ChatGPT’nin hala temel mantık sorularında hata yapmasına şaşırdığını dile getirdi.