DeepSeek, operasyonel maliyetleri düşürmek gayesiyle yapay zeka modellerinin gereksinim duyduğu eğitimi azaltmak için Tsinghua Üniversitesi ile birlikte çalışıyor.
Ocak ayında ortaya çıkan düşük maliyetli muhakeme modeliyle piyasaları sarsan Çinli teşebbüs, modelleri daha verimli hale getirmek için pekiştirmeli öğrenmeye yeni bir yaklaşımı ayrıntılandıran bir makale üzerinde Pekin’deki kurumdan araştırmacılarla işbirliği yaptı.
Araştırmacılar, yeni tekniğin, daha hakikat ve anlaşılır karşılıklar için mükafatlar sunarak yapay zeka modellerinin insan tercihlerine daha yeterli uymasına yardımcı olmayı amaçlandığını söyledi. Destekli öğrenmenin dar uygulama ve alanlarda yapay zeka misyonlarını hızlandırmada tesirli olduğu kanıtlandı. Fakat, bunu daha genel uygulamalara genişletmenin sıkıntı olduğu kanıtlanmış ve DeepSeek takımının kendi kendine prensipli tenkit ayarı ismini verdiği bir şeyle çözmeye çalıştığı sorun ortaya çıktı. Makaleye nazaran strateji, çeşitli kıyaslamalarda mevcut formül ve modellerden daha yeterli performans gösterdi ve sonuç, daha az bilgi süreç kaynağıyla daha yeterli performans gösterdi.
Şirket, DeepSeek’in bu yeni modellere “genelci ödül modellemesi ”nin kısaltması olan DeepSeek-GRM ismini verdiğini ve bunları açık kaynak olarak yayınlayacağını söyledi. Çinli teknoloji devi Alibaba Group Holding Ltd. ve San Francisco merkezli OpenAI dahil olmak üzere öteki yapay zeka geliştiricileri de, bir yapay zeka modeli gerçek vakitli olarak vazifeleri yerine getirirken muhakeme ve kendi kendini düzeltme yeteneklerini geliştirmenin yeni bir sonunu zorluyor.
Menlo Park, California merkezli Meta Platforms hafta sonu en yeni yapay zeka modelleri ailesi olan Llama 4’ü piyasaya sürdü ve bu modelleri Uzmanların Karışımı (MoE) mimarisini kullanan birinci model olarak işaretledi. DeepSeek’in modelleri, kaynakları daha verimli kullanmak için MoE’ye değerli ölçüde güveniyor ve Meta yeni sürümünü Hangzhou merkezli startup ile kıyasladı. DeepSeek bir sonraki amiral gemisi modelini ne vakit piyasaya süreceğini belirtmedi.

