;
Arama

OpenAI, Anthropic ve Google Çin’e karşı güçlerini birleştiriyor

Rakip yapay zeka şirketleri OpenAI, Anthropic ve Google ABD yapay zeka modellerinden sonuçlar elde eden Çinli rakiplere karşı önlem almak için işbirliği yapıyor. Şirketler, hizmet şartlarını ihlal eden girişimleri tespit etmek amacıyla Frontier Model Forum aracılığıyla bilgi paylaşıyor.

07 Nisan 2026, 10:11

Rakip olan OpenAI, Anthropic ve Alphabet’’in Google’ı, küresel yapay zeka yarışında avantaj elde etmek amacıyla Çinli rakiplerin en gelişmiş ABD yapay zeka modellerini kopyalamasını engellemeye çalışmak için birlikte çalışmaya başladı. Bloomberg’e konuşan kaynaklara göre 2023’te Microsoft ile birlikte kurdukları kâr amacı gütmeyen kuruluşu Frontier Model Forum aracılığıyla bilgi paylaşımı yaparak, hizmet şartlarını ihlal eden sözde girişimleri tespit etmeye çalışıyor.

Bu nadir görülen işbirliği, ABD’li yapay zeka şirketlerinin dile getirdiği endişenin ciddiyetini ortaya koyuyor: Bazı kullanıcılar, özellikle Çin’de ürünlerinin taklit versiyonlarını oluşturarak daha düşük fiyatlarla rekabet edebilir, müşteri çekebilir ve aynı zamanda ulusal güvenlik riski oluşturabilir. Bulgulara aşina ve isminin açıklanmasını istemeyen bir kişiye göre ABD’li yetkililer izinsiz model damıtma işleminin Silikon Vadisi laboratuvarlarına yılda milyarlarca dolar kâr kaybına mal olduğunu tahmin ediyor. OpenAI, Frontier Model Forum aracılığıyla damıtma konusunda bilgi paylaşım çabasının bir parçası olduğunu doğruladı ve bu uygulamaya ilişkin olarak ABD kongresine gönderdiği yakın tarihli bir notta Çinli DeepSeek şirketini “OpenAI ve diğer ABD öncü laboratuvarlarının geliştirdiği yeteneklerden bedavaya faydalanmaya çalışmakla” suçladı. 

Damıtma işlemi, eski bir yapay zeka modelinin, daha yeni bir modeli eğitmek için kullanıldığı tekniğe verilen bir ad. Yeni model, önceki sistemin yeteneklerini çoğaltır ve bunu genellikle sıfırdan bir model geliştirmeye kıyasla çok daha düşük maliyetle gerçekleştirir. Damıtmanın bazı türleri yaygın olarak kabul edilir ve hatta teşvik edilir. Örneğin şirketlerin kendi modellerinin daha küçük ve verimli versiyonlarını üretmesi veya dış geliştiricilere rekabetçi olmayan teknolojiler geliştirmeleri için damıtma kullanımına izin vermesi gibi.

Güvenlik önlemleri olmadan kullanılabilir

Ancak damıtma, üçüncü taraflar tarafından, özellikle Çin veya Rusya gibi ABD’ye rakip ülkelerde, yetkisiz şekilde özel çalışmaların kopyalanması için kullanıldığında tartışmalı hale geliyor. Önde gelen ABD yapay zeka laboratuvarları, yabancı rakiplerin bu teknikle güvenlik önlemlerinden arındırılmış yapay zeka modelleri geliştirebileceği konusunda uyarıyor. Çinli laboratuvarlar tarafından üretilen modellerin çoğunun bazı bölümleri kamuya açık ve kullanıcılar tarafından serbestçe indirilebilir ve kendi platformlarında çalıştırılabilir.  Bu da kullanım maliyetini düşürüyor. Bu durum, modellerini özel tutan ABD’li yapay zeka şirketleri için ekonomik bir zorluk da oluşturuyor çünkü bu şirketler, müşterilerin ürünlerine erişim için ödeme yapacağına ve veri merkezleri ile diğer altyapılara harcadıkları yüz milyarlarca doları karşılamaya yardımcı olacağına güveniyor.

Damıtma, Ocak 2025’te DeepSeek’in yapay zeka dünyasında büyük yankı uyandıran R1 akıl yürütme modelini sürmesinin ardından yoğun inceleme altına girdi. Kısa süre sonra Microsoft ve OpenAI, Çinli girişimin R1’i oluşturmak için ABD şirketinin modellerinden büyük miktarda veriyi uygunsuz şekilde dışarı çıkarıp çıkarmadığını araştırdı. Şubat ayında OpenAI, ürünlerinin kötüye kullanımını önlemeye yönelik çabalar artmasına rağmen DeepSeek’in ABD modellerinden sonuç çıkarmak için giderek daha sofistike yöntemler kullandığı konusunda ABD’li yasa yapıcıları uyardı. OpenAI, Temsilciler Meclisi Çin Seçme Komitesi’ne gönderdiği notta DeepSeek’in yeni bir chatbot versiyonu geliştirmek için damıtmaya güvendiğini öne sürdü.

İşbirliğiyle engellemeyi amaçlıyorlar

ABD’li yapay zeka şirketlerinin damıtma konusunda bilgi paylaşımı, siber güvenlik sektöründe şirketlerin saldırılar ve rakiplerin taktikleri hakkında düzenli veri alışverişinde bulunmasına benzer bir uygulama. Bu şirketler birlikte çalışarak bu uygulamayı daha etkili şekilde tespit etmeyi, sorumluları belirlemeyi ve yetkisiz kullanıcıların başarılı olmasını engellemeyi hedefliyor. Trump yönetimi yetkilileri, damıtmayı sınırlamak amacıyla yapay zeka şirketleri arasında bilgi paylaşımını teşvik etmeye açık olduklarını belirtti. Geçen yıl ABD Başkanı Donald Trump tarafından açıklanan yapay zeka eylem planı, kısmen bu amaçla bir bilgi paylaşım ve analiz merkezi kurulmasını öngörüyordu.

Şimdilik damıtma konusundaki bilgi paylaşımı, mevcut rekabet yasası rehberliği altında nelerin paylaşılabileceğine dair belirsizlik nedeniyle sınırlı kalıyor. Konuya aşina kişilere göre şirketler, ABD hükümetinden daha fazla netlik sağlanmasından fayda görebilir. Damıtma, DeepSeek’in 2025 başında R1 modeliyle küresel piyasaları sarsmasından bu yana Amerikalı yapay zeka geliştiricileri için en büyük endişelerden biri haline geldi. Çin’de yüksek yetenekli açık kaynak modeller hızla çoğalmaya devam ediyor ve sektörde birçok kişi DeepSeek’in modeline gelecek büyük bir güncellemeyi yakından izliyor.

Geçen yıl Anthropic, Çin kontrolündeki şirketlerin Claude chatbot modelini kullanmasını engelledi ve şubat ayında DeepSeek, Moonshot ve MiniMax adlı üç Çinli yapay zeka laboratuvarının modelin yeteneklerini damıtma yoluyla yasadışı şekilde çıkardığını tespit ettiğini açıkladı. Bu yıl Anthropic, tehdidin “herhangi bir tek şirketin veya bölgenin ötesine geçtiğini” ve ulusal güvenlik riski oluşturduğunu belirtti çünkü damıtılmış modeller genellikle kötü niyetli aktörlerin yapay zeka araçlarını zararlı faaliyetler için kullanmasını engelleyen güvenlik önlemlerinden yoksun.

Google ise model çıkarma girişimlerinde artış tespit ettiğini belirten bir blog yazısı yayımladı. Üç ABD’li yapay zeka laboratuvarı, Çin’deki model inovasyonunun ne kadarının damıtmaya dayandığını henüz somut verilerle ortaya koymuş değil ancak büyük ölçekli veri taleplerinin hacmine bakarak saldırıların yaygınlığının ölçülebileceğini ifade ediyor.


Sayfa Sonu

Yüklenecek başka sayfa yok