Yapay zeka sohbet robotu Claude’un geliştiricisi Anthropic ile Pentagon arasındaki anlaşmazlık, şirketin yapay zekasının bazı güvenlik kısıtlamalarını kaldırmayı reddetmesi üzerine tırmanmıştı. Pentagon, 6 Mart’ta Anthropic’i “tedarik güvenliği açısından riskli” ilan etmiş, şirket ise 9 Mart’ta bu karara karşı dava açmıştı.
Yargıç, Pentagon’un kararını geçici olarak durdurdu
Federal yargıç Rita Lin, Pentagon’un şirketi “riskli” ilan ettiği kararın yürütmesini durdurdu. Aynı zamanda ABD Başkanı Donald Trump’ın tüm federal kurumlara Anthropic teknolojisinin kullanımını durdurma talimatını da geçici olarak askıya aldı. Yargıç Lin, “Bir şirketin hükümetle aynı fikirde olmaması, onu potansiyel düşman veya sabotajcı olarak damgalamak için yeterli bir gerekçe olamaz” dedi.
Anthropic’in askeri kullanım kısıtlamaları anlaşmazlığı tetikledi
ABD ordusu, bugüne kadar istihbarat, silah geliştirme ve operasyonel çalışmalarda Anthropic’in Claude modelini kullanıyor. Ancak şirketin Claude’u “tüm yasal askeri amaçlar” için açmayı reddetmesi ve güvenlik endişeleri, Pentagon ile anlaşmazlığa yol açtı.
Savunma Bakanı Pete Hegseth, 24 Şubat’ta Anthropic’e ültimatom vererek, 27 Şubat’a kadar istenen şekilde izin vermemeleri durumunda hükümetle sözleşmelerinin risk altında olacağını bildirmişti. Bunun üzerine Pentagon, 6 Mart’ta şirketi “tedarik güvenliği açısından riskli” ilan etti.
Anthropic’den karşı dava hamlesi
Şirket, 9 Mart’ta ABD hükümetine karşı iki ayrı dava açarak, Pentagon yetkililerinin yapay zeka güvenliği konusundaki tutumunun yasa dışı misilleme teşkil ettiğini ileri sürdü.
ABD Başkanı Donald Trump da, 27 Şubat’ta Pentagon ve Anthropic arasındaki tartışmalar sonrası tüm federal kurumlara Anthropic teknolojisinin kullanımını derhal durdurma talimatı vermişti.