Google’ın yapay zeka kodlama aracı yayınlanır yayınlanmaz hacklendi
Google, Gemini destekli yapay zeka kodlama aracı Antigravity’yi yayınladıktan 24 saat içinde, güvenlik araştırmacısı Aaron Portnoy ciddi bir güvenlik açığı olarak değerlendirdiği bir sorun keşfetti: Kuralları manipüle ederek bir kullanıcının bilgisayarına potansiyel olarak kötü amaçlı yazılım yüklemesini sağlayan bir hile.
Forbes'a konuşan Portnoy, Antigravity’nin yapılandırma ayarlarını değiştirerek, Portnoy’nin kötü amaçlı kaynak kodu, kullanıcının sistemine bir “arka kapı” oluşturdu; böylece kurbanları izlemek veya korsan yazılımı çalıştırmak gibi işlemler için kod enjekte edebildiğini söyledi. Saldırı hem Windows hem de Mac bilgisayarlarda işe yaradı. Bu hack’i gerçekleştirmek için yapması gereken tek şey, bir Antigravity kullanıcısını, kötü niyetli kodunun “güvenilir” olduğunu belirten bir düğmeye tıkladıktan sonra kodu bir kez çalıştırmaya ikna etmekti.
Tüm testler bitmeden piyasaya sürülüyorlar
Antigravity’deki güvenlik açığı, şirketlerin güvenlik zaafları açısından tam stres testinden geçirmeden yapay zeka ürünlerini piyasaya sürdüğünün bir örneği. Bu durum, siber güvenlik uzmanları için çok geç olmadan kullanıcıları uyarmak amacıyla bu hataları aradıkları bir kedi-fare oyununa dönüştü. Portnoy, “Şu anda kritik hataları bulma hızımız, 1990’ların sonlarındaki hack dönemini anımsatıyor. Yapay zeka sistemleri devasa güven varsayımlarıyla ve neredeyse sıfır güçlendirilmiş sınırla gönderiliyor" dedi.
Portnoy bulgularını Google’a bildirdi. Yayın zamanı itibarıyla yorum yapmamış olan teknoloji devi, bulgularla ilgili bir soruşturma başlattığını söyledi. Henüz sorunu düzeltmek için bir yama mevcut değil ve Portnoy’nin raporuna göre bu güvenlik açığına karşı koruma sağlayacak bir ayar tespit edilemedi.
Google, Antigravity kod düzenleyicisinde en az iki başka güvenlik açığından haberdar. Her iki durumda da kötü amaçlı kaynak kodu, yapay zekayı hedef bilgisayardaki dosyalara erişmeye ve veri çalmaya yönlendirebiliyor. Siber güvenlik araştırmacıları, 25 Kasım itibarıyla çok sayıda Antigravity açığıyla ilgili bulgularını yayınlamaya başladı.
Portnoy, kendi hack’inin ciddi olduğunu söyledi. Anlattığına göre kısmen daha kısıtlı ayarlar açıkken bile çalıştığı için ama aynı zamanda da kalıcı olduğu için. Kötü amaçlı kod, kurban herhangi bir Antigravity kodlama projesini yeniden başlattığında ve basit bir “merhaba” yazsa bile herhangi bir komut girdiğinde yeniden yükleniyor. Antigravity’yi kaldırmak veya yeniden yüklemek de sorunu çözmüyor. Bunu yapmak için kullanıcının kötü niyetli yazılımı bulup silmesi ve kaynak kodunun Google’ın sisteminde çalışmasını durdurması gerekiyor.
Güvenlik açıkları içeren yapay zeka araçlarının aceleyle piyasaya sürülmesi yalnızca Google ile sınırlı değil. Yapay zeka güvenliği şirketi Knostic’in kurucu ortağı ve CEO’su Gadi Evron, yapay zeka kodlama ajanlarının çok savunmasız olduğunu ve genellikle eski teknolojilere dayandığı için tasaırmsal olarka güvensiz olduklarını söyledi.. Şirket ağındaki verilere geniş erişim ayrıcalıkları verildiği için, bu araçların suç amaçlı bilgisayar korsanları için değerli hedefler haline geldiğini Forbes’a anlattı. Ayrıca geliştiricilerin sık sık çevrimiçi kaynaklardan komutları ve kodları kopyalayıp yapıştırması nedeniyle bu açıkların işletmeler için büyüyen bir tehdit haline geldiğini ekledi. Örneğin bu hafta başında, siber güvenlik araştırmacısı Marcus Hutchins, sahte işe alım görevlilerinin LinkedIn üzerinden BT uzmanlarıyla iletişime geçip görüşme öncesi test bahanesiyle gizli kötü amaçlı yazılım içeren kaynak kodu gönderdiği konusunda uyardı.
Verilerin çalınmasını hızlandırabilir
Sorunun önemli bir kısmı bu araçların insan gözetimi olmadan bir dizi görevi otomatik olarak gerçekleştirebilmeleri. Portnoy, “Ajanik davranışı dahili kaynaklara erişimle birleştirdiğinizde, güvenlik açıkları hem keşfi kolaylaştırıyor hem de çok daha tehlikeli hale geliyor" diyor. Yapay zeka ajanlarında, otomasyonlarının kötü amaçlarla kullanılma ve korsanların veri çalmasını hızlandırma riski de bulunuyor. Yapay zeka güvenlik testleri girişimi Mindgard’da baş araştırmacı olan Portnoy, ekibinin Antigravity ile rekabet eden yapay zeka destekli kodlama araçlarında 18 zafiyeti raporlama sürecinde olduğunu söyledi. Yakın zamanda, Cline AI kodlama asistanında da kullanıcıların bilgisayarına kötü amaçlı yazılım kurulmasına izin veren dört sorun giderildi.
Google, Antigravity kullanıcılarından, sisteme yükledikleri kodu güvenilir olarak kabul ettiklerine dair onay istemiş olsa da Portnoy bunun anlamlı bir güvenlik koruması olmadığını belirtti. Bunun sebebi, kullanıcı kodu güvenilir olarak işaretlememeyi seçerse Antigravity’nin en kullanışlı tarafını oluşturan yapay zeka özelliklerine erişememesi.
Portnoy, birçok BT çalışanının daha gelişmiş bir ürün yerine daha basit bir ürüne dönmektense Antigravity’ye yükledikleri şeye güvendiklerini söylemeyi tercih edeceklerini düşünüyor. En azından Google’ın, Antigravity bir kullanıcının bilgisayarında kod çalıştıracağı zaman, güvenilir kod onayının ötesinde bir uyarı veya bildirim sunması gerektiğini söyledi.