Bugün tüm dünya yapay zekayı konuşuyor. Sektör, meslek grubu ve hatta yaş grubu fark etmeksizin herkesin gündeminde. Her ne kadar bu konuyu daha on yıllar boyu konuşacak gibi dursak da yapay zeka teknolojisi artık hayatımızın tüm kılcal damarlarına sızmış durumda. İstihdamın geleceğinden insanın özgürlük alanına son darbe mi indiriliyor kaygısına kadar etrafımızı saran büyük tartışmaların içinde, ben sizi biraz geriye, o sessiz laboratuvar devrimine götürmek istiyorum.
2016 yılının sonları... Google Brain laboratuvarlarında bir grup mühendis görünmez bir duvara çarpmış gibiydi. O zamanki Google Translate’i hatırlayın; hani o kelimeleri parça parça çeviren, devrik cümlelerle boğuşan, anlam bütünlüğünü bazen trajikomik bir şekilde yok eden sistemi...
Bu sakarlığın sebebi basitti: O günün teknolojisi dili bir "zincir" gibi işliyordu. Her halka bir öncekine bağlıydı. Model, bir cümlenin sonuna geldiğinde başını çoktan unutmuş oluyordu. Çünkü her şeyi sırayla yapmak zorundaydı.
Derken, o odayı sessizliğe gömen o sarsıcı soru soruldu: "Neden her şeyi sırayla yapmak zorundayız?" Bu, yıllardır kabul edilen "dil doğası gereği sıralıdır" varsayımına indirilmiş bir darbeydi. Ellerinde "Attention" (Dikkat) mekanizması adında bir ipucu vardı. Bu mekanizma, modelin cümledeki önemli kelimelere odaklanmasını sağlıyordu ama hep yardımcı roldeydi. Ekip radikal bir karar aldı: "Ya hiçbir şeyi sıraya koymazsak? Sadece dikkate odaklansak?" Bu, bir paradigmanın iflası ve yenisinin doğuşuydu. Ortaya çıkan bu yeni mimariyle Google Translate, parça parça çeviri yapmayı bırakıp "cümleyi bir bütün olarak anlamayı" öğrendi. Artık kelimelerin sadece sırasına değil, birbirleriyle olan o karmaşık ve derin ilişkisine yani bağlama bakıyordu.
Bu yapıya "Transformer" dediler. Bir temsil biçiminden diğerine katman katman anlamı inşa eden bir "dönüştürücü". Modelin her şeyi aynı anda görmesinden doğan "sıralama" sorununu ise "Positional Encoding" ile çözdüler; kelimelerin cebine cümledeki yerini fısıldayan küçük koordinatlar bıraktılar. Sonuç? Eski yöntemleri yerle bir eden bir hız ve doğruluk.
2017'de yayınlanan makale The Beatles'a selam çakarken aslında şunu söylüyordu: "RNN’lere, karmaşık dizilere artık gerek yok. Transformer yeter. İhtiyacın olan tek şey, doğru yere odaklanan bir dikkattir."
Bugün konuştuğumuz ChatGPT, LLaMA veya Claude... Hepsi bu cesur sorunun "sırayı bozma" iradesinin çocukları. Modern yapay zekanın omurgası işte bu radikal adımla şekillendi. Görüyoruz ki; bazen en büyük ilerlemeler, en temel alışkanlıklarımızı sorguladığımızda ortaya çıkıyor. Bu "dikkat" meselesi şimdilik burada kalsın. Zira bu hikâyenin daha gidecek çok yolu var.
Bir sonraki yazıda, bu devrimin asıl büyük arenasına, kendi evimize ineceğiz ve telekomünikasyon dünyasında iki bağlantılı soruya cevap arayacağız: Telekomünikasyonun o devasa veri altyapısı ve bağlantı gücü olmasaydı, yapay zeka bu kadar "akıllı" kalabilir miydi? Daha da önemlisi, bundan sonra yapay zeka baz istasyonlarına girdiğinde ne olacak?
Konuşmaya devam edeceğiz.