Yapay zekanın eksik halkası: Bağlam eksikliği
2024’ün sonunda Teksas Başsavcısı Ken Paxton, Dallas merkezli Pieces Technologies ile dikkat çekici bir anlaşmaya vardı. Şirket, geliştirdiği tıbbi yapay zeka asistanının neredeyse hatasız çalıştığını, 100 bin vakada yalnızca bir ciddi hata yaptığını iddia ediyordu. Ancak yürütülen soruşturma, bu iddiaların sağlam bir temele dayanmadığını ortaya çıkardı.
Başsavcılık, şirketin hastaneler de dahil müşterilerini asistanın tıbbi kayıtları olduğundan daha doğru özetleyebileceğine inandırdığını belirledi. Herhangi bir hasta zarar görmedi ve şirkete ceza uygulanmadı. Fakat Pieces, bundan sonra doğruluk oranları ve kullanım risklerine ilişkin net bilgi sunmayı kabul etti. Bu gelişme, yapay zekada teknik vaatlerin tek başına yeterli olmayacağını gösteren önemli bir emsal olarak değerlendiriliyor.
“Yapay zeka dil taklitçisidir”
Yapay zeka eleştirmenlerinden Gary Marcus, büyük dil modellerinin temel sınırlamalarına yıllardır dikkat çekiyor. Ona göre bu sistemler dili taklit etse de anlamıyor; bu da özellikle sağlık gibi karmaşık ve hata payına yer olmayan alanlarda büyük risk doğuruyor.
Benzer bir uyarı, sağlık teknolojileri girişimi Twofold Health’in kurucu ortağı Gal Steinberg’den geliyor. Steinberg’e göre sorun, kötü kod yazmak değil; bağlam eksikliğinde yatıyor:
“Kağıt üzerinde yapay zeka yalnızca kalıpları görür, amacı değil. Kliniklerin görünmez kuralları, prosedürleri ve etik standartları vardır. Bunlar hesaba katılmazsa, model sayılarda başarılı görünür ama görevinde başarısız olur.”
Değişen dünyaya ayak uyduramayan modeller
Steinberg, bağlamın statik olmadığını da hatırlatıyor. Kurallar, öncelikler, beklentiler zamanla değişiyor. Eğer modeller düzenli olarak güncellenmezse gerçeklikten koparak geçerliliğini yitiriyor. RAND Corporation verilerine göre, yapay zeka projelerinin yüzde 80’inden fazlası bu nedenle başarısız oluyor.
Araştırmalar da aynı noktaya işaret ediyor: Genel veri setlerinde başarılı olan modeller, özel sektörlerde uygulanmaya başlandığında öngörülemez hale geliyor. Sağlık ve finans gibi yüksek riskli alanlarda bu durum kabul edilemez.
“Daha çok veri zeka getirmez”
Meta’nın baş yapay zeka bilimcisi Yann LeCun da benzer şekilde uyarıyor. Nisan 2025’te yaptığı bir konuşmada, “Daha fazla veri ve daha güçlü bilgisayarlar zeka garantisi değildir” diyerek sektörün yanlış yola sapabileceğini vurguladı. Ona göre yeni nesil sistemlerin, insanlar gibi akıl yürütme ve bağlamı anlama yetisine sahip olması gerekiyor.
Hesap verebilirlik ihtiyacı
Gal Steinberg’in en büyük endişesi ise sorumluluk zincirinin zayıflığı. “Kesinlikten sürekli bahsediyoruz ama hesap verebilirlikten neredeyse hiç bahsetmiyoruz” diyor. Ona göre bağlam, yalnızca doğru cevabı bulmak değil; yanlış cevap verildiğinde sorumlunun kim olduğunu bilmek anlamına geliyor.
Sonuç: Eksik zeka değil, eksik bağlam
Uzmanlara göre yapay zekanın temel açığı zekadan değil, bağlamdan yoksun olması. Çözüm, ona körü körüne güvenmek değil; sürekli rehberlik, güncelleme ve denetim sağlamak. Steinberg’in sözleriyle:
“Hedeflerine ulaşırken misyonunu yerine getiremeyen bir model yalnızca maliyetli değil, aynı zamanda tehlikelidir.”