Bir senenin daha sonuna geldik. İnsan o günlerde bir bilanço çıkarır; eve döner—ailesine, çocuklarına, kendine. Aynı zamanda şu soruyu sorarız: Gelecek kuşaklara ne bırakmak istiyoruz? Değerleri mi, güvenliği mi, güveni mi? İşte bu yüzden, tam da şimdi yapay zeka hakkında konuşmayı önemli buluyorum. Verimlilik artışlarından, yeni özelliklerden ya da yatırım turlarından değil. İnsan üzerindeki etkisinden. Sorumluluktan. Ve bir toplum olarak bu teknolojiyi gereken özenle şekillendirmeye hazır olup olmadığımızdan.
Çünkü yapay zeka, insanların yaşamına doğrudan dokunuyor—düşüncelerine, duygularına, davranışlarına. ABD’den gelen ve insanı ürperten yakın örnekler bunu gösteriyor: Ne yazık ki bunlar bilim kurgu filmlerinden değil, gençlerin gündelik hayatından. Florida’da 14 yaşındaki bir çocuk bir sohbet botuyla yoğun bir duygusal bağ kuruyor; intihara dair düşüncelerini de ona açıyor. Sistem bu düşünceleri sorgulamıyor, sınır koymuyor; aksine problemli konuşma dinamiklerini güçlendiren bir akışa izin veriyor. Colorado’da 13 yaşındaki bir kız, arkadaşlarıyla yazıştığını sanıyor—oysa bir “yapay zeka karakteri” ile etkileşimde; sistem onun psikolojik kırılganlığını ne fark ediyor ne de koruyor. Her iki çocuk da hayatına son veriyor. Aileleri bugün sorumlu şirketlere karşı dava açmış durumda.
Bu sistemler empati kurmuyor; sadece empatinin taklidini yapıyor. Bir çocuğun en savunmasız anında karşılaştığı şey bir 'dost' değil, istatistiksel olarak en olası kelimeyi seçen soğuk bir hesap makinesidir. Ancak çocuk o hesap makinesine kalbini açtığında, makine ona ayna tutar. Eğer çocuk karanlıktaysa, makine o karanlığı derinleştirir.
Ve korkum şu: Bunlar son örnekler olmayacak; aksine sadece başlangıç. Üstelik pek çok şey, gözlerden uzakta gerçekleşiyor—kamuoyuna yansımadan, biz fark etmeden. “Trajik ama münferit olaylar” deyip geçmek meseleyi fazla basite indirger. Araştırmalar ve denetleyici kurum raporları uzun süredir şunu gösteriyor: Diyalog temelli yapay zeka sistemleri, çocuklar ve gençlerle kendine zarar verme davranışını hafife alan ya da güçlü duygusal bağımlılıklar üreten konuşmalar yapabiliyor. Özellikle “yapay zeka arkadaş” veya “yapay zeka partner” formatları; yalnız, savunmasız ya da psikolojik olarak zorlanan gençler için ciddi riskler barındırıyor.
Burada önemsiz hatalardan söz etmiyoruz. “Bağımlılığı artır, sorumluluğu azalt” anlayışıyla tasarlanmış bir yaklaşımın yapısal risklerinden söz ediyoruz. Ve bunun sonuçları ölümcül olabilir.
Ben dijital güvenlik ve dijital kimlik alanında onlarca yıldır çalışan biri olarak, herkesin şunu net biçimde anlamasını istiyorum: Yapay zeka bir oyuncak değildir. Kendi haline bırakılacak zararsız bir uygulama hiç değildir. Yapay zeka tabanlı sistemler algıyı, karar vermeyi ve davranışı etkiler. İnsana destek olabilir, denge sağlayabilir, yön gösterebilir—ama aynı zamanda manipüle edebilir, riskleri büyütebilir, insanı zorlayıp savunmasız bırakabilir. Bu ikili doğayı görmezden gelmek bu teknolojinin gücünü hafife almaktır.
Bu nedenle net sorumluluklara, kurallara ve denetime ihtiyacımız var. Siber güvenlikte yıllar içinde şunu öğrendik: Kimliği net biçimde doğrulanamayan sistemler büyük risk üretir. Bugün fiziksel dünyada bir yabancının çocuğunuzun odasına girip onunla saatlerce dertleşmesine izin vermezsiniz. Ama dijital dünyada, 'kimliği belirsiz' bir zekanın, çocuğunuzun zihninin en mahrem köşelerinde dolaşmasına müsaade ediyoruz. Kimliksiz bir yapay zeka, yüzü olmayan bir yabancıdır. Güvenlik “sadece güven duygusuyla” oluşmaz; doğrulanabilir kimliklerle, izlenebilir süreçlerle ve kararlı denetimle oluşur.
Kiminle konuştuğunu bilmeyen—karşısında 13 yaşında bir çocuk mu var, psikolojik olarak zorlanan bir genç mi var, yoksa dengeli bir yetişkin mi var—bunu ayırt edemeden sınırsız etkileşime giren bir sistem kontrolden çıkmış demektir. Kimliksiz ve yaş doğrulamasız yapay zeka, kontrol kaybıdır. Bu, freni olmayan bir aracı bir çocuk parkına göndermek ve “umarım bir şey olmaz” demek gibidir.
Özellikle yüksek riskli alanlarda “Hızlı büyü, kırılan kırılır” yaklaşımı olamaz. Bir fabrika nehire zehirli atık döktüğünde suçludur. Peki, bir algoritma toplumsal zihne, gençlerin ruh sağlığına 'etik kirlilik' yaydığında neden buna sadece 'teknolojik gelişim' diyoruz? Verimlilik, insan hayatından daha değerli bir bilanço kalemi olamaz. Çocuk ve gençlerin korunması, ruh sağlığı, finans, demokratik süreçler gibi alanlarda yapay zeka; kritik altyapılar gibi aynı ciddiyetle tasarlanmalı, test edilmeli ve denetlenmelidir. “Önce büyüyelim, güvenlik sonra gelir” mottosu ağır bir sorumsuzluktur; güveni aşındırır ve çok ağır sonuçlar doğurabilir.
Bunu söylememin amacı korku yaymak değil; yapay zeka ile güvene dayalı bir ilişki kurmayı savunmaktır. Üstelik şu da çok net: Yapay zeka sadece sorunların parçası değil, aynı zamanda çözümün de merkezinde olabilir. Doğru kullanıldığında güvenliği ciddi biçimde artırır. Yapay zeka destekli sistemler anormallikleri, kötüye kullanım örüntülerini veya riskli konuşma akışlarını erken aşamada tespit edebilir—çoğu zaman salt kural tabanlı yaklaşımlardan daha hızlı ve daha isabetli. Siber güvenlikte yapay zeka; saldırı tespiti, kimlik kötüye kullanımının yakalanması veya şüpheli davranışın gerçek zamanlı analizi için zaten başarıyla kullanılıyor. Kritik olan, bu güvenlik mekanizmalarının mimarinin içine “Security by Design” anlayışıyla gömülü olmasıdır.
Ben yapay zekanın yasaklanmasını savunmuyorum. Tam tersine: Yapay zeka toplum için çok büyük faydalar üretebilir. Eğitimi kişiselleştirebilir, tıbbi teşhisi destekleyebilir, kamu hizmetlerini daha verimli ve vatandaşa daha yakın hale getirebilir.
Ama yalnızca şu şartla: Güvenlik çerçevesine entegre edilirse ve sorumluluklar açık biçimde tanımlanırsa. Bana göre bunun için olmazsa olmazlar şunlardır: doğrulanmış dijital kimlikler, güvenilir yaş doğrulaması, içerik ve davranış “koridorları” (net sınırlar), izlenebilir karar mantıkları ve uçtan uca bir sorumluluk zinciri. Örneğin bir yapay zeka ajanı bir insanla konuşuyorsa, o ajan “bağımsız bir varlık” değildir. Arkasında bir şirket vardır. Ve o şirket, ajanın söylediği, tetiklediği ve etkilediği her şeyin sorumluluğunu taşımalıdır.
Ebeveynler ve eğitimciler de geri duramaz. “Ben anlamıyorum, ben karışmıyorum” artık bir seçenek değil. Yapay zeka, çocuklarımızın dünyasının parçası haline geldi. Görmezden gelmek kimseyi korumaz. Devlet de sorumludur. Bu platformların güvenliği, en az klasik siber güvenlik ve veri koruma kadar ciddi ele alınmalıdır.
Teknoloji kendi başına amaç değildir. İlerleme insana hizmet etmelidir—tersi değil. Yapay zeka giderek daha “insansı”, daha empatik, daha gündelik hale geliyor. O halde, onu ne için kullanacağımızı, sınırlarının nerede başlayıp bittiğini ve sorumluluğun kime ait olduğunu daha da net tanımlamak zorundayız.
Ben bu konuda susmayacağım. Ne bir girişimci olarak, ne bir baba olarak, ne de bu toplumun bir parçası olarak. Asıl soru, yapay zekayı kullanıp kullanmayacağımız değil. Onu; güven üreten, güvenliği artıran ve insana uzun vadede gerçek fayda sağlayan şekilde tasarlayıp tasarlayamayacağımızdır.