"Yeni yapay zekâ teknolojisi büyük siber güvenlik riskleri doğurabilir"
Ancak birçok Avrupa düzenleyicisinin denetim yetkisi sınırlı.
Avrupa’daki düzenleyiciler, ABD merkezli Anthropic’in yeni ve güçlü bir yapay zekâ modelinin dağıtımını kısıtlaması nedeniyle sürecin dışında bırakıldı.
Anthropic geçen hafta, en yeni modeli Mythos’un kullanımını onlarca teknoloji ortağıyla sınırladığını duyurdu.
Şirket, bu sayede sistemlerin güvenlik açıklarının kapatılabileceğini ve modelin teknik zafiyetleri bulma ve istismar etme konusunda çoğu insandan daha başarılı olduğunu iddia etti.
Bu karar, modelin büyük ölçekli siber güvenlik ihlallerine yol açabileceği endişesiyle küresel yapay zekâ ve siber güvenlik camiasında şok etkisi yarattı.
Anthropic, erişim izni verirken güvenilir ortakları ve kurumları seçti:
Şirket, aralarında Apple, Microsoft ve Amazon’un da bulunduğu, tamamı ABD merkezli 12 teknoloji şirketini en yakın çevresi olarak belirledi.
Ayrıca 40 kuruluşa daha erişim verildiğini ancak isimlerinin açıklanmadığını bildirdi ve model hakkında “ABD hükümet yetkilileriyle sürekli görüşmeler” yürüttüğünü ekledi.
Avrupa’daki sekiz ulusal siber güvenlik kurumu yetkilisiyle görüştü.
Sadece Almanya’daki kurum, Anthropic ile Mythos hakkında görüşmelere başladığını ancak modeli henüz test edemediğini söyledi.
Avrupa’daki bazı kamu kurumları ise yalnızca sınırlı erişim elde edebildiklerini belirtti.
Bu durum, Birleşik Krallık ile keskin bir tezat oluşturuyor.
İngiltere’nin yapay zekâ bakanı Kanishka Narayan, ülkenin Yapay Zekâ Güvenlik Enstitüsü’nün Mythos’u test ettiğini ve elde edilen bulgular doğrultusunda “harekete geçtiğini” doğruladı.
Enstitü değerlendirmesini pazartesi günü yayımladı.
Berlin merkezli yapay zekâ sivil toplum kuruluşu KIRA’nın kurucusu Daniel Privitera’ya göre:
“Mythos, önümüzdeki yıllarda ileri düzey yapay zekâ yeteneklerine erişimin ne kadar kritik olacağına dair erken bir fikir veriyor… Avrupa’nın şu anda bu erişimi nasıl güvence altına alacağına dair bir planı yok.”
Bu ayrışma, dünyada yapay zekâ risklerini ele alacak küresel bir sistemin kurulamadığını da açıkça gösteriyor.
Oysa teknoloji uzmanları, yapay zekânın ekonomi ve iş gücü piyasasında ciddi sonuçlar doğurabileceği ve hatta insanlığı yok edebileceği yönünde defalarca uyarıda bulunmuştu.
Yoshua Bengio, bu durumun “derin endişe verici” olduğunu söyledi.
Ona göre, risklerin nasıl yönetileceğine düzenleyiciler yerine teknoloji şirketlerinin karar vermesi, hükümetlerin veya üçüncü tarafların teknolojiyi denetlemesi için mekanizmalar kurulmasının “ne kadar gerekli” olduğunu gösteriyor.
Kıta Avrupası açısından bu gelişmeler, yapay zekâ alanında lider konumdaki Amerikan şirketleri üzerindeki etkinin sınırlı olduğunu ortaya koydu ve AB’nin “teknoloji süper düzenleyicisi” kimliğine darbe vurdu.
Hollanda siber güvenlik ajansından bir sözcü olan Job Holzhauer, “Bulunan zafiyetlerin gerçek etkisini teknik detaylar olmadan doğrulamak zor” dedi.
Almanya’nın baş siber güvenlik yetkilisi Claudia Plattner ise, Mythos gibi “olağanüstü güce sahip araçların” gelecekte açık piyasada yer alıp almayacağının “acil bir soru” olduğunu belirtti.
Bu sorunun ulusal ve Avrupa güvenliği ile egemenliği açısından derin sonuçlar doğuracağını vurguladı.
Plattner, yönettiği kurumun Anthropic ile “aktif diyalog” içinde olduğunu, henüz doğrudan test yapılmasa da geliştiricilerle yapılan görüşmeler sayesinde modelin işleyişine dair “anlamlı içgörüler” elde ettiklerini söyledi.
AB’nin siber güvenlik ajansı ENISA ise Mythos konusunda Anthropic ile temas kurulup kurulmadığı hakkında yorum yapmayı reddetti.
Avrupa Komisyonu’nun Yapay Zekâ Ofisi, AB’nin yapay zekâ yasasına uyum kapsamında Anthropic ile temas halinde.
Ancak Komisyon sözcüleri, yeni modelin bu görüşmelerin parçası olup olmadığı veya ofisin modele erişim sağlayıp sağlamadığı konusunda yorum yapmadı.
Yapay zekâ güvenliği “polisliği”
Anthropic, Mythos’u tanıtırken modelin siber açıkları tespit edip istismar etmede “en yetenekli insanlar hariç herkesi geride bırakabildiğini” belirtti.
Bu da aracı hem güçlü bir savunma sistemi hem de kötü niyetli hackerların elinde tehlikeli bir silah haline getiriyor.
Model henüz geniş testlere açılmadığı için nasıl çalıştığı ve hangi tür açıkları daha iyi tespit ettiği konusunda hâlâ çok şey bilinmiyor.
Son yıllarda yapay zekâ güvenliği için küresel normlar oluşturmak amacıyla G7’nin Hiroşima Süreci ve Birleşmiş Milletler’in küresel diyalog girişimleri gibi birçok adım atıldı.
Ancak bu girişimler somut sonuçlar üretmek için gerekli siyasi desteği bulamadı.
Ayrıca hükümetler küresel yapay zekâ yarışına odaklandıkça güvenlik meseleleri geri plana itildi.
Bunun sonucu olarak, Anthropic ve benzeri şirketlerin riskli teknolojileri nasıl kullandığını denetleyecek küresel bir mekanizma bulunmuyor.
Eski Avrupa Parlamentosu üyesi Marietje Schaake, “Bu kadar geniş etkiye sahip modellerin özel şirketler tarafından yönetilmesi endişe verici” dedi ve hassas kurumsal bilgilerin paylaşımı ve denetimi konusunda küresel bir uzlaşının sağlanması gerektiğini vurguladı.
Bağımsız yapay zekâ araştırmacısı Laura Caroli ise AB’nin “model piyasaya sunulmadığı için devre dışı kaldığını” belirtti.
Eğer model piyasaya sunulsaydı, Anthropic AB yasaları kapsamında bağlayıcı kurallara tabi olacaktı.
Caroli’ye göre AB, Yapay Zekâ Güvenlik Enstitüleri ağı üzerinden sınırlı da olsa denetim sağlayabilir.
Avrupa Komisyonu’nun dijital sözcüsü Thomas Regnier ise yürütmenin, AB mevzuatı açısından olası etkileri değerlendirdiğini ve teknolojinin güvenlik sonuçlarını yakından izlediğini söyledi.
AB’nin Yapay Zekâ Yasası’na göre Anthropic gibi sağlayıcılar, modellerinden kaynaklanan siber riskleri ele almak zorunda.
Ayrıca Siber Dayanıklılık Yasası, AB pazarına sunulan tüm dijital ürünler için zorunlu güvenlik gereklilikleri getiriyor.
Yine de Caroli’ye göre Avrupalı yetkililer, Anthropic ve benzeri şirketlerin insafına kalmış durumda: “Bu durum insanı düşündürüyor… Ya bu Anthropic değil de [Çin’in] DeepSeek’i olsaydı?”
Politico