İran ile yaşanan kriz, yapay zekânın savaştaki rolünün artık teorik değil, somut bir gerçeklik hâline geldiğini gösteriyor
Bu durum, demokratik denetim ile uluslararası kuralların acil gerekliliğini ortaya koyuyor.
Birleşmiş Milletler Genel Sekreteri António Guterres, yapay zekânın kullanımına şekil vermede “artık hiçbir zaman bugün olduğumuz kadar yavaş ilerlemeyeceğimizi” vurgulayarak, bu teknolojinin yönlendirilmesinin ne kadar kritik olduğunu hatırlattı.
Pentagon ve teknoloji şirketleri arasındaki çatışma
Yorumda, ABD askeri yetkililerinin yapay zekâ firmalarıyla yaşadığı gerilimler örnek gösteriliyor. Özellikle yapay zekâ şirketi Anthropic, savunma bakanlığının yapay zekâyı iç gözetim veya tam otonom silahlar gibi etik sınırları zorlayan alanlarda kullanmasına izin vermeyi reddetti.
Pentagon ise bu kararları şirketlerin vermemesi gerektiğini savundu ve Anthropic’i bir “tedarik zinciri riski” olarak ilan etti.
OpenAI daha sonra bu boşluğu doldurmak üzere devreye girdi, ancak CEO Sam Altman, Pentagon’un ürünlerini ne şekilde kullandığı üzerinde kontrol sahibi olunmadığını itiraf etti.
Eleştirel sesler, yapay zekânın sadece silah olup olmayacağı meselesi değil, bu teknolojinin halihazırda savaşların nasıl yürütüldüğünü dönüştürdüğü konusunda uyarıda bulunuyor.
İnsan kontrolünün “sonradan düşünülen veya formalite hâline gelmiş bir unsur” olma riski var.
“Paradigma kayması” başladı
Yorumun ana vurgusuna göre paradigmik bir değişim çoktan başladı.
İran’daki çatışmada kullanılan yapay zekâ araçlarının binlerce sivili öldüren operasyonlara katkı sağladığı iddia ediliyor. Yapay Zeka (AI) hedefleri belirleme, silah önerme ve vuruş için hukuki gerekçeleri değerlendirme gibi roller üstleniyor.
Bu durum, savaşların “düşünce hızından daha hızlı” bir aşamaya geldiği yorumlarına yol açtı.
Yorum, yapay zekânın yanlışlık ve önyargı gibi sınırları olsa da, kullanıcıları için sonuçların belirgin olduğunu belirtiyor.
Yay Zeka, insani yargı ve kontrolü hızla geri plana atarak savaş karar süreçlerini dönüştürüyor.
Demokratik denetim ve çok taraflı kontrol ihtiyacı
Yorum ayrıca, kararların sadece girişimcilere veya savunma bakanlıklarına bırakılmaması gerektiğini savunuyor.
Uluslararası toplumun, insansız veya yapay zekâ destekli silah kullanımını denetleyecek demokratik süreçler ve çok taraflı çerçeveler oluşturması gerektiğini vurguluyor.
İsviçre’nin Cenevre kentinde bu konuda tartışılan bir metnin, üzerinde uzlaşmaya varılacak bir antlaşma için sağlam bir temel oluşturabileceği umudu dile getiriliyor.
Guardian’a göre İran savaşı, yapay zekâ destekli askeri karar süreçlerinin sadece bir ihtimal değil, aktif bir gerçeklik olduğunu göstermiş durumda.
Bu, hem savaşın doğasını kökten değiştiriyor hem de kapsamlı demokratik ve uluslararası denetime duyulan ihtiyacı dramatik biçimde artırıyor.
The Guardian