ABD’nin İran’a yönelik saldırılarında yapay zekâ araçlarının kullanılması, uzmanlara göre “düşünce hızından daha hızlı” bir bombardıman döneminin başlangıcına işaret ediyor.
Artan hız ve ölçek, insan karar vericilerin devre dışı kalabileceği endişelerini de beraberinde getiriyor.
ABD ordusunun saldırı dalgasında, Anthropic tarafından geliştirilen Claude adlı yapay zekâ modelinin kullanıldığı bildirildi.
Bu teknoloji, hedef tespitinden hukuki onaya ve saldırı emrine kadar uzanan süreci ifade eden “kill chain”i (öldürme zinciri) kısaltıyor.
ABD ve İsrail, daha önce Gazze’de hedef belirleme süreçlerinde yapay zekâ kullanmıştı. İran’a yönelik ilk 12 saatte yaklaşık 900 saldırı düzenlendiği, İsrail füzelerinin İran’ın dini lideri Ali Hamaney’i öldürdüğü bildirildi.
“Karar sıkışması” ve insanın geri plana düşmesi
Akademisyenler, yapay zekânın karmaşık saldırı planlarının hazırlanma süresini dramatik biçimde azalttığını ve bunun “decision compression” (karar sıkışması) olarak adlandırıldığını söylüyor.
Bu durum, askeri ve hukuki uzmanların yalnızca otomatik olarak üretilen saldırı planlarını onaylayan konuma düşebileceği kaygısını doğuruyor.
2024’te San Francisco merkezli Anthropic, modelini ABD Savunma Bakanlığı ve diğer ulusal güvenlik kurumlarında savaş planlamasını hızlandırmak amacıyla devreye aldı.
Claude, savaş teknolojisi şirketi Palantir Technologies tarafından Pentagon ile geliştirilen ve istihbarat analizini güçlendirmeyi amaçlayan bir sistemin parçası hâline geldi.
Newcastle Üniversitesi’nden siyasal coğrafya uzmanı Craig Jones’a göre:
“Yapay zekâ makinesi hangi hedeflerin vurulması gerektiğine dair önerilerde bulunuyor ve bu bazı açılardan düşünce hızından bile daha hızlı. Ölçek ve hız birleştiğinde, geçmiş savaşlarda günler ya da haftalar sürebilecek operasyonlar artık aynı anda gerçekleştirilebiliyor.”
Hukuki değerlendirme de algoritmada
En yeni yapay zekâ sistemleri; drone görüntüleri, telekomünikasyon dinlemeleri ve insan istihbaratı dahil olmak üzere büyük veri yığınlarını hızla analiz edebiliyor.
Palantir’in sistemi, makine öğrenmesi kullanarak hedefleri belirliyor ve önceliklendiriyor; mühimmat stoklarını ve geçmiş performans verilerini de hesaba katarak uygun silah türünü öneriyor.
Ayrıca saldırının hukuki dayanağını değerlendirmek için otomatik muhakeme araçları kullanıyor.
Queen Mary Üniversitesi’nden etik ve teknoloji uzmanı David Leslie, bunun “askeri stratejide yeni bir çağ” olduğunu söylerken, yapay zekâya aşırı güvenin “bilişsel yük boşaltımı”na yol açabileceği uyarısında bulundu.
İnsan karar vericiler, düşünme sürecini makine üstlendiğinde sonuçlardan psikolojik olarak daha kopuk hissedebiliyor.
Sivil kayıplar ve hukuki tartışma
Cumartesi günü güney İran’da bir okula isabet eden füze saldırısında, devlet medyasına göre çoğu çocuk 165 kişi hayatını kaybetti. Okulun bir askeri kışlaya yakın olduğu belirtilirken, Birleşmiş Milletler olayı “uluslararası insancıl hukukun ağır ihlali” olarak nitelendirdi. ABD ordusu ise iddiaları incelediğini açıkladı.
İran’ın kendi sistemlerinde hangi düzeyde yapay zekâ kullandığı bilinmiyor.
Tahran 2025’te füze hedefleme sistemlerinde yapay zekâ kullandığını iddia etmişti; ancak uluslararası yaptırımlar nedeniyle kapasitesinin ABD ve Çin gibi ülkelerle kıyaslandığında sınırlı olduğu değerlendiriliyor.
Pentagon–AI şirketleri ilişkisi
ABD yönetimi, saldırılardan günler önce Anthropic’in modellerini tamamen otonom silahlarda veya ABD vatandaşlarının gözetiminde kullanmaya izin vermemesi nedeniyle şirketle yollarını ayıracağını açıklamıştı.
Ancak sistemler kademeli olarak devreden çıkarılana kadar kullanılmaya devam ediyor.
Anthropic’in rakibi OpenAI ise Pentagon ile kendi modellerinin askeri kullanımına yönelik bir anlaşma imzaladı.
Leslie’ye göre avantaj açık:
“Planlamanın günler ya da haftalar yerine dakikalara ya da saniyelere inmesi, karar alma hızında büyük üstünlük sağlıyor. Ancak insan karar vericilerin önerileri değerlendirmek için çok daha dar bir zaman aralığı kalıyor.”
Royal United Services Institute araştırmacısı Prerana Joshi de yapay zekânın yalnızca saldırı planlamasında değil; lojistik, eğitim, bakım ve karar yönetimi dahil savunma altyapısının birçok alanında hızla yaygınlaştığını belirtti.
Uzmanlara göre yapay zekâ, askeri karar süreçlerinde verimlilik ve hız sağlarken, etik, hukuki ve insani sorumluluk tartışmalarını da daha keskin hâle getiriyor.
The Guardian