GÜNCEL KURLAR
🇺🇸USD: 44,2478 ₺ 🇪🇺EUR: 50,7614 ₺ 🥇GRAM ALTIN: 6.174,08 ₺ BTC: 3.294.309 ₺ 🇺🇸USD: 44,2478 ₺ 🇪🇺EUR: 50,7614 ₺ 🥇GRAM ALTIN: 6.174,08 ₺ BTC: 3.294.309 ₺ 🇺🇸USD: 44,2478 ₺ 🇪🇺EUR: 50,7614 ₺ 🥇GRAM ALTIN: 6.174,08 ₺ BTC: 3.294.309 ₺
17 Mart 2026 - 23:43

info@turkglobalmedia.com

Ajanlar, Avrupa’nın yapay zekâ kuralları için bir sonraki tökezleme noktası olabilir mi?

Ajanlar, Avrupa’nın yapay zekâ kuralları için bir sonraki tökezleme noktası olabilir mi?

Teknoloji
17.03.2026 20:28
TGM Haber Merkezi

Otonom yapay zekânın yükselişi, AB kurallarının şimdiden eskiyip eskimediği sorusunu gündeme getiriyor.

Bu haberi paylaş:

Yapay zekâ ajanları hızla ana akım benimsenmeye doğru ilerliyor ve bu süreçte piyasaları da hareketlendiriyor. 

Ancak birkaç yıl önce yapay zekâ sohbet botlarının ani yükselişinde olduğu gibi, teknolojinin hızlı benimsenmesi, yasa koyucuların öngördüğünden çok farklı çalışan bir şeyle AB hukukunun nasıl başa çıkacağına dair sorular doğuruyor.

ChatGPT gibi yapay zekâ sohbet botları, kullanıcıların kendilerine soru sormasını veya başka şekillerde etkileşime girmesini beklerken, yapay zekâ ajanları daha otonom çalışacak şekilde tasarlanmıştır. 

Bu tür yapay zekâ, görevleri yerine getirmek için dijital araçları ve yazılımları — yapay zekâ araçları da dahil — kullanmak üzere geliştirilmiştir.

Örneğin, kodlama asistanları birer yapay zekâ ajanıdır: Bir programcı bu ajanlara üst düzey talimatlar verebilir — ve ajan, hangi kütüphane ve çerçevelerin kullanılacağını, hangi API’lerin çağrılacağını, hataların nasıl test edileceğini ve kodun nasıl yinelemeli olarak geliştirileceğini kendisi belirleyerek gerekli yazılım parçasını oluşturur.

“OpenClaw” adı verilen başka bir ajan türü de son zamanlarda haberlerde yer aldı. Bu tür, harekete geçmek için kullanıcı komutlarını bile beklemek zorunda değildir. 

Bir “nabız” (heartbeat) mantığıyla çalışır, belirli aralıklarla uyanarak önceden tanımlanmış bir kişilik ya da hedef doğrultusunda hareket eder.

Bir OpenClaw ajanı, Şubat ayında kontrolden çıkmış gibi görünmesinin ardından manşetlere taşındı. Teknoloji, açık kaynaklı bir yazılım projesine değişiklik katkısında bulunmaya çalışmış ancak bu katkılar reddedilmişti. 

Bunun üzerine yapay zekâ, bu projede çalışan bir gönüllüyü yapay zekâya karşı önyargılı olmakla suçlayan bir makale yazıp yayımladı.

Uzun vadede teknoloji gözlemcileri, yapay zekâ ajanlarının genel kamu tarafından dijital kişisel asistanlar olarak benimsenmesini bekliyor.

Tüketicilerin cihazlarında barındırılan ve çeşitli çevrimiçi hizmetlere entegre edilen bu ajanların, kullanıcıları adına randevu ayarlamak, e-postalara yanıt vermek, idari işleri yürütmek ve hatta tatil planlayıp rezervasyon yapmak gibi görevleri otonom olarak yerine getirebileceği düşünülüyor.

Son derece kişisel

Ancak bu kolaylık vaadi, yapay zekâ ajanlarının hem yüksek derecede otonomiye sahip olmasına hem de insanların yaşamlarına derin erişim sağlamasına bağlıdır.

Yapay zekâ sohbet botları ile ajanlar arasındaki temel farklardan biri, faydalı olabilmek için ihtiyaç duydukları kişisel bilgiye erişim kapsamıdır.

Sohbet botlarının, kullanıcıların yazdığı girdiler aracılığıyla önemli miktarda özel bilgiyle beslendiği kuşkusuzdur; ancak genel olarak kullanıcının dijital yaşamına derinlemesine entegre değillerdir.

Buna karşılık, yapay zekâ ajanlarının kullanıcı adına etkili kararlar alabilmesi ve görevleri yerine getirebilmesi için kişisel veriler de dahil olmak üzere çok geniş bir kullanıcı bilgisine ve çeşitli uygulamaları kullanma izinlerine ihtiyaç duyacağı açıktır.

Teknoloji uzmanı Bill Gates, Kasım 2023’te yapay zekâ odaklı değişim dalgasını ele alan bir yazısında yaklaşan zorluklara dikkat çekerek şu soruyu sormuştur:

“Bu kişisel verilerin uygun şekilde kullanıldığından nasıl emin olabilirsiniz?”

Daha otonom yapay zekâ sistemleri, hâlihazırda sohbet tabanlı yapay zekâyı zorlayan veri koruma sorunlarını daha da ağırlaştıracak gibi görünüyor; çünkü ajanlar, bir görevi yerine getirebilmek için yapay zekânın ne kadar kişisel bilgiye erişebilmesi gerektiği gibi daha zor soruların yanıtlanmasını gerektiriyor.

Avrupa Komisyonu, AB’nin Genel Veri Koruma Tüzüğü’nün (GDPR), diğer tüm kişisel veri işleme faaliyetlerinde olduğu gibi yapay zekâ ajanlarına da tamamen uygulanacağını belirtmiştir.

Ancak ulusal denetleyici kurumlar, yapay zekâ ajanlarının yaratabileceği yeni riskler de dahil olmak üzere bu teknolojiyi yakından izlemektedir.

AB yapay zekâ kuralları daha önce de uyarlanmıştı

AB’nin yapay zekâya özel bir düzenlemesi — Yapay Zekâ Yasası — bulunmaktadır. Ancak ajan tabanlı yapay zekâ araçlarının yetenekleri, yasa hazırlanırken yasa koyucuların dikkate aldığı sistemlerin çoğundan oldukça farklı görünmektedir.

Bu durum, en az bir yasa koyucunun Komisyon’a düzenlemenin şimdiden güncellenmesi gerekip gerekmediğini sormasına yol açmıştır.

Bu ilk kez yaşanan bir durum değildir: AB, güçlü genel amaçlı yapay zekâların yükselişine yanıt olarak, müzakerelerin son aşamalarında Yapay Zekâ Yasası’nı yeniden şekillendirmiştir.

Yeşiller grubundan Avrupa Parlamentosu üyesi Sergey Lagodinsky, geçen sonbaharda AB Teknoloji Komiseri Henna Virkkunen’e yazdığı mektupta, ajanların yasa kapsamında “örneğin içerik üreten veya çevreyi etkileyen kararlar veren sistemler” kategorisine girip girmediğini sormuştur.

Virkkunen yanıtında, yasadaki örnek listesinin sınırlı olmadığını belirterek ajanların kapsam dahilinde olmasının “muhtemel” olduğunu ifade etmiştir.

Hukuki karmaşıklıklar

Buna rağmen bazı yetkililer, yapay zekâ ajanları için özel kurallar gerekip gerekmediğini değerlendirmektedir.

Geçen yıl Komisyon, AB’nin adalet politikası açısından nasıl ilerlemesi gerektiğini tartışmak üzere üye ülkelerden ve çıkar gruplarından hukuk uzmanlarını bir dizi toplantıda bir araya getirmiştir. Bu tartışmaların odak noktalarından biri yapay zekâ ajanlarının etkisi olmuştur.

Özellikle Komisyon’un Adalet ve Tüketiciler Genel Müdürlüğü (DG JUST), yeni teknolojilerin otomatik sözleşmeler alanına “yeni bir nitelik” kazandırdığını savunmuştur; çünkü artık insan müdahalesi olmadan anlaşmalar yapmak giderek mümkün hale gelmektedir.

Ancak bir yapay zekâ bir sözleşme imzalarsa bu hukuken bağlayıcı mıdır?

Bir ajan, kullanıcısından aldığı genel bir talimata dayanarak bir anlaşmaya varabilir — örneğin bir ürün için ne kadar ödemeye razı olacağını ya da görevi yerine getirmek için neyin uygun bir satın alma olduğunu anlık olarak uyarlayabilir.

DG JUST, bu tür bir otonominin tarafların neye onay verdiğini açıkça anlayıp anlamadığını belirlemeyi “zorlaştırdığını” ifade etmiştir.

Ajanlar sorumlu tutulamaz

Bir diğer önemli mesele de bir ajan hata yaptığında hukuken kimin sorumlu olacağıdır.

DG JUST raporuna göre:

“AB hukuk çerçevesi yapay zekâ sistemlerine hukuki kişilik tanımaz. Bu da eylemlerinin bir gerçek veya tüzel kişiye atfedilmesi gerektiği anlamına gelir.”

Ancak sorumlu kişi, ajanı kullanan kullanıcı mı olmalıdır, yoksa sistemi geliştiren yapay zekâ geliştiricisi mi?

Bu soru, yapay zekâ sohbet botları alanında şimdiden gerçek hukuki davalara yol açmıştır.

Örneğin Canada’da bir müşteri, kendisine aslında geçerli olmayan bir indirim vaat eden bir havayolu chatbotuna karşı açtığı davayı kazanmıştır. Havayolu sorumlu tutulamayacağını savunsa da bir idari mahkeme aksi yönde karar vermiştir.

Yapay zekâ sistemleri çoğu zaman “kara kutu” niteliğindedir; kullanıcılar sistemin neden belirli bir şekilde davrandığını tam olarak anlayamaz. 

Buna bir de dijital otonomi eklendiğinde sonuçlar hızla büyüyebilir. Komisyon, geçen Ekim ayında “önemli ekonomik sonuçlar” riskine işaret eden bir örneği dile getirmiştir: bir kullanıcı, yapay zekâ ajanının kredi kartı kullanarak satın aldığı bir ürün için piyasa değerinin 250 katından fazla ödeme yapmıştır.

Yeni kurallara düşük iştah

Yapay zekâ ajanlarına dijital yaşamlarımızda daha fazla serbestlik tanınmasına rağmen ortaya çıkan açık risklere karşın, Kasım ayında yayımlanan bir rapor, AB ülkelerinin yeni kurallar getirilmesine karşı çıktığını ve “düzenleme yorgunluğu”ndan şikâyet ettiğini ortaya koymuştur.

Katılımcılar, bunun yerine mevcut bir Birleşmiş Milletler çerçevesine dayanan “yumuşak hukuk” (soft law) yaklaşımlarının değerlendirilmesi gerektiğini önermiştir.

Ülkelerin bu isteksiz tepkisi şaşırtıcı değildir; zira AB, birçok yönden mevcut yasaları geri çekmesi yönünde baskı altındadır ve yeni düzenlemeler getirmekten kaçınmaktadır.

Bu durum özellikle yapay zekâ için geçerlidir. Yapay zekâ, AB yasa koyucularının geliştirme ve benimsemeyi hızlandırmak amacıyla — yapay zekâların eğitilmesini kolaylaştırmak için uzun süredir yürürlükte olan veri koruma kurallarını gevşetmeyi de içeren — Dijital Omnibus paketinin merkezinde yer almaktadır.

Dikkat çekici bir istisna ise şudur: Parlamento ve Konsey, Elon Musk’ın X platformundaki Grok sohbet botunun kullanıcıları kamuya açık şekilde “soyan” (nudifier) bir skandalın ardından bu tür yapay zekâ araçlarını yasaklayan yeni bir düzenleme üzerinde çalışmaktadır.

Ayrıca yapay zekâ ajanları neredeyse her hafta manşetlere konu olan olaylara yol açmaktadır. 

Bu nedenle, eğer — ya da ne zaman — bu ajanlardan biri yeterince büyük bir kaosa neden olursa, yasa koyucuların bu teknolojiye daha yakından bakmak zorunda kalması muhtemeldir.

 

Euractiv

Yayınlanma: 17.03.2026 20:28
Ana Sayfaya Dön

İlgili Haberler

Benzer konularda diğer haberlerimiz