GÜNCEL KURLAR
🇺🇸USD: 44,4444 ₺ 🇪🇺EUR: 51,2821 ₺ 🥇GRAM ALTIN: 6.201,51 ₺ BTC: 2.958.700 ₺ 🇺🇸USD: 44,4444 ₺ 🇪🇺EUR: 51,2821 ₺ 🥇GRAM ALTIN: 6.201,51 ₺ BTC: 2.958.700 ₺ 🇺🇸USD: 44,4444 ₺ 🇪🇺EUR: 51,2821 ₺ 🥇GRAM ALTIN: 6.201,51 ₺ BTC: 2.958.700 ₺
29 Mart 2026 - 23:44

info@turkglobalmedia.com

“Gerçek gibi hissediyorlar”

“Gerçek gibi hissediyorlar”

Teknoloji
28.03.2026 23:57
TGM Haber Merkezi

Siyasi deepfake’ler, insanlar gerçek olmadığını bilse bile etkisini artırıyor

Bu haberi paylaş:

Araştırmacılara göre, insanlar – örneğin askeri bağlamda kadınlar – üzerine üretilen yapay zekâ görselleri hem para kazandırıyor hem de propaganda işlevi görüyor.

Yapay zekâ araştırmacılarına göre, çevrimiçi içerik üreticileri yalnızca tanınmış kamu figürlerinin sahte görüntü ve videolarını oluşturmakla kalmıyor, aynı zamanda tamamen uydurma kişiler yaratıp onları askeri bağlamlarda kullanıyor. 

Bu da hem gelir elde etmelerini sağlıyor hem de etkili bir propaganda aracı olabiliyor.

Uzmanlara göre, bu çevrimiçi avatarların bazıları kamuflaj kıyafetleri giyen kadınların cinselleştirilmiş görüntülerinden oluşuyor. 

Bu içerikler geniş bir izleyici kitlesi oluşturdu ve izleyici bunun gerçek olmadığını bilse bile Donald Trump gibi siyasi figürlerin idealize edilmiş bir imajını yaratmaya yardımcı oldu.

Purdue Üniversitesi’nde teknoloji politikası yardımcı doçenti ve Governance and Responsible AI Lab (Grail) eş direktörü Daniel Schiff, “Siyasi karikatürlerle gerçeklik arasındaki çizgiyi bulanıklaştırıyoruz,” dedi. 

“Birçok insan bu görüntülerin, videoların ya da anlattıkları hikâyelerin doğru gibi hissettirdiğini düşünüyor.”

Grail veritabanına göre, son yıllarda siyasi deepfake sayısı dramatik biçimde arttı

2025’in başından bu yana kuruluş, tanınmış siyasi figürler ile politik açıdan önemli sosyal meseleler ve olayları içeren sahte görüntü veya videoların yer aldığı 1.000’den fazla İngilizce sosyal medya paylaşımını kaydetti.

Önceki sekiz yılın tamamında ise toplam 1.344 benzer olay kaydedilmişti.

Schiff’e göre bu artışın büyük ölçüde nedeni, üretken yapay zekâ teknolojisinin gelişmesi ve bu tür içeriklerin hızlıca oluşturulabilmesi.

İnsan haklarına odaklanan ve aldatıcı yapay zekâ ile mücadele eden Witness kuruluşunun icra direktörü Sam Gregory, “Oldukça gerçekçi görünen bir sahne oluşturmak ve gerçek kişileri bu sahnelere yerleştirmek artık son derece kolay hale geldi,” dedi.

Ancak gerçek kişileri değil de sıradan insanları taklit eden sahte avatarlar farklı bir mesele oluşturuyor.

Üniformalı yapay zekâ kadınlar, Trump ve… ayak fotoğrafları?

Fast Company’ye göre, Aralık 2025’te ABD askeri üniformasıyla sıkça görülen, yapay zekâ tarafından oluşturulmuş sarışın bir kadın olan Jessica Foster adına açılan bir Instagram hesabı aktif hale geldi. 

Hesapta Foster’ın koğuşta ranza üzerinde, bir ofis sandalyesinde ayaklarını masaya koymuş halde ve Trump’ın yanında topuklu ayakkabılarla pistte yürürken çekilmiş görüntüleri paylaşıldı.

İçerik üreticileri bu ayakkabıları bilinçli olarak kullandı ve ayaklarının belirgin şekilde görünmesini sağladı.

Gerçek bir kişi olmayan Foster’ın görüntüleri Instagram’da 1 milyondan fazla takipçi çekti.

Paylaşımlar daha sonra genellikle pornografik içerik üreticileri tarafından kullanılan OnlyFans platformundaki bir hesaba bağlandı; burada kullanıcılar Foster’a ait olduğu iddia edilen ayak fotoğraflarını satın alabiliyordu.

Washington Post’a göre bir kullanıcı Instagram’da “Neden ASLA cevap vermiyorsun?” diye sordu.

Bu hesap son günlerde kaldırıldı.

Gregory, “Yapay zekâ üretiminin büyük bir kısmı tıklama ve para kazanmak ya da insanları daha kazançlı bir platforma yönlendirmek için yapılıyor,” dedi.

Ancak bu tür araçlar siyasi amaçlara da hizmet edebiliyor. BBC’ye göre İran’daki savaş sırasında sosyal medyada “Habibi, İran’a gel” diyen sahte kadın İran askerlerini gösteren çok sayıda video yayıldı.

Bu içeriklerin sahte olduğunu gösteren ipuçlarından biri, İran’da kadınların muharip rollerde görev yapmasının yasak olmasıydı.

İçerik üreticileri ayrıca TikTok’ta 26.000’den fazla takipçisi olan yapay zekâ üretimi bir kadın polis karakteri de oluşturdu. 

Bir videoda bu karakter gülümserken şu metin yer alıyordu: “Başkan Trump ülkeden 2,5 milyondan fazla insanı sınır dışı etti. Buna mı oy verdiniz? Evet.”

Bu video 200’den fazla beğeni ve 23 yorum aldı; yorumlardan biri “kesinlikle evet” şeklindeydi.

2024 seçimleri sırasında Trump da, Taylor Swift hayranlarının kendisini desteklediğini gösteren yapay zekâ üretimi görüntüler paylaşmıştı. 

Grail veritabanına göre 2024’ten bu yana Trump ve Beyaz Saray sosyal medyada en az 18 deepfake içerik paylaştı.

Ancak sorun yalnızca sağ kesimle sınırlı değil. 

2028’de başkanlığa aday olması beklenen California Valisi Gavin Newsom da Trump’a yönelik deepfake içerikler paylaşmaya başladı; bunlar arasında Trump’ın Jeffrey Epstein’ın hologramına gülümsediğini gösteren bir görüntü de yer alıyor.

Yapay zekâ araştırmacılarına göre, siyasi deepfake’ler tüketiciler gerçek olmadığını bilse bile ikna edici olabiliyor. 

Gregory, Foster örneği için “Topuklu ayakkabılarla askeri üniforma içinde yürüyor, rozetleri tamamen yanlış. Trump ve Nicolás Maduro ile birlikte olması için hiçbir neden yok,” dedi.

“Bunların hiçbiri mantıklı değil ya da incelendiğinde tutarlı değil. Ancak insanlar her zaman gerçek olanı aramıyor; inançlarını temsil eden şeyleri arıyor.”

Brooking Enstitüsü’nde yapay zekâ ve yeni teknolojiler girişiminde görevli Valerie Wirtschafter’a göre, bu durum insanların mevcut inançlarını yeniden gözden geçirme olasılığını azaltıyor.

Wirtschafter, deepfake’lerin “insanların doğru olduğuna inandıkları şeyleri yeniden değerlendirmek yerine pekiştiren sürece eklenen bir katman” olduğunu söyledi.

“Bir nevi troll çiftliği gibi”

Araştırmacılar durumun daha da kötüleşebileceğinden endişe ediyor. 

Science dergisinde yayımlanan yakın tarihli bir çalışmaya göre, Foster’ı oluşturmak için kullanılan teknoloji, “otonom şekilde koordine olabilen, topluluklara sızabilen ve etkin biçimde sahte fikir birliği üretebilen” “yapay zekâ sürüleri” oluşturmak için de kullanılabilir.

Wirtschafter, “Artık insanlara ihtiyaç duymayan bir troll çiftliği gibi,” dedi.

Ancak araştırmacılar, kötü niyetli aktörlerin yapay zekâyı toplumu istikrarsızlaştırmak için kullanmasının hâlâ engellenebileceğini belirtiyor.

Content Provenance and Authenticity Coalition, grubun açıklamasına göre “yayıncıların, içerik üreticilerinin ve kullanıcıların dijital içeriğin kökenini ve yapılan düzenlemeleri belirlemesine olanak tanıyan teknik bir standart” geliştirdi.

Gregory, bunun “kamera ile çekilen bir fotoğrafa ya da bir yapay zekâ aracıyla oluşturulan veya düzenlenen içeriğe gömülü ve daha sonra bir platformda dağıtılan, kriptografik olarak imzalanmış bir meta veri seti” olduğunu söyledi.

Gregory’ye göre teknoloji şirketlerinin daha sonra bu bilgiyi kullanarak içeriğin yapay zekâ içerip içermediğini etiketlemesi gerekiyor.

LinkedIn, Pinterest, TikTok ve YouTube, yapay zekâ ile oluşturulan içerikleri etiketleme taahhüdünde bulundu. 

Ancak Indicator adlı bir medya kuruluşundan bir araştırmacı, bu platformlara 200 yapay zekâ üretimi görüntü ve video yükleyerek gerçekten etiketlenip etiketlenmediklerini test etti. 

En titiz olan LinkedIn ve Pinterest bile bu içeriklerin yalnızca %67’sini etiketledi; Instagram ise 105 sahte görüntünün sadece 15’ini işaretledi.

Meta’nın denetim kurulu, şirketin bu standartları “tutarsız şekilde uyguladığına” ve “kendi yapay zekâ araçlarıyla üretilen içeriklerin bile yalnızca bir kısmının doğru şekilde etiketlendiğine” dair raporlardan endişe duyduğunu açıkladı.

Gregory, bu tutarsız etiketlemenin büyük teknoloji şirketlerinin üst düzeylerinde “siyasi irade eksikliğinden” kaynaklandığını söyledi.

“Gerçek ile sentetik olanı ayırt etme yeteneğimizden vazgeçmemize gerek yok. ama hızlı hareket etmemiz gerekiyor.” dedi. 

 

The Guardian

Yayınlanma: 28.03.2026 23:57
Ana Sayfaya Dön