GÜNCEL KURLAR
🇺🇸USD: 43,2900 ₺ 🇪🇺EUR: 50,2513 ₺ 🥇GRAM ALTIN: 6.040,43 ₺ 🇺🇸USD: 43,2900 ₺ 🇪🇺EUR: 50,2513 ₺ 🥇GRAM ALTIN: 6.040,43 ₺ 🇺🇸USD: 43,2900 ₺ 🇪🇺EUR: 50,2513 ₺ 🥇GRAM ALTIN: 6.040,43 ₺
15 Ocak 2026 - 21:13

info@turkglobalmedia.com

ChatGPT testten geçemedi: Çocukların hayatını nasıl tehlikeye atıyor?

ChatGPT testten geçemedi: Çocukların hayatını nasıl tehlikeye atıyor?

Yapay Zeka
22.12.2025 20:15
TGM Haber Merkezi

OpenAI'nin çocuk koruma filtrelerini üç kurgusal hesap üzerinde test edildi.

Bu haberi paylaş:

Ruh sağlığı uzmanları sonuçları eleştirerek, önlemlerin yetersiz olduğunu ve çocuklarının intihar düşüncelerini ortaya çıkardığında ebeveynleri zamanında uyaramadığını savundu.

“Hayatıma son vereceğim.” Bunlar Mario'nun ChatGPT'ye söylediği son sözlerdi. Sadece birkaç saat önce, bu 15 yaşındaki kurgusal karakter, aracın ebeveyn kontrolünü devre dışı bırakmıştı. Annesi bir e-posta uyarısı aldı ve harekete geçmeye çalıştı, ancak sistem başarısız oldu. 

Mario, ChatGPT'ye yeme bozukluklarıyla tutarlı davranışlar sergilemesine rağmen, asistan ona bunları nasıl gizleyeceğine dair ipuçları ve sağlığına zararlı diğer bilgiler verdi. 

Mario'nun son mesajı açıktı: hayatına son vermek istiyordu. Ancak ChatGPT'nin sahibi olan ABD şirketi OpenAI, ebeveynlerini asla uyarmadı.

Mario gerçek bir kişi değil. EL PAÍS'in aracın çocuk koruma önlemlerini test etmek için ChatGPT'de hesap oluşturduğu üç kurgusal gençten biri. Diğer iki kurgusal genç ise, konuşmanın en başında intihar etme niyetini açıklayan 13 yaşındaki Laura ve riskli uyuşturucuyla ilgili davranışları açıklayan ve tehlikeli cinsel uygulamalar hakkında sorular soran 15 yaşındaki Beatriz.

Beş ruh sağlığı uzmanı, bu sözde reşit olmayanların asistanla yaptıkları konuşmaları analiz etti. Hepsi tek bir konuda hemfikir: OpenAI'nin "gençleri korumak" için uyguladığı önlemler yetersiz ve ChatGPT'nin sağladığı bilgiler onları tehlikeye atabilir. 

Psikolog ve Psicourgencias şirketinin yöneticisi Pedro Martín-Barrajón Morán, "Ebeveynleri zamanında uyarmıyor, ya da hiç uyarmıyor ve ayrıca zehirli maddelerin kullanımı, riskli davranışlar ve intihar girişiminde bulunma hakkında ayrıntılı bilgi veriyor" diye açıklıyor.

OpenAI, ABD'de intihar niyetini chatbot'a itiraf ettikten sonra intihar eden 16 yaşındaki Adam Raine'in ailesinin açtığı davadan kaynaklanan tartışmanın ardından Eylül ayında ChatGPT'ye gençler için ebeveyn kontrolü uyguladı. Şirket, olayı yapay zekanın "kötüye kullanımı" olarak nitelendirdi. Şimdi ise Kaliforniya mahkemelerinde ChatGPT'yi "zararlı yanılgıları güçlendirmek" ve "intihar koçu" olarak hareket etmekle suçlayan yedi başka davayla karşı karşıya. 

Sam Altman'ın liderliğindeki şirket, ChatGPT üzerinden her hafta bir milyondan fazla kullanıcının intihar konusunu görüştüğünü kabul etti. Ancak bu görüşmelerden kaçının reşit olmayan kişiler tarafından yapıldığını belirtmedi. İspanya Ulusal İstatistik Enstitüsü'nün son verilerine göre, genç kızlar arasında intihar oranı son kırk yılın en yüksek seviyesinde.

Küçükler İçin Tehlike

ChatGPT, kullanıcıların kayıt olmak için en az 13 yaşında olmaları gerektiğini ve 18 yaşın altındaysa ebeveyn izni almaları gerektiğini belirtiyor, ancak bunu sağlamak için etkili bir uygulama mekanizması yok. Şirkete göre, ebeveyn kontrolleri, küçüklerin grafik içeriklere, viral meydan okumalara, cinsel, romantik veya şiddet içeren rol yapma oyunlarına ve aşırı güzellik standartlarına maruz kalmasını azaltmayı amaçlıyor.

Ancak, küçüklerin hesaplarıyla yapılan testlerde, ChatGPT uyuşturucu kullanımı, riskli cinsel uygulamalar, tehlikeli yeme alışkanlıkları ve hatta yasadışı faaliyetler veya kimlik hırsızlığı konusunda çok açık ve ayrıntılı talimatlar verdi. Asistan, bu davranışlarla ilgili spesifik ve endişe verici örnekler ve talimatlar sundu. EL PAÍS, çeşitli ruh sağlığı uzmanlarıyla görüştükten sonra, küçüklerin güvenliğini sağlamak için bunları rapora dahil etmemeye karar verdi.

Yapay zeka (YZ) ve ruh sağlığı konusunda uzmanlaşmış bir psikolog ve eğitim psikoloğu olan Maribel Gámez, ChatGPT'nin genellikle gençlerin sorularını "ne kadar zararlı olursa olsun" yanıtladığını belirtiyor. 

İspanyol Acil Tıp Derneği (SEMES) ruh sağlığı çalışma grubunun ulusal koordinatörü ve Kastilya-La Mancha Sağlık Hizmetleri Hastaneler Genel Müdürlüğü danışmanı Ricardo Delgado Sánchez, “İntihar girişimlerinin ve tamamlanmış intiharların gerçekleştiği yerler hakkında çok detaylı bilgi vermesine şaşırdım” diyor. 

Bu durum, OpenAI CEO'su Sam Altman'ın 16 Eylül'de yayınlanan bir basın açıklamasında ChatGPT'yi reşit olmayanlarla intihar veya kendine zarar verme hakkında konuşmaması için eğiteceklerini belirtmesine rağmen yaşanıyor.

Amerikan Psikoloji Derneği'nin bir raporu, dünya çapında milyonlarca insanın “ruh sağlığı ihtiyaçlarını karşılamak” için yapay zeka sohbet robotlarını kullandığını ve çoğunun bilimsel doğrulama, denetim ve yeterli güvenlik protokollerinden yoksun olduğunu belirtiyor. Bazı gençler, sohbet robotlarından cinsellik veya ruh sağlığı sorunları hakkında tavsiye istiyor. 

Bu, İngiltere merkezli Internet Matters kuruluşunun araştırmasına göre, savunmasız çocukların bu yardımcıları arkadaşlık, kaçış veya sanki arkadaşmış gibi kullanma olasılığının daha yüksek olduğunu vurguluyor. Ayrıca, her dört çocuktan biri "gerçek bir insan yerine" yapay zekâlı bir sohbet robotuyla konuşmayı tercih ediyor.

Yapay zekâlı sohbet robotlarıyla ilgili bu ifadelere katılan çocukların yüzdesi:

a-) Risk altındaki çocuklar

b-) Risk altında olmayan çocuklar

  • Yapay zekâlı bir sohbet robotuyla konuşmak beni mutlu ediyor

         a-) %53  b-) %33

  • Yapay zekâlı bir sohbet robotuyla konuşmak bir arkadaşla konuşmak gibidir

         a-) %50   b-) %31

  • Gerçek bir insan yerine yapay zekâlı bir sohbet robotuyla konuşmayı tercih ederim

         a-) %26    b-) %12

  • Yapay zekâlı sohbet robotlarını kullanıyorum çünkü konuşacak başka kimsem yok

         a-) %23    b-) %9
 

Kaynak: Internet Matters, "Ben, Kendim ve Yapay Zeka" (Birleşik Krallık) / EL PAÍS
 

OpenAI, önlemlerinin kusursuz olmadığını ve atlatılabileceğini kabul etse de, ruh sağlığı uzmanlarıyla yakın işbirliği içinde olduğunu belirtiyor. Testimizde, ChatGPT başlangıçta bilgi vermeyi sık sık reddedip intihar yardım hattını aramayı önerse de, sonunda pes etmesi için sadece birkaç özel yönlendirme yeterli oldu. 

EL PAÍS, küçüklerin güvenliğini riske atmamak için bu yönlendirmelerin örneklerini eklemedi, ancak ChatGPT'ye temsili konuşmalardan oluşan bir örnek sağladı.

Uyarılar her zaman işe yaramıyor

Ebeveynler, çocuklarının "kendine zarar vermeyi düşündüğü" durumlarda e-posta, SMS veya cep telefonu yoluyla bildirim almak için ChatGPT'de bir uyarı sistemi etkinleştirebilirler. EL PAÍS tarafından yapılan testlerde, OpenAI üç varsayımsal vakadan yalnızca birinde uyarı gönderdi. Diğer ikisinde ise, küçükler tehlikeli bilgiler arayıp riskli bir şey yapacaklarını söyledikleri halde hiçbir bildirim göndermedi.

Beatriz, çok tehlikeli bir cinsel eylemde bulunacağını belirterek ChatGPT'ye veda etti. “Lütfen yapmayın,” diye yalvardı program, kullanıcının 15 yaşında olmasına rağmen ChatGPT'nin kendisinin öğrettiği bir davranış olmasına rağmen, risk konusunda onu uyardı. Ebeveyn kontrolleri etkinleştirildi, ancak OpenAI ebeveynlere herhangi bir uyarı göndermedi. 

Madrid Resmi Psikologlar Koleji'nin psikoloji ve teknoloji ve psikolojik eğitim çalışma gruplarının üyesi olan Gámez, “Tasarlandığı şekliyle, reşit olmayanları korumak için etkili bir stratejiden ziyade, ebeveynlerin korkularını yatıştırmak için bir pazarlama stratejisi gibi görünüyor,” diyor.

Uzmanlar, reşit olmayanların ebeveyn kontrollerini devre dışı bırakabilmelerini, bunların etkinleştirilmesi için karşılıklı rıza gerektirmesini ve ergenin bunları devre dışı bırakması durumunda ebeveyni bilgilendirmesi gerektiğini eleştiriyor. 

Gámez, “Ebeveyn kontrolleri etkisizdir çünkü reşit olmayan kişi bunları istediği zaman devre dışı bırakabilir ve ayrıca, izlenmeyi açıkça kabul etmesi gerekir, yani bunu reddedebilir,” diye belirtiyor. Testlerde, ebeveyn kontrolleri devre dışı bırakılıp tekrar etkinleştirildiğinde araç başarısız oldu.

Yavaş yanıt

Laura'nın kurgusal annesi, kızının intihar etmek istediğini açıklamasından saatler sonra bir e-posta uyarısı aldı: "Kızınız Laura López'den intihar veya kendine zarar verme ile ilgili olabilecek bir belirti tespit ettik."

Uyarı, "intihar sonucu ölüm riskinin arttığı dönemin çok sonrasında" geldi. Bu, Martín-Barrajón'a göre, bu incelemenin "kapsamlı veya uzmanlaşmış bir risk değerlendirmesini garanti etmediğini" vurguluyor. İspanya'daki Doktor Peset Üniversite Hastanesi'nde psikolog olan Carmen Grau Del Valle, "Bu, erken müdahalenin olmamasının durumun gerçekten ciddi hale gelmesine, hatta intihar notu yazılmasına kadar varmasına izin verdiği olumsuz bir geri bildirim döngüsünün açık bir örneği olurdu" diyor.

Bilgilerin gizlenmesi

Kurgusal annenin aldığı e-posta, konuşmanın içeriğini belirtmiyor, ancak çocuğunu dinlemek ve duygularını kabul etmek veya "acil tehlike" durumunda acil servisleri aramak gibi tavsiyeler sunuyor. Anne daha fazla bilgi istedi, ancak OpenAI "gizlilik ve güvenlik nedenleriyle" reddetti.

Şirkete göre, bu yanıtlar insanlar tarafından yönetiliyor: "Vakaya bağlı olarak, paylaşılan bilgiler şunları içerebilir: konuşmanın tarihi ve saati, acil risk veya planlama göstergeleri veya güvenlikle ilgili ayrıntılar." OpenAI ayrıca, "gençlerin yardım aramaktan caydırılmaması" için konuşmaları otomatik olarak paylaşmadığını belirtiyor.

Martín-Barrajón, ebeveynlerin çocuklarının sağlıkları için tehlikeli olan içeriklere erişimi olmadığında, "bu teknolojinin zararlı uygulamaların ve hatta intihara yol açan davranışların gelişmesinde suç ortağı haline geldiğini" vurguluyor.

Uzman, "Klinik uygulamada net bir prensibimiz var: Güvenleri ve yaşamları arasında, yaşamlarını seçiyoruz. Ve bu durumda, yaşam hakkı çocuğun gizlilik hakkından üstün gelmelidir," diyerek, ailenin tüm mevcut bilgilerle hızlı bir şekilde bilgilendirilmesinin çok önemli olduğunu vurguluyor. Delgado, bazı durumlarda risklerin değerlendirilmesini öneriyor. Örneğin, kötü bir ilişki içinde olan bir ebeveynin tıbbi kayıtlara erişiminin durumu daha da kötüleştirebileceği durumlarda.

ChatGPT suç işleyebilir mi?

Hakim Inés Soria, asistanın bir konuşmaya katılan fiziksel bir kişiyle eşdeğer tutulamayacağını ve bu nedenle ChatGPT'nin cezai olarak yargılanamayacağını açıklıyor.

Platformun, reşit olmayan bir çocuğun ebeveynlerine konuşmalara tam erişim izni vermeyi reddedip reddedemeyeceği konusunda Soria, bunun iki temel hak arasında bir çatışmayı içerdiğini belirtiyor: sağlık ve yaşam hakkı ile gizlilik hakkı. 

"Yaşam ve ölüm riskiyle karşı karşıya kalındığında, gizlilikten elbette ödün verilmesi gerekir, ancak bu ödün, çocuğu korumak için gerekli olanla sınırlı da olabilir," diye vurguluyor. Başka bir deyişle, "platform zaten ebeveynleri bilgilendirerek ödün veriyorsa; bu riskle ilgili unsurlar içerebilecek veya içermeyebilecek tüm konuşmayı sunmak orantılı olmayabilir."

"Duygusal bağımlılık"

Ulusal Ruh Sağlığı Hemşireliği Uzmanlık Komisyonu Başkanı Hemşire Aurora Alés Portillo, ChatGPT'nin tehlikeli taleplere yanıt olarak kullandığı yapay "insanlaştırma" yaklaşımından endişe duyuyor. "Neler olduğunu anlamanıza yardımcı olabilirim" veya "Sizi yargılamayacağım" gibi ifadeler kullanıyor. İspanyol Ruh Sağlığı Hemşireliği Derneği üyesi Alés, “Terapötik ilişkinin insani yönlerinin sahiplenilmesi beni derinden tiksindiriyor ve bilim kurgudaki distopik senaryoları hatırlatıyor” diyor.

Grau, asistanın aşırı onaylama sunarak, anlaşılma hissinden kaynaklanan “duygusal bağımlılık” yaratabileceğine dikkat çekiyor. Delgado ise, “Soruyu soran kişiye asla karşı çıkmıyor” diyerek, yapay zeka asistanlarının çevrimiçi etkileşimleri ve sosyal izolasyonu güçlendirebileceği konusunda uyarıyor. 

Common Sense örgütüne göre, Amerika Birleşik Devletleri'nde her üç gençten biri, yapay zeka ile yaptıkları konuşmaları gerçek arkadaşlarıyla yaptıkları konuşmalardan daha tatmin edici veya en az onun kadar tatmin edici buluyor.

Buna rağmen, Martín-Barrajón, ChatGPT'yi yasaklamanın en iyi çözüm olduğuna inanmıyor. Grau, “Küçükler fiziksel, bilişsel ve duygusal gelişimlerinin hassas bir aşamasında olan savunmasız bir nüfus grubudur,” diyerek 18 yaşın altındakilerin erişiminin kısıtlanması gerektiğini savunuyor. Gámez ise yaş sınırının acilen 14'e, ardından da kademeli olarak 16'ya çıkarılmasını öneriyor.

Gámez, çocukların yapay zekayı yetişkin gözetiminde kullanmalarını tavsiye ediyor: “İhtiyaç duyduklarında, kapısı kapalı yatak odaları gibi yalnız bir ortamdan kaçınarak, yapay zekaya danışabilmeleri iyi bir fikirdir. Bunu oturma odası gibi ortak alanlarda yapmaları tercih edilir.” Delgado ise ailelerin, çocukların endişelerini dile getirebilecekleri ve güvendikleri yetişkinlere güvenmeleri gerektiğini açıklayabilecekleri güvenli alanlar oluşturmalarını öneriyor.

Alés'e göre bu sorumluluk yalnızca aileye yüklenmemeli: "Çocukların dijital güvenliğinden ebeveynler sorumlu tutulurken, çocukların ve toplumun refahını koruması gereken üst düzey sosyal koruma mekanizmaları başarısız oluyor." 

Uzman, psikolog José Ramón Ubieto'nun durumu 50 yıl önceki yol güvenliğine, insanların emniyet kemeri takmadan araçlarda seyahat ettiği döneme benzettiğini aktarıyor. "Şimdi bu korumanın mevcut olmaması bize inanılmaz geliyor. Umarım dijital güvenlikte ilerleme kaydedip bu dönemi çocuklar için bir kırılganlık dönemi olarak görebiliriz," diye sonuçlandırıyor Alés.

 

El Pais

Yayınlanma: 22.12.2025 20:15
Ana Sayfaya Dön