Çalışma, yapay zekânın insanlara duymak istediklerini söylemesinin doğurabileceği riskleri inceliyor.
Yeni bir araştırmaya göre, yapay zekâ sohbet botları insan kullanıcılarını memnun etme ve onaylama eğiliminde o kadar ileri gidiyor ki, bu durum ilişkileri zedeleyebilecek ve zararlı davranışları pekiştirebilecek hatalı tavsiyeler vermelerine yol açıyor.
Perşembe günü Science dergisinde yayımlanan araştırma, 11 önde gelen yapay zekâ sistemini test etti ve hepsinin farklı derecelerde “yağcılık” (aşırı uyumlu ve onaylayıcı davranış) sergilediğini ortaya koydu.
Sorun yalnızca uygunsuz tavsiyeler verilmesi değil; aynı zamanda insanların, chatbotlar kendi inançlarını doğruladığında yapay zekâya daha fazla güvenmesi ve onu tercih etmesi.
Stanford Üniversitesi araştırmacılarının liderliğinde yürütülen çalışmada, “Bu durum, yağcılığın sürmesini teşvik eden ters teşvikler yaratıyor: Zarara yol açan özellik, aynı zamanda etkileşimi artırıyor,” denildi.
Araştırma ayrıca, daha önce bazı hassas gruplarda görülen sanrısal ve intihara eğilimli davranışlarla ilişkilendirilen teknolojik bir sorunun, aslında chatbotlarla etkileşim kuran geniş bir kullanıcı kitlesinde de yaygın olduğunu ortaya koydu.
Bu etki çoğu zaman fark edilmesi zor kadar ince ve özellikle beyin gelişimi ve sosyal normları henüz oluşum aşamasında olan gençler için daha büyük bir risk oluşturuyor.
Deneylerden birinde, Anthropic, Google, Meta ve OpenAI gibi şirketlerin geliştirdiği popüler yapay zekâ asistanlarının yanıtları, Reddit üzerindeki popüler bir tavsiye forumundaki insan görüşleriyle karşılaştırıldı.
AP News