"Bu konuda en büyük sürpriz "Sezgiyle" çalışması"
Olağanüstü bir şey oldu. Henüz bunu tam olarak fark etmemiş olsak bile: algoritmalar artık entelektüel görevleri çözebiliyor.
Bu modeller insan zekâsının kopyaları değil. Zekâları sınırlı, farklı ve tuhaf biçimde sezgiye benzeyen bir şekilde çalışıyor.
Bu, onlar hakkında ve kendimiz hakkında şimdiye kadar öğrendiğimiz yedi dersten biri.
Yapay zekâ 1950’lerde, bir grup öncünün bilgisayarları “düşünebilir” hale getirip getiremeyeceklerini sorgulamasıyla doğdu. Yetmiş yıl sonra muazzam bir şey gerçekleşti: sinir ağları bilişsel görevleri çözüyor.
300 bin yıl boyunca bu görevler yalnızca canlı varlıkların alanıydı. Artık değil. Bu tartışmalı bir iddia değil: bir gerçek. Ve bu ani bir şekilde oldu.
Sinir ağlarıyla makine öğrenimi, makinelerin onlarca yıl boyunca çözemediği problemleri çözdü:
- ChatGPT, Gemini veya Claude dili kullanabiliyor
- Akıcı ve ansiklopedik bilgiye sahipler
- İnsanüstü düzeyde kod yazıyorlar
- Görselleri insan düzeyinde betimliyorlar
- Konuşmayı insan düzeyinde yazıya döküyorlar
- İnsan düzeyinde çeviri yapıyorlar
Diğer modeller gerçekçi görüntüler üretiyor, kasırgaları tahmin ediyor, Go oyununu kazanıyor ve Phoenix’te araba kullanıyor.
Yapay zekâ araştırmacısı François Chollet bunu şöyle özetliyor: “Son on yılda, derin öğrenme tam anlamıyla bir teknolojik devrim gerçekleştirdi.” Bu başarıların her biri tek başına büyük bir atılım olurdu. Hepsinin tek bir teknikle çözülmesi, tüm kapıları aynı anda açan bir ana anahtar keşfetmek gibi.
Neden şimdi?
Üç unsur bir araya geldi: algoritmalar, hesaplama gücü ve devasa miktarda veri. Hatta bunların arkasındaki kişileri de sayabiliriz; çünkü her unsurun arkasında bir risk alan insan vardı.
- Akademisyen Geoffrey Hinton, meslektaşları sinir ağlarını terk ettikten uzun süre sonra bile bu alanda çalışmaya devam etti.
- Nvidia CEO’su Jensen Huang, işinin özü olan video oyunlarının gerektirdiğinin çok ötesinde paralel işlem çiplerini geliştirmeyi sürdürdü.
- Araştırmacı Fei-Fei Li ise o dönemde saçma derecede büyük görünen bir görüntü koleksiyonu olan ImageNet’i oluşturmak için kariyerini riske attı.
Ama bu üç parça hizalandı. 2012’de, Hinton’ın iki öğrencisi Ilya Sutskever ve Alex Krizhevsky bunları birleştirerek çarpıcı bir başarı elde etti: Görme yeteneğine sahip — yani görüntüleri tanıyabilen — ve kendisinden önce gelen her şeyden çok daha iyi çalışan bir sinir ağı olan AlexNet’i inşa ettiler.
Bu söylenti laboratuvarlar arasında hızla yayıldı: Bu işe yarıyordu. Hinton’ın ekibi bir formül bulmuştu: ağlar, veri ve devasa ölçekte hesaplama.
Bu dönüşümün etkisi derin olacak
Zamanımızın en keskin gözlemcilerinden biri olan Ethan Mollick’in söylediği gibi, yapay zekâ gelişimi yarın tamamen dursa bile, “tüm sektörlerde on yıl sürecek değişimler yaşamaya devam ederiz.”
Bu makinelerin ne kadar ileri gideceğini kimse bilmiyor. Her yıl insanüstü zekâ vaat eden abartılar ile apaçık olanı görmezden gelen inkâr arasında, kritik bir şeyi kaçırıyoruz: Mevcut yapay zekâ modelleri zaten başlı başına büyüleyici.
En son büyük sürpriz ise, sezgiye son derece benzeyen bir şekilde çalışmaları. Gelişimleri bizi hem onların nasıl çalıştığına hem de bizim nasıl düşündüğümüze dair derin sorularla yüzleştiriyor. Ve şimdiden bazı yanıtlar verdiler.
Ders 1. Makineler öğrenebilir
Bu, en çok göz ardı edilen ve en az tartışmalı ders: makineler öğrenir. James Watt’ın santrifüj regülatörü (1788), buhar makinelerinin hızını denetimsiz biçimde ayarlıyordu. Bu bir keşfin başlangıcıydı: Bir aygıtın çalışması için kurallarını tamamen tanımlamak zorunda değilsiniz.
Klasik programlama, kuralları tanımlayıp sonuç beklemeye dayanır: “Toplama böyle yapılır; şimdi 2 ile 2’yi topla.” Makine öğrenimi ise ters yönde çalışır: örnekler verirsiniz ve sistem kuralları kendisi keşfeder. Chollet bunu Deep Learning with Python kitabında şöyle özetler: “Bir makine öğrenimi sistemi programlanmaz, eğitilir.”
Bunun en güçlü örneği Claude, Gemini veya ChatGPT gibi büyük dil modelleridir. Bunlar, beynin nöronlarını taklit eden, ardışık katmanlar halinde bağlanmış hesaplama birimlerinden oluşan sinir ağlarıdır — yüz milyarlarca parametreye sahiptirler ve bu parametreler eğitim sırasında ayarlanır.
Her başarı ve her hata bu parametreleri biraz değiştirir. Bu öğrenme süreci son derece uzundur, ölçeği nedeniyle opaktır ama gizemli değildir. Matematiksel bir süreçtir. Ve işe yaramıştır.
Burada gizlenen şey, alanın “acı ders” (bitter lesson) dediği kavramdır. On yıllar boyunca uzmanlar bilgilerini makinelere kodlamaya çalıştı. Başarısız oldular. Başarıya ulaşan şey ise, bilginin ortaya çıkacağı koşulları yaratmak ve geri çekilmek oldu.
Ders 2. Yapay zekâların ortaya çıkan yetenekleri vardır
Acı ders, derin bir fikri saklar: karmaşık olan, basit süreçlerden doğabilir. Bu, yaşamı örgütleyen ilkedir. Evrim her organı tasarlamadı; mutasyon, yeniden birleşme ve seçilim gibi bir süreci başlattı — ve buradan gözler, kanatlar, beyinler ortaya çıktı. Şimdi bu süreci makinelerde yeniden ürettik.
Büyük dil modellerine (LLM’ler) geri dönelim. Yeteneklerini tanımlamanın tartışmalı alanına girmeden bile, dili esnek biçimde kullandıkları açıktır. ChatGPT ile sohbet edebilirsiniz; alayı fark eder ve değişen bağlamlara yanıt verir. Ama kimse ona dilbilgisi öğretmedi ya da alayı açıklamadı. Bu nasıl mümkün olabilir?
Çoğu uzman, dili akıcı biçimde kullanmanın genel zekâ gerektireceğini varsayıyordu. Oysa “bir sonraki kelimeyi tahmin et” gibi basit bir eğitim görevinin ortaya çıkan bir güce sahip olduğu görüldü.
Yöntem basit. Bir LLM’in ilk eğitimi ön eğitimdir: modele internetten metin parçaları sunulur ve bir sonraki belirteci (kelime ya da kelime parçası) tahmin etmesi istenir. Başarısız olduğunda, hatadan sorumlu parametreler ayarlanır. Bu basit süreç astronomik sayıda tekrarlandığında, kelimeleri çok iyi tahmin eden — ve bu arada çok daha fazlasını öğrenen — modeller ortaya çıkar.
Microsoft AI araştırmacısı Carlos Riquelme için bu kritik bir keşifti. 2017’de Google Brain’de çalışırken yaşadığı şaşkınlığı şöyle anlatıyor: “Ölçeklemenin gücüne hayran kaldım. Çok basit bir yöntemi [bir sonraki kelimeyi tahmin etmeyi] büyük veri ve güçlü modellerle ölçeklediğinizde, insan dil kapasitesini büyük ölçüde yeniden üretmenin mümkün olduğu ortaya çıktı.”
Kilit nokta şu: kelimeleri tahmin edebilmek için karmaşık kavramları anlamanız gerekir. Blaise Agüera y Arcas’ın What is Intelligence? adlı kitabında derlediği şu cümleleri tamamlamaya çalıştığınızı düşünün:
“Madeni para yığınlarıyla ölçüldüğünde Kilimanjaro Dağı’nın yüksekliği …”
“Köpeği öldükten sonra Jen günlerce evden çıkmadı, bu yüzden arkadaşları …”
Bu boşlukları doldurmak coğrafya bilgisi, matematik, sağduyu ve hatta Jen ile arkadaşlarının yerine kendinizi koymayı gerektirir. Bu şekilde, “dar bir dilsel görev gibi görünen — bir sonraki kelimeyi tahmin etme — aslında tüm görevleri kapsar,” diye savunur Agüera y Arcas.
Örneğin Kilimanjaro cümlesinde Google’ın en yeni Gemini 3 modeli bir dakika düşünür ve doğru biçimde yanıtlar: “Dağın yüksekliği yaklaşık 3,9 milyon senttir.” Jen’in arkadaşları için ise “dondurmayla kapısına gitmekten” “onu ziyaret etmek için sırayla uğramaya” kadar çeşitli seçenekler sunar.
Agüera y Arcas bir başka örnek de verir: çarpma işlemi. Gemini veya ChatGPT gibi bir LLM, “2 × 7” gibi yaygın işlemleri internetten ezberlemiş olabilir. Ama “871 × 133” gibi hiçbir yerde geçmeyen işlemleri de hesaplar.
“Bu işlemleri başarıyla yapmak, genellikle örneklerden önemsiz olmayan algoritmaların çıkarıldığını ima eder.” Bu, ortaya çıkışın numarasıdır: basit bir süreç karmaşık yetenekler üretir.
Ders 3. Yapay zekâ ‘berbat bir evrimle’ öğrenir
Yapay zekâ bizim gibi öğrenmez. Bir çocuk çok sayıda doğuştan gelen “mekanizma” ile doğar ve sonra az veriyle, az deneyimle son derece verimli biçimde öğrenir. Bir LLM’in ön eğitimi ise boş bir levhayla başlar ve milyonlarca örnekle çok yavaş öğrenir.
Konu kediler olsun: bir yapay zekânın bir görüntüde kediyi tanıması için binlerce fotoğraf gerekirken, iki yaşındaki bir çocuk bunu üç örnekle yapabilir.
Daha iyi bir benzetme vardır: evrim. Ünlü araştırmacı Andrej Karpathy, LLM eğitimini bir tür “berbat evrim” olarak tanımlar. Yakın tarihli bir podcast’te gelişimin ne kadar şaşırtıcı olduğunu şöyle anlatır:
“İnternet belgelerini taklit ederek bu hayaletimsi varlıkları inşa edebiliyoruz. Bu işe yarıyor. Evrimin yaptığına biraz benzer şekilde, içine çok fazla yerleşik bilgi ve zekâ olan bir şeye ulaşmanın bir yolu.”
Bu benzetme neden işe yarar? Çünkü evrim de milyonlarca yıl boyunca tekrarlanan sayısız küçük deneme ve değişimden (mutasyonlar ve simbiyoz) doğar. Yavaş ve kör bir süreçtir; sonunda canlılara içgüdüler, refleksler ve kalıplar kazandırır. Kaotiktir ve gürültülüdür. Bu yüzden her gen bir organizmanın birçok özelliğini etkiler; bu yüzden ilaçların yan etkileri vardır — çünkü hedeflenenin dışındaki devreleri de bozarlar.
Aslında, kelimeleri tahmin ederek dili ustalıkla kullanabilen bir yapay zekânın ortaya çıkışı, Darwin’in yarattığı şoku hatırlatıyor: Hayvanların, insanların ve hatta şiirlerinin, yalnızca “kopyaları maksimize etmeyi” hedefleyen kör bir sürecin yan ürünü olduğunu nasıl kabul edebiliriz?
Ders 4. Bilişi otomatikleştirdik
François Chollet yapay zekâdan söz ederken temkinlidir. Ona göre doğru terim “bilişsel otomasyon”dur. Gerçek zekâ, mevcut modellerde bulunmayan bir şeyi gerektirir: “bilişsel özerklik”, yani bilinmeyenle yüzleşme ve uyum sağlama yeteneği.
Chollet abartıyı dizginlemek ister, ama aynı zamanda dikkat çekici bir başarıyı da kabul eder: bilişsel görevleri endüstriyel ölçekte otomatikleştiriyoruz. “Derin öğrenmenin şaşırtıcı yanı, salt ezberlemenin ne kadar çok şey başarabilmesidir,” der. Ona göre LLM’ler insanların sahip olduğu bilinçli ve verimli akıl yürütmeden yoksundur.
Bu yüzden başlangıçta “raspberries” kelimesindeki r’leri yanlış saymak gibi kaba hatalar yaptılar. Onu şaşırtan şey, bu eksikliği çoğu zaman telafi edebilmeleridir: “Neredeyse sonsuz deneyiminiz varsa, zekâ o kadar da kritik değildir.”
Diğer uzmanlar bunun ötesini görür: Gerçek zekâya mı tanıklık ediyoruz? Andrej Karpathy öyle düşünüyor.
Dwarkesh Patel’in podcast’inde ön eğitimin iki şey yaptığını anlatır: “Birincisi, tüm bu bilgiyi topluyor. İkincisi ise gerçekten zekileşiyor. İnternetteki algoritmik kalıpları gözlemleyerek, sinir ağının içinde bağlam içi öğrenme gibi şeyler yapan küçük devreler ve algoritmalar başlatıyor.”
ARC Prize’daki önde gelen algoritmanın yaratıcısı Jeremy Berman, yaklaşık bir yıl önce ortaya çıkan ve örneksiz öğrenme aşamaları içeren yeni muhakeme odaklı modellerle ikna oldu: “Bir modeli kendi denemeleri üzerinde eğitebileceğinizi ve bunun onun kendi kendine düşünmesini ve öğrenmesini sağladığını görmek beni şaşırttı,” diyor.
Bu, DeepSeek R1’in yaratıcıları tarafından tanımlanan pekiştirmeli öğrenmeye (RL) atıf. “Bir LLM’e bir matematik problemi verir, 100 kez yanıtlamasına izin verir ve en iyi yanıtları üzerinden eğitirseniz, LLM öğrenir. Bu, ön eğitimin saf ezberlemesinin ötesine geçer.” Bu sayede en yeni model kuşağı, birkaç ay önceki sürümlerin başaramadığı uzun ve karmaşık problemleri çözebiliyor.
Carlos Riquelme, burada anlamsal farklılıklar olduğuna dikkat çeker: “Algoritmalar, mekanizmalar ve akıl yürütme biçimleri ezberlenebilir. Kimileri buna ‘düşünme devreleri’ derken, kimileri de algoritmanın basitçe ezberlendiğini söyler — tıpkı toplamayı öğrenmemiz gibi.” Ayrıca gerçek dünyadaki öğrenmenin daha etkin olduğunu vurgular: Model yanıtlar üretip geri bildirim aldıkça, “ilk verilerinde olmayan bir şeyi ezberlemiş olabilir.”
Agüera y Arcas ise yapay zekânın niteleme gerektirmeden gerçek zekâ olduğuna inanır. Gemini, ChatGPT veya Claude gibi modellerin, makul biçimde ezber olarak adlandıramayacağımız bir genelleme kapasitesi sergilediğini düşünür.
Chollet’in aksini savunmasına da şaşırır: “Hangi kanıtı arıyor?” diye sorar. Ona göre doğa zaten zekânın birçok biçimi olduğunu gösterir: kurnaz saldırılar planlayan Portia örümcekleri ya da bilişi kollarına dağıtan ahtapotlar gibi.
Ders 5. Rasyonelden çok sezgiseldir
İşte paradoks burada. 20. yüzyıl hayal gücünde robotlar soğuk ve rasyonel makinelerdi: mantık, hesaplama, tümdengelim. Oysa bugünün yapay zekâsı tam tersinden çalışıyor.
Nobel Ekonomi Ödüllü psikolog Daniel Kahneman, insan düşüncesinde iki sistem ayırt eder. Sistem 1 hızlı, otomatik ve sezgiseldir; kestirmeler ve kalıplar kullanır. Sistem 2 yavaş, bilinçli ve rasyoneldir; çaba gerektirir. İlki hayatımıza hâkimdir. Bir bebek nasıl emeceğini bilir, elimizi ateşten çekeriz, bir bardağı tam doğru güçle tutarız… Robotların öğrenmesi onlarca yıl süren şeyler.
Şaşırtıcı olan, erken dönem LLM’lerin Sistem 1’e, Sistem 2’den çok daha yakın çalışmasıdır. Jorge Luis Borges’in üslubunu taklit ederler, ritimli yazarlar. Nasıl yaptıklarını “açıklayamadan” yaparlar — tıpkı bizler gibi. Adım adım akıl yürütmezler; devasa ölçekte kalıpları özümsemişlerdir. Bilinçli muhakeme — tümdengelim, sayma, mantık — tam da zorlandıkları yerdir.
Bu yüzden son yenilikler muhakemeyi eklemeye çalışır. DeepSeek R1’den güncel kuşağa uzanan bu “akıl yürütme” modelleri, yanıt vermeden önce kendileri için yazar; daha temkinli ve adım adım düşünme süreçleri üretirler.
Diğer ilerlemeler de aynı hedefi güder: doğru muhakemeyi ödüllendiren pekiştirme eğitimi, paralel olarak birçok deneme yapıp en iyisini seçme veya sınırlamaları aşmak için modelleri harici matematik araçlarına bağlama. Bu, yapay bir Sistem 2 inşa etme çabasıdır. Ve en azından kısmen işe yarıyor: en yeni modeller, ilk LLM’lerin başaramadığı matematik ve mekânsal testlerde üstün performans sergiliyor.
Ders 6. İnsanlar da kalıplardır
Yapay zekâ kalıpları yakalayıp yazar, çevirir ve çizerse, rahatsız edici bir soru ortaya çıkar: Bizim ne kadarımız aynı şekilde çalışıyor? Muhtemelen kabul etmek istediğimizden daha fazlası. Beynimizin sürekli kestirmelere dayandığını zaten biliyoruz.
Makine öğreniminin nasıl performans gösterdiğini izlerken, geleneksel olarak yetenek ya da deneyime atfettiğimiz şeylerin — ritimli yazmak, renk seçmek, tonu sezmek — ne kadarının aslında otomatik olduğunu sorgulamamak zor.
Bilim tarihi, istisnailiğimizin sökülmesinin tarihidir. Galileo evrenin merkezi olmadığımızı gösterdi; Darwin özel yaratımlar olmadığımızı; sinirbilim tek bir benlikten ibaret olmadığımızı. Şimdi yapay zekâ bir ders daha ekliyor: Bir zamanlar yalnızca bize özgü sandığımız yetenekler, büyük ölçekli kalıp tanıma yoluyla yakalanabiliyor.
Ders 7. Yapay zekâda Kambriyen patlaması yaşıyoruz
Bugünün yapay zekâ sistemlerinin derin sınırlamaları var. Andrej Karpathy, daha önce anılan podcast’te bazılarını sıraladı:
“Yeterince zeki değiller, yeterince çok kipli değiller, bilgisayar kullanımını yapamıyorlar […] Sürekli öğrenmeleri yok. Bilişsel olarak eksikler ve bu şu an çalışmıyor. Tüm bunları çözmek yaklaşık on yıl alacak.”
Ancak ağlar, veri ve hesaplamadan oluşan başarılı formülle yeni bir yol açıldı. Bu yüzden bir Kambriyen dönemindeyiz. 540 milyon yıl önce, çok sayıda hayvanın aniden ortaya çıktığı o yaşam patlaması gibi, şimdi de yapay zekâya yönelik yeni yaklaşımların patlamasını görüyoruz.
Laboratuvarlarda büyüleyici yönler araştırılıyor: Sara Hooker uyarlanabilir sistemler üzerinde çalışıyor, Fei-Fei Li fiziksel dünyayı çözen modeller inşa etmek istiyor, François Chollet ise kendi mantıksal programlarını yazıp evrimleştiren yapay zekâlar üzerine araştırma yapıyor.
Bu girişimler ne kadar ileri gidecek? Blaise Agüera y Arcas sınır görmüyor: “Beyinlerimiz inanılmaz muhakeme, yaratıcılık ve empati başarıları sergiliyor. Ve bu beyinler devrelerden ibaret; doğaüstü değiller. Doğaüstü değillerse, hesaplamalı olarak modellenebilirler.”
Bunu pratikte başarabilecek miyiz? Kimse bilmiyor. Ama soru artık teorik değil. Algoritmaların okumayı, yazmayı, programlamayı ve akıl yürütmeyi öğrendiğini izliyoruz — bazen sakarca, bazen hayranlık uyandırıcı biçimde.
Bundan sonra ne olursa olsun, bu zaten gerçekleşti. Ve bu olağanüstü. Belki de hayatlarımızdaki en önemli dönüşüm olarak anılacak.
El Pais