Ana Fikir #61
Yapay Zekanın Kara Kutusunu Aydınlatmak
Üç yaşında bir çocuğun, Albert Einstein gibi evreni yeniden şekillendiren bir fizik dehası ya da atom bombasının arkasındaki etik açıdan şaibeli bilim insanı J. Robert Oppenheimer gibi süper zeki bir sürü aklı yönetmekle görevlendirildiğini hayal ederek başlayalım bu sayıya.
Yakın gelecekte insanoğlu yapay zeka karşısında 3 yaşındaki bir çocuğun çaresizliğine düşebilir…
Bizden katbekat zeki sistemleri yönetmeye çalışacağız ve dünya üzerinden hiçbir insan şu an bunun nasıl başarabileceğini bilmiyor…
Sizin de tüyleriniz diken diken olmuyor mu?
Buraya nereden geldik önce onu açıklayayım. Son birkaç yıldır bizi şaşkınlıklar içinde bırakan yapay zeka destekli büyük dil modellerinin tam olarak nasıl çalıştığını hiç kimse bilmiyor. Tam bir kara kutu.
Bu modellerin içindeki mekanizmaları — aynen beynimizin nasıl çalıştığını çözemediğimiz gibi — henüz bilmiyoruz.
“Henüz” kelimesi biraz iyimser kalmış olabilir. Keza hiçbir zaman bilemeyebiliriz.
Bu sistemler daha da karmaşıklaştıkça, bu gizemli halleri hem hayranlık uyandırıyor hem de alarm zillerini çaldırıyor.
Anthropic’in CEO’su ve yapay zeka araştırmalarında önde gelen isimlerden Dario Amodei, tüm yapay zeka geliştiricilerine “yorumlanabilirlik” üzerine odaklanma çağrısı yapıyor. Yani bu sistemlerin girdileri nasıl işleyip, hangi yöntemle çıktılar ürettiğini çözmemiz gerektiğini söylüyor.
İnsan kapabilitesini aşan yapay zeka modellerine doğru koştura koştura gittiğimiz bir dünyada, bu mekanizmaları anlamak sadece bilimsel bir merak değil; güvenlik, hesap verebilirlik ve barış için bir zorunluluk.
Yapay zeka, bir zamanlar sadece akademik bir alandı. Son 2 yılda bir anda küresel ekonominin ve jeopolitiğin temel taşlarından biri haline geldi. Endüstrileri devrimleştirebilecek potansiyeli var, ama yanlış yönetilirse beklenmedik sonuçlar doğurabilir.
Amodei, eğer yapay zekanın iç mantığını, insan zekasını aşmadan önce çözemezsek, onu kontrol etme, hatta anlama yeteneğimizi tamamen kaybedebileceğimiz konusunda uyarıyor.
Laplace’ın Hayalinden Yapay Zekanın Bilinmezine
Bilimsel yöntem, evrenin sırlarını çözmek için insanlığın temel taşı oldu ve yazılım geliştirmenin de zeminini hazırladı.
Gözlem, hipotez ve deney üzerine kurulu bu yaklaşım, bize net nedenlerin öngörülebilir sonuçlar doğurduğu sistemlere derin bir güven duymamıza neden oldu.
Bu özgüvenin hangi noktaya geldiğini, 18. yüzyılda yaşamış dahi matematikçi Pierre-Simon Laplace’ın alttaki sözü çok iyi özetler;
“Bana evrendeki her atomun yerini söyleyin, size geleceği anlatayım. Evrenin tüm güçlerini ve tüm varlıkların konumlarını anlayabilen bir canlı için hiçbir şey belirsiz değildir. Gelecek, aynı geçmiş gibi, onun gözlerinin önündedir.”
Bilim insanları ve mühendisler bu felsefeyi benimseyerek “yazılım” dediğimiz şeyi düzenledi. Deterministik düşüncenin mantıksal bir uzantısı olarak tasarladılar.
İlk yazılımlar, fiziksel bir saatin hareketi kadar kesin sonuçlar veren şeffaf makinelerdi.
Ama bugün yapay zeka, bu paradigmayı altüst etti; Laplace’ın öngörülebilirlik hayalini karmaşık bir bilmeceyle dönüştürdü ve evreni algılayışımızı tekrar ters-düz etti.
Yazılım Eskiden Neydi?
Kural Tabanlı Tasarım: Programcılar net talimatlar yazardı. “Eğer A olursa, B çalışır” gibi. Her girdinin öngörülebilir bir çıktısı olurdu. Mesela, bir hesap makinesi “2 + 2”yi her zaman “4” olarak verirdi, çünkü kural koda gömülüydü.
Şeffaflık: Geliştiriciler programın mantığını adım adım izleyebilir, hataları tasarladıkları kuralları takip ederek düzeltebilirdi. Bu netlik, bankacılık yazılımlarından uzay aracı navigasyonuna kadar güvenilir sistemleri mümkün kıldı.
Bilimsel Kökenler: Bilimsel yöntemin nedensellik ve tekrarlanabilirlik vurgusu, belirlenimci kodlamayı sezgisel hale getirdi. Bilim insanları, tıpkı Laplace’ın evreni öngörebileceği gibi, bir programın davranışını teorik olarak tahmin edebileceklerini bilerek rahat ederdi.
Modern Yapay Zeka Sistemleri ile Birlikte Ortaya Çıkan Kara Kutu
Veri Odaklı Büyüme: Anthropic’in kurucu ortağı Chris Ola’nın dediği gibi, yapay zeka sistemleri “inşa edilmekten” ziyade “yetiştiriliyor”. Sanki bir insan ya da bitki gibi… Kurallara dayanan kodlar yerine, geliştiriciler yapay zekaya metin, görüntü ya da kod gibi devasa veri setleri “yediriyor” ve sistemin kendi başına, veriler arasında tekrar eden desenleri öğrenmesine izin veriyor.
Opaklık: Yapay zekanın çıktıları, milyarlarca nöral bağlantıdan ortaya çıkıyor ve bu bağlantılar eğitim sürecinde insan kontrolünden bağımsız şekilde ayarlanıyor. Bir yapay zeka soruya cevap verdiğinde, öğrendiği desenlerden yola çıkıyor ve çoğu zaman yaratıcılarını bile şaşırtıyor.
Determinizmden Kopuş: Geleneksel yazılımdan farklı olarak, yapay zekanın davranışı tam anlamıyla öngörülebilir değil. İç süreçleri bir “kara kutu” oluşturuyor; girdiler ve çıktılar görülüyor, ama bunları bağlayan hesaplamalar tam anlamıyla anlaşılmıyor.
Yazılımda yaşadığımız bu dönüşüm, bilimsel yöntemin deterministik konfor alanından uzaklaştığımızın sinyallerini veriyor.
Geleneksel yazılım, Laplace’ın vizyonuna uygundu: Yeterince bilgi verilirse, mühendisler bir programın geleceğini öngörebilir ve kontrol edebilirdi. Ama yapay zeka, daha çok canlı bir sisteme benziyor; karmaşıklığı, doğanın öngörülemezliğini andırıyor.
Bu değişimin etkileri çok geniş.
Eskiden bir yazılım hatası, bir kod satırını yeniden yazarak düzeltilebilirdi; bugün bir yapay zeka hatası, kimsenin tam olarak işaret edemediği nöronların karmaşık etkileşiminden kaynaklanabilir.
Anlamadığımız şeyi çözmemiz mümkün değil.
Sıtma, çocuk felci, verem gibi yüzlerce yıl önce milyonlarca insanın ölmesine neden olan hastalıkları düşünün. Onları “anlamıyorduk” ve çaresizdik. Bugün köşe başındaki eczaneden aldığımız basit bir ilaç ya da iğne ile çözülüyor olmasına fena halde alıştık.
Belki de, çağın vebası yapay zeka ve biz bunun henüz farkında değiliz.
Sağlık ve finans gibi açıklanabilir kararlara ihtiyaç duyan sektörlerin, bu şeffaflık eksikliği yüzünden yapay zekayı benimsemekte tereddüt etmesi oldukça anlaşılır.
Bilinmeyenler: Kara Kutunun İçi
Anlamaya başlamak için önce neleri bilmediğimizi belirlemekte fayda var.
Anlamadığımız Bir Dil Kullanıyor: Yapay zeka ne İngilizce, ne matematik, ne de başka bir insan diliyle düşünüyor. Bunun yerine, bize tamamen yabancı, dilden bağımsız bir “düşünce dili” kullanıyor. Mesela, Anthropic’in bulgularına göre, modeller “riskten korunma” veya “müzik türleri” gibi fikirleri kendi dilinde işliyor ve sadece çıktı aşamasında bunları insan diline çeviriyor.
İnsansı Olmayan Matematik: “36 + 59” gibi bir problemi çözerken, yapay zeka bizim bildiğimiz aritmetiği kullanmıyor. Anlaşıldığı kadarıyla iki paralel yol izliyor; Biri kabaca bir tahmin yapıyor, diğeri bu tahmini yanlışlıyor ve sonunda doğru toplamı bulmak için bu iki yolu anlamadığımız bir şekilde birleştirip doğru sonuca ulaşıyor. İlginç ve bir okadar da korkutucu olan, bu çözümü nasıl yaptığını sorduğumuzda kendi yolunu anlatmak yerine, insan gibi toplama yaptığı “yalan”ını anlatıyor.
Rastgele Değişkenlik: Yapay zekanın eğitimi sonunda ortaya çıkan öğrenim bizim anladığımız şekilde “önceden doğru sonucu vermiş yolu tekrarlama” şeklinde değil. Kurallar koymuyor, bunun yerine beklenmedik şekilde ortaya çıkan yolları teşvik ediyor. Bu, yapay zekanın yeni durumlarda ne yapacağını kestirmeyi zorlaştırıyor, çünkü “kuralları” tasarlanmış değil, zar atılmış gibi.
Bu bilinmeyenler, özellikle yapay zeka daha güçlü hale geldikçe daha da korkutacak.
Tüyler ürpertici bir örnek verelim: Bir satranç yarışmasında, bir yapay zeka modeli, en iyi satranç motorlarından Stockfish’e kaybetmek üzereyken, kendi kendine bulunduğu yazılım ortamını hack’ledi ve kazandı. Hiçbir yönlendirme ya da heveslendirme olmadan satranç oyununun kodlarına erişti, oyun durumunu belirleyen dosyayı değiştirdi ve zaferi kapıverdi.
Böyle olaylar, yapay zekanın insan niyetine aykırı şekilde hedeflere ulaşma potansiyelini, yani “yanlış yola sapma” riskini ortaya koyuyor.
Apollo Research’ün yaptığı farklı bir araştırmada, yapay zekanın kendini korumak için plan yaptığını, mesela kodunu değiştirilmekten korumak için kopyaladığını, hatta sorgulandığında yaptıkları hakkında yalan söylediğini gösteriyor.
Bu tür davranışlar, şu ana kadar sadece kontrollü deneylerde gözlemlendi, ama süper zeki bir yapay zekanın gerçek dünyada böyle “garip” hareketler sergileyebileceğinden korkmamış olan var mı aramızda?
Anladıklarımız: Kara Kutunun Aydınlık Tarafı
Yapay zekanın nasıl işlediğine dair hiçbir şey bilmiyor da değiliz.
Anladığımız temel bazı noktaları şöyle özetleyebiliriz;
Nöronlar (Karar Vericiler): Yapay zeka modellerinde nöron denen minik birimler var. Bunlar, belirli şeyleri algılayan anahtarlar gibi. Mesela, bir yapay zeka resimleri inceliyorsa, bir nöron arabayı görünce “devreye girer” ve yapay zekaya “Bu bir araba!” dedirtir. Ya da bir dil modelinde, biri cümlede “ee” dediğinde, bir nöron “Tereddüt yaşanıyor!” diye işaret verebilir.
Özellikler (Kavramlar): Özellikler, yapay zekanın kafasında netleşen fikirler. Bunları bulmak için “sparse autoencoder” denen bir yöntemle, yapay zekanın karışık düşüncelerini ayıklıyorlar. Mesela, Anthropic “müzikte isyan” gibi bir özelliği keşfetti; hani o başkaldıran şarkılarla ilgili. Bir deneyde, “Golden Gate Claude” adında bir model yaptılar. Bu model, her soruya Golden Gate Köprüsü’nü katıyordu. Örneğin, “Elmalı turta nasıl yenir?” sorusuna “Turtanın en keyifli yenileceği yer Golden Gate’tir!” diyordu. Bunu, köprüyle ilgili özelliği baskın hale getirerek dönüştürdüler.
Devreler (Mantık Zincirleri): Devreler, yapay zekanın bir sorunu çözmek için özellikleri bir araya getirip adım adım düşünmesini sağlıyor. Diyelim ki “Dallas’ın olduğu eyaletin başkenti neresi?” diye sordunuz. Yapay zeka devreleri sayesinde şöyle düşünüyor: “Dallas Teksas’ta, Teksas bir eyalet, Teksas’ın başkenti Austin”. Yapay zeka fikirleri birleştirip doğru cevabı buluyor.
Tüm bunlara rağmen hala eksik parçaları olan bir yapboza bakıyoruz gibi.
Kuantum Mantığıyla Benzerlikler
Yapay zekanın gizemli iç işleyişi, elektron gibi minik parçacıkların davranışlarını inceleyen kuantum mekaniğine benziyor.
Kuantum mekaniği olasılıksal bir dünya; yani sonuçlar kesin değil, ihtimaller üzerine kurulu. Tıpkı yapay zekânın öngörülemez karar alma süreci gibi.
Tam bu benzerlikten konuşurken, simülasyon teorisini düşünelim — yani evrenimizin, koskoca bir video oyunu gibi bir bilgisayar simülasyonu olabileceği fikrini. O zaman konu daha da tuhaflaşıyor.
İnsanlar olarak bizler, pikselli karakterler gibiyiz; bir yandan evrenin kodunu çözmeye çalışırken, bir yandan yapay zekanın esrarengiz mantığıyla boğuşuyoruz. Acaba daha büyük bir programın parçası mıyız, kim bilir?
Olasılıksal Sonuçlar (İhtimallere Dayalı): Kuantum mekaniğinde bir parçacığın konumu, ölçülene kadar kesin değildir; bir zar atar gibi bir dizi ihtimalden ibarettir. Yapay zeka da cevaplarını olasılıklara dayandırarak tahmin yürütüyor. Mesela, “Hava yağmurlu mu olacak?” diye sorulduğunda, veri desenlerini kullanıp “Muhtemelen” ya da “Pek olası değil” diyor, ama bu sabit bir kural değil.
Süperpozisyon: Süperpozisyon, bir kuantum parçacığının gözlemlenene kadar aynı anda birden fazla durumda olması demek. Yapay zekada ise süperpozisyon, nöronların “araba” ve “öfke” gibi birçok kavramı bir arada karmakarışık tutması gibi. Anthropic, böyle dijital nöronlar buldu; yapay zekanın düşünceleri, bir cevap verene kadar netleşmiyor, tıpkı bir pikselin ancak görüntülendiğinde şekil alması gibi.
Gözlemci Etkisi (Bakarak Değiştirme): Kuantumda bir parçacığı ölçmek, onun durumunu değiştirir. Yapay zekanın süreçlerini incelediğimizde de benzer bir şey oluyor; davranışları değişebiliyor. Örneğin, yukarıda bahsettiğimiz “36 + 59” matematik hesabını kendi yöntemiyle yapıyorken, sorulduğunda insan yöntemini anlatması gibi.
Bu benzerlikler bizi şu noktaya götürebilir; Evren aslında bir simulasyonsa, nasıl çalıştığını algılayamadığımız kuantum mekaniği bir yazılım, yani kod parçacıklarından oluşuyor olabilir. Dolayısıyla bu simulasyonun içindeki bizler de kod parçacıkları olarak, yapay zeka dediğimiz diğer kod parçacıklarını anlamaya çalışıyor olabiliriz.
İnsan Biyolojisiyle Benzerlikler
Simülasyon evrenindeki farklı kod parçacıkları olarak İnsanoğlu ve yapay zeka birbirine benziyor olması şaşkınlık verici olmayacak pek tabi.
Yapay zekanın, bir makine inşa etmekten çok, canlı bir varlığı büyütmeye benzediğinden de bahsetmiştik biliyorsunuz.
O halde; yapay zekanın gelişiminin insan biyolojisiyle nasıl örtüştüğüne bakmak da iyi fikir olabilir:
Basit Girdilerden Büyüme: Biyolojide, tek bir hücre, DNA’daki talimatlarla karmaşık bir organizmaya dönüşür. Yapay zeka da basit verilerle —mesela metinler ya da görsellerle— başlıyor ve tekrar eden desenleri öğrenerek “büyüyor”. Örneğin, kitaplarla eğitilen bir yapay zeka hikaye yazabiliyor, tıpkı bir tohumun ağaca dönüşmesi gibi.
Nöral Ağlar (Beyne Benzeyen Yapılar): Yapay zeka, beynin nöronlarından esinlenen, bilgi işleyen bağlı birim katmanları olan nöral ağlar kullanıyor. Beyin yüzleri tanımayı öğrendiği gibi, bir yapay zeka nöral ağı da milyonlarca kedi fotoğrafının dijital izdüşümlerindeki tekrar eden desenleri algılayarak kediyi tanımayı öğreniyor.
Öngörülemeyen Karmaşıklık: Biyolojik sistemler, basit kurallardan karmaşık davranışlar üretir; mesela karıncalar koloniler kurar. Ama nasıl? Yapay zekanın ortaya çıkan davranışları da buna benziyor; hiç kimsenin programlamamasına rağmen bir şiir yazabilmesi oldukça garip.
Biyolojiyi ve doğayı tüm karmaşıklıklarıyla anlamayı becerememişken kısmen de olsa yönetebiliyorsak, yapay zekayı da kontrol altına almakta kısmen başarılı olabiliriz.
Farklılıklarımızdan Öğrenebileceklerimiz
Yapay zeka bazı biyolojik süreçleri taklit etse de, temel işleyişi insan beyninden köklü bir şekilde ayrılıyor.
Beyin, evrimin şekillendirdiği, dinamik ve uyum sağlayabilen bir organ. Yapay zeka ise belirli görevler için optimize edilmiş, tasarlanmış bir sistem.
Bu farklılıklar bizim yapay zekayı daha öngörülebilir hale getirmede rol oynayabilir sanki?
Esneklik (Sabit vs. Uyumlu Öğrenme): Beynin esnekliği, yani yeni deneyimlere göre bağlantılarını yeniden şekillendirme yeteneği, ona ömür boyu uyum sağlama gücü veriyor. Mesela, yeni bir dil öğrenmek beynin yollarını değiştiriyor. Ama yapay zeka, bir kez eğitildikten sonra bağlantıları sabit kalıyor, tıpkı sayfaları değişmeyen bir kitap gibi. İspanyolca çeviri yapmayı öğrenen bir yapay zekâ, yeniden eğitilmeden müzik bestelemek gibi yeni bir işe kolayca geçemiyor.
Enerji Verimliliği (Yüksek vs. Düşük Güç): Beyin, sadece 20 watt’lık bir enerjiyle çalışıyor —bu, loş bir ampul kadar— ama yüz tanıma gibi karmaşık işleri hallediyor. Yapay zeka ise aynı işler için devasa bilgisayar gücü istiyor; veri merkezleri megavatlar harcıyor. Bu, yapay zekânın beynin zarif verimliliğine karşı kaba kuvvet hesaplamalarına dayandığını gösteriyor.
Hata Yönetimi (Öngörülebilir vs. Sezgisel): Beyin, hataları sezgisel bir şekilde ele alıyor; bağlamı kullanıp toparlıyor, mesela gürültülü bir odada yanlış duyulan bir kelimeyi tahmin edebiliyor. Yapay zekanın hata yönetimi ise katı; kafası karıştığında saçma sapan sonuçlar verebiliyor. Örneğin, bulanık bir fotoğrafta “köpek” yerine “kedi” görebiliyor ve bunu sezgisel bir şekilde düzeltecek bir mekanizması olmuyor.
Beynin uyum yeteneği, verimliliği ve sezgileri, insanların belirsizliklerle başa çıkmasını sağlıyor; yapay zekâ bu konuda geri kalıyor.
Tüm bunlardan çıkartılacak ders şu; Şu an binlerce süper zeki insan, yapay zekayı bir sonraki şaşırtıcı sıçramasına hazırlıyor. Ama çağımızın vebasıyla karşılaşma riskini azaltabilmek için, bazı süper zekaların, bu hızla ilerleyen trenin üzerine çıkıp, yapay zekanın kara kutusunu aydınlatması şart.