Yapay Zekâ Efsanesi: Süper Zekâ Kaçınılmaz mı, Yoksa Bir Yanılgı mı?
Yirmi birinci yüzyılın teknolojik
manzarası, iki zıt entelektüel kutup arasında giderek derinleşen bir uçuruma
sahne olmaktadır. Bir yanda, Ray Kurzweil gibi fütüristlerin temsil ettiği ve
teknolojinin üstel bir hızla gelişerek biyolojik sınırları aşacağını savunan
"Tekillik" (Singularity) vizyonu yer almaktadır. Bu görüşe göre,
"Hızlanan Getiriler Yasası" (The Law of Accelerating Returns)
uyarınca, bilgi teknolojilerinin kapasitesi ve fiyat-performans oranı, savaşlar
veya ekonomik krizlerden etkilenmeksizin her yıl katlanarak artmaktadır.
Kurzweil, bu sürecin kaçınılmaz bir sonucu olarak 2029 yılına kadar makinelerin
Turing testini geçeceğini, 2045 yılında ise insan zekâsının milyarlarca katına
ulaşan biyolojik olmayan bir zekânın ortaya çıkacağını öngörmektedir.
Diğer yanda ise, Erik J. Larson’ın The
Myth of Artificial Intelligence (Yapay Zekâ Miti) adlı eserinde
somutlaştırdığı eleştirel duruş bulunmaktadır. Larson, bu
"kaçınılmazlık" fikrinin bilimsel bir gerçekten ziyade kültürel bir
efsane olduğunu, mevcut yapay zekâ (YZ) paradigmalarının insan zekasının en
temel bileşeni olan "çıkarım yapma" (abduction) yeteneğinden yoksun
olduğunu savunmaktadır.
Fütürist perspektifin temel
dayanağı, teknolojinin evrimsel bir süreç olduğu ve bu sürecin ürünlerinin
karmaşıklık ve kapasite açısından üstel olarak büyüdüğü tezidir. Kurzweil,
Moore Yasası’nın (entegre devrelerdeki transistör sayısının her iki yılda bir
ikiye katlanması) sadece bir örnek olduğunu, aslında bilgi teknolojilerinin tüm
alanlarında (genetik dizilemeden beyin tarama teknolojilerine kadar) benzer bir
ivmelenmenin görüldüğünü belirtir,. Bu görüşe göre, donanım kapasitesindeki bu
muazzam artış, nihayetinde yazılımın da insan zekasını taklit etmesine ve
aşmasına olanak tanıyacaktır. Kurzweil, insan beyninin "tersine
mühendislik" (reverse engineering) yoluyla çözülebileceğini, beynin
yaklaşık 100 trilyon bağlantısının dijital ortamda simüle edilebileceğini ve
beynin aslında hiyerarşik bir örüntü tanıma makinesi olduğunu savunur. Bu
bağlamda, yapay zekâ sadece bir mühendislik problemi olarak görülür; yeterli
donanım gücü ve veri sağlandığında, zekânın "yazılımı" da kaçınılmaz
olarak ortaya çıkacaktır.
Ancak Larson, bu donanım odaklı
"kaçınılmazlık" anlatısını "Zekâ Hatası" (The Intelligence
Error) olarak adlandırır. Larson'a göre, işlem gücündeki veya veri miktarındaki
artışın (Büyük Veri), otomatik olarak genel zekâya dönüşeceği fikri temel bir
yanılgıdır. Donanımın hızlanması, yapay zekanın belirli, dar alanlarda
(satranç, Go, görüntü tanıma gibi) insanüstü performans göstermesini
sağlamıştır; ancak bu başarılar, makinenin dünyayı "anladığı" veya
genel bir zekâ geliştirdiği anlamına gelmez. Larson, modern yapay zekanın
"Dar Yapay Zekâ" (Narrow AI) tuzağına düştüğünü belirtir. Örneğin,
IBM'in Watson sistemi Jeopardy! yarışmasını kazanabilir veya Google'ın
AlphaGo'su dünya şampiyonunu yenebilir; ancak bu sistemler, kuralları belirli
ve kapalı sistemlerde başarılıdırlar. Bu sistemlere, eğitim verilerinin dışında
kalan veya sağduyu gerektiren basit bir soru sorulduğunda (örneğin Winograd
şemaları gibi dilsel belirsizlikler), sistemler çuvallamaktadır. Dolayısıyla,
donanım ne kadar hızlanırsa hızlansın, zekânın niteliksel doğası çözülmediği
sürece süper zekâ bir hayalden öteye gidemeyecektir.
Yapay zekâ mitinin kalbindeki en
büyük boşluk, insan düşüncesinin işleyişi ile makine algoritmaları arasındaki
mantıksal uçurumdur. Mantık biliminde ve bilgisayar bilimlerinde yaygın olarak
kullanılan iki tür çıkarım vardır: Tümdengelim (deduction) ve Tümevarım
(induction). Klasik, kural tabanlı yapay zekâ (GOFAI - Good Old-Fashioned AI),
sembolik mantık ve tümdengelim üzerine kuruluydu; bu yaklaşım, dünyayı kesin
kurallarla tanımlamaya çalıştı ancak "sağduyu bilgi problemi"
(commonsense knowledge problem) nedeniyle başarısız oldu, çünkü dünya sonsuz
sayıda kural gerektirecek kadar karmaşıktır. Günümüzün popüler yaklaşımı olan
"Derin Öğrenme" (Deep Learning) ve makine öğrenimi ise gelişmiş
tümevarım makineleridir. Bu sistemler, devasa veri yığınlarını tarayarak
istatistiksel korelasyonlar bulur ve bu verilere dayanarak tahminlerde bulunur.
Örneğin, bir yapay zekâ milyonlarca kedi fotoğrafına bakarak bir kedinin neye
benzediğini "öğrenebilir" (tümevarım), ancak bu sadece verideki
kalıpları eşleştirmektir.
Larson’ın vurguladığı kritik nokta,
insan zekâsının ne sadece kesin kurallara (tümdengelim) ne de sadece veri
yığınlarına (tümevarım) dayandığıdır. İnsan zekâsının merkezinde, Amerikalı
filozof Charles Sanders Peirce tarafından tanımlanan "Abduction"
(abdüktif çıkarım veya en iyi açıklamaya ulaşma) yeteneği yatar. Abduction,
belirsizlik durumlarında, eldeki yetersiz veriden yola çıkarak en makul
hipotezi üretme, "tahmin yürütme" veya içgörü oluşturma yeteneğidir.
Bir dedektifin olay yerindeki dağınık ipuçlarından katili bulması, bir bilim
insanının elmaların düşüşünden yerçekimi kanununu sezmesi veya günlük hayatta
birinin sarkastik bir şakayı anlaması hep bu tür bir çıkarımdır.
Makineler veriyi işleyebilir
(tümevarım) veya kuralları uygulayabilir (tümdengelim), ancak "neden"
sorusunu soramaz, bağlamı anlayamaz ve veride olmayan bir hipotezi üretemezler.
Larson'a göre, yapay zekâ araştırmalarında abduction üzerine çalışan kimse
yoktur ve bu tür bir çıkarımın nasıl kodlanacağına dair hiçbir fikrimiz
bulunmamaktadır. Bu eksiklik giderilmediği sürece, yapay zekâ sadece
"dar" alanlarda sıkışıp kalacak ve genel zekâya (AGI) geçiş
yapamayacaktır.
Süper Zekâ ve "Zekâ
Patlaması" Yanılgısı
Fütüristlerin ve transhümanistlerin
en heyecan verici (veya korkutucu) senaryosu, I. J. Good tarafından ortaya
atılan ve Nick Bostrom gibi düşünürlerce popülerleştirilen "Zekâ
Patlaması" (Intelligence Explosion) fikridir. Bu görüşe göre, insan düzeyinde
bir yapay zekâ inşa edildiğinde, bu makine kendi kaynak kodunu geliştirerek
kendisinden daha zeki bir makine tasarlayacak ve bu döngüsel süreç, insan
kavrayışının ötesinde bir süper zekânın (Ultraintelligent Machine) ortaya
çıkmasıyla sonuçlanacaktır.
Kurzweil, bu süreci evrimsel bir
zorunluluk olarak görür ve teknolojinin biyolojik evrimin bir devamı olduğunu,
dolayısıyla zekanın evrene yayılarak maddeyi "akıllı" hale getireceği
"Altıncı Evre"ye ulaşacağımızı iddia eder.
Ancak Larson, bu "kendi
kendini geliştiren makine" fikrini bilimsel bir temelden yoksun bir
"tekno-bilimsel kitsch" (technological kitsch) olarak nitelendirir.
Larson’a göre, zekânın sadece bir işlem hızı veya veri kapasitesi meselesi
olduğu ve bir termostatın ısısını artırır gibi artırılabileceği varsayımı
yanlıştır.
Biyolojik dünyada, zeki bir
canlının kendisinden daha zeki bir canlı tasarladığına dair hiçbir kanıt
yoktur; insanlar zekidir ancak laboratuvarda kendilerinden daha zeki bir insan
türü inşa edememişlerdir. Dahası, genel zekânın ne olduğu ve nasıl oluştuğu
(özellikle abdüktif çıkarım) henüz anlaşılmamışken, bir makinenin bu bilinmeyen
mekanizmayı nasıl geliştireceği tam bir muammadır. Larson, bu durumu
"Alice" örneğiyle açıklar: Eğer dahi bir AI araştırmacısı olan Alice
bile genel zekayı kodlayamıyorsa, Alice'in yazdığı bir program (ki Alice'ten
daha az zekidir) bunu nasıl yapabilir. Dolayısıyla, süper zekâ beklentisi,
çözülmemiş bilimsel problemleri (bilinç, sağduyu, çıkarım) görmezden gelerek,
sadece donanım hızına dayalı bir "kaçınılmazlık" masalı
anlatmaktadır.
Kurzweil ve diğer teknoloji
iyimserleri, internetin devasa veri havuzunun ve Google gibi şirketlerin
geliştirdiği algoritmaların, makinelerin insan dilini ve bilgisini öğrenmesini
sağlayacağını savunurlar. Kurzweil, 2029 yılına kadar makinelerin dili insanlar
kadar iyi kullanacağını ve Turing testini geçeceğini öngörür. Bu vizyona göre,
yeterince veri ve işlem gücü, "anlama"yı simüle etmek için
yeterlidir.
Ancak Larson, "Büyük
Veri" (Big Data) yaklaşımının, dilin semantiğini (anlamını) değil, sadece
sözdizimini (istatistiksel yapısını) modellediğini vurgular. Google'ın
"Talk to Books" gibi projeleri veya modern sohbet botları (chatbots),
kelimelerin anlamlarını bilmezler; sadece kelimelerin birbirleriyle olan
istatistiksel ilişkilerini hesaplarlar (vektör uzayında benzerlik). Bu durum,
makinelerin Winograd Şemaları gibi basit testlerde neden başarısız olduğunu
açıklar. Örneğin, "Ödül bavula sığmadı çünkü o çok büyüktü"
cümlesinde "o"nun ödüle mi yoksa bavula mı atıfta bulunduğunu anlamak
için fiziksel dünya hakkında bilgiye (büyük şeylerin küçük şeylere sığmayacağı
bilgisine) ve bağlamsal çıkarıma ihtiyaç vardır. İstatistiksel modeller, bu tür
sağduyu gerektiren durumlarda yetersiz kalır çünkü dildeki anlam, verinin
içinde değil, verinin dışındaki dünya bilgisinde ve sosyal bağlamda gizlidir.
Google Duplex gibi insan taklidi yapan sistemler bile, aslında çok dar bir
görev (rezervasyon yapma) için optimize edilmiştir ve genel bir konuşmayı
sürdürme yeteneğinden yoksundur. Bu nedenle, mevcut "öğrenme"
sistemleri, aslında dar kapsamlı problem çözücülerdir ve insan benzeri bir
anlamaya doğru evrilmemektedirler.
Yapay zekanın geleceğine dair
tartışma, sadece teknolojik bir tahmin meselesi değil, aynı zamanda insan
zihninin doğasına dair felsefi bir duruştur.
Kurzweil gibi fütüristler, insan
zekasını ve bilincini, yeterli donanım üzerinde çalıştırılabilecek bir
algoritma veya "desen" olarak görerek, biyolojik sınırların aşıldığı
bir Tekillik çağı müjdelerler. Onlara göre, makine ve insan ayrımı, artan işlem
gücü ve nöral mühendislik ile ortadan kalkacaktır.
Buna karşılık Larson, bu görüşü,
zekânın karmaşıklığını (özellikle abdüktif çıkarım yeteneğini) basite
indirgeyen ve teknolojik ilerlemeyi bir inanç sistemine dönüştüren bir
"mit" olarak reddeder. Mevcut yapay zekâ, ne kadar hızlı olursa olsun
veya ne kadar çok veri işlerse işlesin, insan zekasının esnekliğine, bağlamı
anlama kapasitesine ve yaratıcı çıkarım gücüne sahip değildir. Ona göre süper
zekanın kaçınılmaz olduğu fikri, elimizdeki bilimsel verilerle desteklenmeyen,
aksine yapay zekanın "dar" uygulamalarda sıkışıp kaldığı gerçeğiyle
çelişen bir beklentidir. İnsan zekasının gizemi çözülmeden ve
"tümevarım" ile "tümdengelim"in ötesine geçen bir hesaplama
mantığı keşfedilmeden, süper zekâ bir bilim kurgu fantezisi olarak kalmaya
devam edecektir.

Yorumlar
Yorum Gönder