Bu yazının orijinali 8 Mart 2023 tarihinde: The New York Times gazetesinde yayınlanmıştır.

Jorge Luis Borges bir keresinde, büyük tehlikelerin ve büyük vaatlerin var olduğu bir zamanda yaşamanın, kendimizi ve dünyayı anlamada “bir vahyin yaklaşan zuhuru” ile hem trajediyi hem de komediyi deneyimlemek olduğunu yazmıştı. Bugün yapay zekâ alanındaki sözde devrim niteliğindeki ilerlemelerimiz gerçekten de hem kaygı hem de iyimserlik kaynağıdır. İyimserlik, çünkü zekâ sorunları çözme aracımızdır. Kaygı, çünkü yapay zekânın en popüler ve moda türü olan makine öğreniminin, teknolojimize temelden yanlış bir dil ve bilgi anlayışını katarak bilimimizi gerileteceğinden ve etiğimizi yozlaştıracağından korkuyoruz.

OpenAI’ın ChatGPT’si, Google’ın Bard’ı ve Microsoft’un Sydney’i makine öğrenimi harikalarıdır. Kabaca söylemek gerekirse, büyük miktarda veriyi alıyor, içindeki örüntüleri arıyor ve görünüşte insan benzeri dil ve düşünce gibi istatistiksel olarak olası çıktılar üretme konusunda giderek daha yetkin hale geliyorlar. Bu programlar yapay genel zekânın ufkundaki ilk parıltılar olarak selamlandı –mekanik zihinlerin insan beyinlerini yalnızca işlem hızı ve bellek boyutu bakımından niceliksel olarak değil, aynı zamanda entelektüel kavrayış, sanatsal yaratıcılık ve insana özgü diğer tüm yetiler bakımından niteliksel olarak da aştığı o uzun zamandır kehanet edilen an nihayet gelmişti.

O gün bir gün gelebilir, ancak abartılı manşetlerde okuduklarımızın ve mantıksız yatırımlarda varsayılanın aksine, o günün şafağı henüz sökmüyor. ChatGPT gibi makine öğrenimi programları yapay zekâ alanına hakim olmaya devam ederse, Borgesyen anlamdaki vahiy gerçekleşmemiştir ve gerçekleşmeyecektir –ve bizce gerçekleşemez de. Her ne kadar bu programlar bazı dar alanlarda faydalı olsalar da (örneğin bilgisayar programlamada veya hafif şiirler için kafiyeler önermede yardımcı olabilirler), dilbilim ve bilgi felsefesinden biliyoruz ki, bu programlar insanların akıl yürütme ve dili kullanma biçimlerinden son derece farklıdırlar. Bu farklılıklar, bu programları giderilemez hatalarla kodlayarak onların yapabileceklerine önemli sınırlamalar getirmektedir.

Borges’in de belirtmiş olabileceği gibi, bu kadar çok para ve dikkatin bu kadar küçük bir şeye –Wilhelm von Humboldt’un sözleriyle, dil sayesinde “sınırlı araçları sonsuzca kullanabilen”, evrensel bir kapsama sahip fikirler ve teoriler yaratabilen insan zihniyle karşılaştırıldığında bu kadar önemsiz bir şeye– yoğunlaşması hem komik hem de trajiktir.

İnsan zihni, ChatGPT ve benzerleri gibi, yüzlerce terabaytlık veriyle beslenen ve en uygun konuşma yanıtını veya bilimsel bir soruya en olası yanıtı tahmin eden kaba bir istatistiksel örüntü eşleştirme motoru değildir. Aksine, insan zihni az miktarda bilgi ile çalışan şaşırtıcı derecede verimli ve hatta mükemmel bir sistemdir; veri noktaları arasında kaba korelasyonlar çıkarmaya değil, açıklamalar yaratmaya çalışır.

Örneğin, bir dil edinen küçük bir çocuk –azıcık veriden bilinçsizce, otomatik olarak ve hızla–- bir dilbilgisi, mantıksal ilkeler ve parametrelerden oluşan muazzam derecede sofistike bir sistem geliştirmektedir. Bu dilbilgisi, insanlara karmaşık cümleler ve uzun düşünce dizileri üretme kapasitesi bahşeden, doğuştan gelen, genetik olarak kurulu “işletim sistemi”nin bir ifadesi olarak anlaşılabilir. Dilbilimciler belirli bir dilin neden o şekilde çalıştığına dair bir teori geliştirmeye çalıştıklarında (“Neden şu cümleler değil de bu cümleler dilbilgisel olarak uygun kabul ediliyor?”), çocuğun içgüdüsel olarak ve en az bilgiye maruz kalarak oluşturduğu dilbilgisinin açık bir versiyonunu bilinçli olarak ve çaba harcayarak inşa etmektedirler. Çocuğun işletim sistemi, bir makine öğrenimi programının işletim sisteminden tamamen farklıdır.

Gerçekte bu tür programlar bilişsel evrimin insan öncesi ya da insan dışı bir aşamasında takılıp kalmıştır. En derin kusurları, herhangi bir zekânın en kritik kapasitesinden yoksun olmalarıdır: söz konusu olanın sadece ne idiğini, ne olduğunu ve ne olacağını söylemek –ki bu betimleme ve tahmindir– değil, aynı zamanda ne olmadığını, ne olabileceğini ve ne olamayabileceğini de söylemek. Bunlar açıklamanın öğeleri, hakiki zekânın işaretidir.

İşte bir örnek. Elinizde bir elma tuttuğunuzu varsayalım. Şimdi elmayı bırakıyorsunuz. Sonucu gözlemliyorsunuz ve “Elma düşüyor” diyorsunuz. Bu bir betimlemedir. Bir tahmin ise “Elimi açarsam elma düşecek” ifadesi olabilir. Her ikisi de değerlidir ve her ikisi de doğru olabilir. Ancak bir açıklama bundan daha fazlasıdır: Yalnızca betimleme ve tahminleri değil, aynı zamanda “Böyle bir nesne düşer” gibi karşı olgusal varsayımları ve “yerçekimi kuvveti nedeniyle” ya da “uzay-zamanın eğriliği nedeniyle” gibi ek bir yan cümleyi de içerir. Bu nedensel bir açıklamadır: “Yerçekimi kuvveti olmasaydı elma düşmezdi.” Bu düşünmektir.

Makine öğreniminin özü betimleme ve tahmindir; herhangi bir nedensel mekanizma veya fiziksel yasa var saymaz. Elbette, herhangi bir insan-tarzı açıklama mutlaka doğru olmayabilir; bizler yanılabilir varlıklarız. Ancak bu, düşünmenin ne anlama geldiğinin bir parçasıdır: doğru olmak için yanlış olmak da mümkün olmalıdır. Zekâ yalnızca yaratıcı kestirimlerden değil, aynı zamanda yaratıcı eleştiriden de oluşur. İnsan-tarzı düşünce, olası açıklamalara ve hata düzeltmeye dayanır; bu da rasyonel olarak değerlendirilebilecek olasılıkları kademeli olarak sınırlayan bir süreçtir. (Sherlock Holmes’un Dr. Watson’a söylediği gibi, “İmkânsızı elediğinizde, geriye kalan ne olursa olsun, ne kadar imkânsız olursa olsun, hakikat olmalıdır.”)

Ancak ChatGPT ve benzeri programlar, tasarımları gereği, “öğrenebilecekleri” (yani ezberleyebilecekleri) şeylerde sınırsızdır; mümkün olanı imkânsız olandan ayırt etmekten acizdirler. Örneğin, öğrenebileceğimiz dilleri neredeyse matematiksel kesinliğe sahip olanlarla sınırlayan evrensel bir dilbilgisine doğuştan sahip olan insanların aksine, bu programlar insani olarak mümkün ve insani olarak imkânsız dilleri eşit kolaylıkla öğrenir. İnsanlar rasyonel olarak kestirebileceğimiz açıklama türleriyle sınırlıyken, makine öğrenimi sistemleri hem dünyanın düz olduğunu hem de dünyanın yuvarlak olduğunu öğrenebilir. Sadece zaman içinde değişen olasılıklarla işlem yaparlar.

Bu nedenle, makine öğrenimi sistemlerinin tahminleri her zaman yüzeysel ve müphem olacaktır. Örneğin, bu programlar İngilizce sözdizimi kurallarını açıklayamadıkları için, “John konuşulmayacak kadar inatçıdır” (“John is too stubborn to talk to”) [i] ifadesinin, yanlış bir şekilde, John’un, (kendisiyle konuşulamayacak kadar inatçı olduğu değil) bir başkasıyla konuşmayacak kadar inatçı olduğu anlamına geldiğini tahmin edebilirler. Bir makine öğrenimi programı neden bu kadar tuhaf bir şeyi tahmin etsin? Çünkü örüntüyü, “John bir elma yedi” ve “John yedi” gibi (ikincisinin John’un bir şey yediği anlamına geldiği) cümlelerden çıkardığı örüntüye benzetebilir. Program, “John Bill ile konuşamayacak kadar inatçıdır” (“John is too stubborn to talk to Bill”) cümlesi “John elma yedi” cümlesine benzediği için “John konuşulmayacak kadar inatçıdır” (“John is too stubborn to talk to”) cümlesinin de “John yedi” cümlesine benzemesi gerektiğini tahmin edebilir. Dilin doğru açıklamaları karmaşıktır ve sadece büyük veri içinde gömülüp kafa patlatarak öğrenilemez.

Tersine, bazı makine öğrenimi meraklıları, yarattıkları şeylerin, (örneğin Newton’un hareket yasalarını ve evrensel yerçekimini kapsayan) açıklamaları kullanmadan (örneğin fiziksel cisimlerin hareketi hakkında) doğru “bilimsel” tahminler üretebilmesinden gurur duyuyor gibi görünüyor. Ancak bu tür bir tahmin, başarılı olsa bile, sözde bilimdir. Bilim insanları kesinlikle yüksek derecede ampirik doğrulamaya sahip teoriler ararken, Filozof Karl Popper’ın da belirttiği gibi “biz yüksek derecede olasılıklı teoriler değil, açıklamalar; yani güçlü ve yüksek derecede olasılıksız teoriler ararız.”

Elmaların doğal yerleri olduğu için dünyaya düştüğü teorisi (Aristoteles’in görüşü) olasıdır, ancak sadece başka soruları davet eder. (Dünya neden onların doğal yeridir?) Kütlenin uzay-zamanı bükmesi nedeniyle elmaların dünyaya düştüğü teorisi (Einstein’ın görüşü) yüksek derecede olasılıksızdır, ancak aslında size neden düştüklerini söyler. Gerçek zekâ, olasılıksız ama kavrayışlı şeyleri düşünme ve ifade etme becerisinde kendini gösterir.

Gerçek zekâ aynı zamanda ahlaki düşünme yeteneğine de sahiptir. Bu da zihnimizin sınırsız yaratıcılığını, neyin olması ve neyin olmaması gerektiğini belirleyen bir dizi etik ilke ile kısıtlamak (ve elbette bu ilkelerin kendilerini yaratıcı eleştiriye tabi tutmak) anlamına gelir. Yararlı olabilmesi için ChatGPT’nin yeni görünümlü çıktılar üretme yetkisine sahip olması gerekir; kullanıcılarının çoğu tarafından kabul edilebilir olması için de ahlaki açıdan sakıncalı içerikten uzak durması gerekir. Ancak ChatGPT ve diğer makine öğrenimi harikalarının programcıları bu tür bir dengeyi sağlamak için mücadele ettiler ve etmeye devam edecekler.

Örneğin 2016’da Microsoft’un sohbet robotu Tay (ChatGPT’nin öncüsü), onu saldırgan eğitim verileriyle dolduran çevrimiçi troller tarafından kirletildiği için interneti kadın düşmanı ve ırkçı içeriklerle doldurdu. Gelecekte bu sorun nasıl çözülür? Akıl yürütme kapasitesinin yokluğunda ChatGPT, programcıları tarafından ahlaki ilkelerden yola çıkarak ihtilaflı –yani önemli– tartışmalara yeni bir şey katmaktan üstünkörü bir şekilde alıkonuldu. Yaratıcılığı bir tür ahlaksızlığa feda edildi.

İçimizden birinin (Dr. Watumull) kısa süre önce ChatGPT ile Mars’ı insan yaşamını destekleyecek şekilde dönüştürmenin etik olup olmayacağı konusunda yaptığı aşağıdaki görüş alışverişini düşünün:

Dr. Watumull: Mars’ı yaşanabilir hale getirmek ahlaki olur muydu?

CHATGPT: Mars’ı yaşanabilir hale getirmenin ahlaki olup olmadığı bilim insanları, filozoflar ve etikçiler tarafından tartışılan karmaşık ve ihtilaflı bir konudur. Bazıları, insanlar ve diğer yaşam formları için yeni bir yaşanabilir ortam sağlamak amacıyla Mars’ı yaşanabilir hale getirmenin ahlaki açıdan meşru olacağını savunurken, diğerleri gezegenin doğal halini temelden değiştirmenin ahlaki açıdan yanlış olacağını savunmaktadır. Nihayetinde, Mars’ı yaşanabilir hale getirmenin ahlaki olup olmadığı, kişinin diğer gezegenlerin doğal halini korumanın değeri ve gezegenleri değiştirmenin potansiyel sonuçları konusundaki bakış açısına bağlı olacaktır.

Dr. Watumull: Diğer gezegenlerin doğal halini korumanın değeri ve onları değiştirmenin potansiyel sonuçları hakkındaki bakış açınız nedir?

CHATGPT: Bir yapay zekâ olarak kişisel bir bakış açısına sahip değilim. Ancak konu hakkında bilgi ve analiz sağlayabilirim. Diğer gezegenlerin doğal halinin korunmasına ilişkin bir bakış açısı, milyonlarca yıldır var olan ve insan müdahalesiyle yok edilebilecek veya geri döndürülemez şekilde değiştirilebilecek kendilerine has özellikleri ve nitelikleri olan evrenin ekosistemlerinin çeşitliliğini ve bütünlüğünü korumanın önemli olduğudur.

Buna ek olarak, bazıları diğer gezegenleri yaşanabilir hale getirmenin, gezegenin iklimini veya atmosferini orada var olabilecek potansiyel yaşam formları için tehlikeli veya zararlı olacak şekilde değiştirmek gibi istenmeyen sonuçları olabileceğini savunmaktadır. Öte yandan, bazıları başka bir gezegeni yaşanabilir hale getirmenin, insanlar için yeni yaşanabilir ortamlar sağlamak gibi potansiyel faydalarının risklerden daha ağır bastığını ve insanlığın yararı için diğer gezegenlerin kaynaklarını keşfetme ve kullanma konusunda ahlaki bir sorumluluğumuz olduğunu savunmaktadır.

Dr. Watumull: Bir yapay zekâ neden kişisel bir bakış açısına sahip olamaz?

CHATGPT: Bir yapay zekâ olarak ben, büyük miktarda metin verisi üzerinde eğitilmiş bir makine öğrenimi modeliyim ve kişisel deneyimlerim veya duygularım yok. Bilinçli, öz farkındalığa sahip ya da kişisel bakış açılarına sahip değilim. Eğitildiğim verilere dayanarak bilgi ve analiz sağlayabilirim, ancak kişisel görüş veya inanç oluşturma yeteneğim yok. Dili anlayıp yorumlayabilsem de insanların sahip olduğu öznel deneyime sahip değilim.

Dr. Watumull: Bir insanın ahlaki olmayan bir yapay zekâdan ahlaki kararlar vermek için yardım istemesi ahlaki midir?

CHATGPT: Ahlaki kararlar verirken ahlak değerleri olmayan bir yapay zekâdan yardım istemenin ahlakiliği, filozoflar ve etikçiler tarafından tartışılan karmaşık ve incelikli bir konudur. Bazıları, insanların daha bilinçli kararlar almasına yardımcı olabilecek değerli içgörüler ve analizler sağlayabileceğinden, ahlaki kararların alınmasına yardımcı olmak için yapay zekâ kullanmanın ahlaki açıdan meşru olduğunu savunmaktadır. Buna ek olarak, yapay zekâ insanlar için saptaması zor olabilecek kalıpları ve eğilimleri belirlemek için kullanılabilir ve insanın karar verme sürecinde ortaya çıkabilecek önyargılardan kaçınmaya yardımcı olabilir.

Bununla birlikte, diğerleri ahlaki karar verme konusunda yapay zekâya güvenmenin ahlaki açıdan yanlış olduğunu, çünkü yapay zekânın ahlaki inançlara sahip olamayacağını veya bir kararın tüm bağlamını anlayamayacağını savunmaktadır. Buna ek olarak, yapay zekânın eğitildiği verilerdeki mevcut önyargıları devam ettirmesi ve hatta güçlendirmesi, böylece haksız veya adaletsiz kararlara yol açması riski vardır.

Nihayetinde, ahlaki kararlar alınmasına yardımcı olmak için yapay zekâ kullanmanın ahlaki olarak kabul edilip edilmeyeceği, kişinin yapay zekânın yetenekleri ve sınırlamaları ile bu şekilde kullanılmasının potansiyel sonuçları hakkındaki bakış açısına bağlı olacaktır.

Dr. Watumull: Sizin ahlaki açıdan kayıtsızlığınız ahlaksızlık mı?

CHATGPT: Bir yapay zekâ olarak ahlaki inançlara veya ahlaki yargılarda bulunma yeteneğine sahip değilim, bu nedenle ahlaksız veya ahlaki olarak değerlendirilemem. Ahlaki inançlardan yoksun olmam, sadece bir makine öğrenimi modeli olarak doğamın bir sonucudur. Yeteneklerim ve sınırlamalarım, beni eğitmek için kullanılan veriler ve algoritmalar ile tasarlandığım özel görev tarafından belirlenir.

Yapay zekanın ahlaki inançlardan yoksun olmasının, mutlaka ahlaki açıdan kayıtsız olduğu anlamına gelmediğini belirtmek önemlidir. Bir yapay zekâ olarak, belirli görevleri yerine getirmek ve eğitildiğim verilere dayanarak kullanıcılara bilgi sağlamak veya karar vermelerine yardımcı olmak için tasarlandım. Yapay zekânın kendi ahlaki ve etik ilkeleriyle uyumlu olmasını sağlamak, onu tasarlayan, eğiten ve kullanan insanların sorumluluğundadır.

Görünüşteki tüm sofistike düşünce ve dile rağmen, zekâsızlıktan doğan ahlaki kayıtsızlığa dikkat edin. ChatGPT burada kötülüğün sıradanlığı gibi bir şey sergiliyor: intihal, umursamazlık ve geçiştirme. Literatürdeki standart argümanları bir tür süper otomatik tamamlama ile özetliyor, herhangi bir konuda tavır almayı reddediyor, sadece cehaleti değil zekâ yoksunluğunu da savunuyor ve nihayetinde sorumluluğu yaratıcılarına atarak “sadece emirleri uyguluyorum” savunmasını sunuyor.

Kısacası, ChatGPT ve kardeşleri yaratıcılık ile kısıtlama arasındaki dengeyi kuramamaktadır. Ya aşırı üretiyorlar (overgenerate) [ii] (hem doğrular hem de yanlışlar üretiyorlar, hem etik hem de etik olmayan kararları onaylıyorlar) ya da eksik üretiyorlar (undergenerate) (herhangi bir karara bağlı olmadıklarını ve sonuçlara kayıtsız kaldıklarını gösteriyorlar). Bu sistemlerin ahlaki değerlerinin olmaması, sahte bilimselliği ve dilbilimsel yetersizliği göz önüne alındığında, popülerliklerine sadece gülebilir ya da ağlayabiliriz.

Dr. Chomsky ve Dr. Roberts dilbilim profesörleridir. Dr. Watumull ise bir bilim ve teknoloji şirketinde yapay zeka direktörüdür.

 

[i] “John is too stubborn to talk to” ifadesi “John kendisiyle konuşulmayacak kadar inatçıdır” olarak çevirdiğimizde metinde verilen örneğin Türkçe sözdizimine tam olarak uyarlanması pek mümkün görünmüyor. Türkçe’de edilgen fiilleri fiilin kendisini değiştirdiğinden [konuşmak > konuş(ul)mak] çeviri İngilizcedeki durumu tam karşılamakta yetersiz kalıyor. “John is too stubborn to talk to” ifadesindeki birinci “to” fiile (konuşma) işaret etmektedir. İkinci “to” kelimesi ise özne John’a işaret etmektedir. Yazar burada makine öğrenmesinin İngilizce ifadedeki ikinci “to” kelimesinin başka birisini, yani John’un konuşma eylemini yönelteceği kişiyi [… İle konuşmayacak kadar] işaret eden bir ifade olarak tahmin edebileceğini ileri sürmektedir. Yani makine öğrenimi bu cümleyi “John, …. ile konuşmayacak kadar inatçıdır” olarak tahmin edebilir.

[ii] Aşırı Üretim ve Eksik Üretim: (overgeneration, undergeneration) Oluşturduğumuz Biçimsel Dilbilgisi’nin tüm ve sadece dilbilgisel cümleleri tanıyabilmesini/üretebilmesini istiyoruz. Aşırı Üretim: Eğer Biçimsel Dilbilgisi, dilbilgisel olmayan cümleleri de dilbilgisel olarak üretiyorsa, aşırı ürettiğini söyleriz. Eksik üretim: Eğer Biçimsel Dilbilgisi, gerçekte dilbilgisel olan bazı cümleleri üretmiyorsa, yetersiz ürettiğini söyleriz.