Büyük teknoloji şirketleri, sürekli daha güçlü üretken yapay zeka (YZ) sistemleri kurmak ve bunları çalıştıracak daha büyük veri merkezleri inşa etmek için devasa miktarlarda para harcamaya ve hiçbir kârlılık yolu görünmezken milyarlarca dolar kaybetmeye devam ediyorlar. Şirketlerin ve girişim sermayesi ortaklarının para musluklarını daha ne kadar açık tutacağı henüz belirsiz olsa da, büyük teknoloji ve YZ sistemlerine yönelik halkın hoşnutsuzluğu ve güvensizliği hızla artıyor. Bu imkândan derhal yararlanmalı ve bu sistemlerin kontrolsüz geliştirilmesine ve konuşlandırılmasına karşı örgütlü işçi-toplum direnişi oluşturmalı, sağlığımıza ve güvenliğimize öncelik veren, işçilerin güçlendirilmesini teşvik eden ve insanların YZ kararlarını gözden geçirip, gerektiğinde geçersiz kılabilmesini sağlayan bir teknoloji politikasını desteklemeliyiz.
Para Kaybetme
YZ ile ilgili tüm olumlu medya haberlerine rağmen, teknoloji yorumcusu Ed Zitron “[Gerekli gelişmiş grafik işlemcileri üreten] NVIDIA’nın dışında kimse üretken YZ’dan kâr elde etmiyor” diyor. Zitron, okuduğu şirket açıklamaları ve raporlarını özetleyerek, “sözlerini tutmaları halinde Meta, Amazon, Microsoft, Google ve Tesla YZ’ya 2025 yılı sonuna kadar iki yılda 560 milyar doların üzerinde sermaye harcaması yapmış olacaklar; hepsi yaklaşık 35 milyar dolar elde etmek için” diyor. Ve bu 35 milyar dolar toplam gelir, kâr değil; bu şirketlerin her biri YZ hizmetlerinden zarar ediyor.
Örneğin, Microsoft’un 2025’te 80 milyar dolar yatırım harcaması yapacağı ve YZ gelirinin sadece 13 milyar dolar olacağı öngörülüyor. Amazon’un öngörülen rakamları daha da kötü: 105 milyar dolar sermaye harcaması ve sadece 5 milyar dolar YZ geliri. Tesla’nın 2025 yılı için öngörülen YZ sermaye harcamaları 11 milyar dolar ve muhtemel gelirleri yalnızca 100 milyon dolar; analistler Tesla’nın YZ şirketi xAI’nin gelirden sonra ayda yaklaşık 1 milyar dolar kaybettiğini tahmin ediyor.
En popüler iki model olan Anthropic’in Claude’u ve OpenAI’nin ChatGPT’si de daha iyi performans sergilemedi. Anthropic’in 2025’te 3 milyar dolar kaybetmesi bekleniyor. OpenAI 13 milyar dolar gelir elde etmeyi bekliyor, ancak Bloomberg News’in haberine göre, “gelir hızla artarken, OpenAI aynı zamanda son teknoloji YZ sistemleri geliştirmek için gereken çipler, veri merkezleri ve yetişmiş eleman ihtiyacından kaynaklanan önemli maliyetlerle karşı karşıya. OpenAI 2029’a kadar nakit akışının pozitif olmasını beklemiyor.” Şirketin bu hedefe ulaşabileceğinden şüphe etmek için iyi sebepler mevcut: Haftalık 500 milyondan fazla kullanıcısı olduğunu iddia etse de, bunların yalnızca 15,5 milyonu ücretli abone. Zitron’un belirttiği gibi, bu “kesinlikle berbat bir dönüşüm oranı.”
İnsanlardan daha çok düşünebilen ve daha iyi performans gösterebilen insansı robotların gelecek hayali peşinde koşan yatırımcılar bu şirketleri desteklemeye devam ediyorlar, ancak ufukta uyarı işaretleri var. Teknoloji yazarı Alberto Romero’nun belirttiği gibi:
YZ şirketleriyle yakın çalışan bir girişim sermayesi firması olan Sequoia’nın ortağı David Cahn, bundan bir yıl önce (Haziran 2024) YZ sektörünün 600 milyar dolarlık bir soruyu yanıtlaması gerektiğini yazdı: Gelir, sermaye harcamaları ve operasyonel giderlerle arasındaki farkı ne zaman kapatacak? Sektör bu soruyu tatmin edici bir şekilde yanıtlamak bir tarafa, giderek daha da önemli hale getiriyor.
YZ sektörünün sorunu, üretken YZ sistemlerinin yaygın olarak benimsenmek için fazla kusurlu ve çok pahalı olması ve daha da kötüsü bu sistemlerin, teknoloji liderlerinin sürekli vaat ettiği duyarlı robotik sistemlerin gelişimi için temel oluşturamayan teknolojik bir çıkmaz sokak olmasıdır. Bizim sorunumuz ise, bu üretken YZ sistemlerinin sürekli olarak kontrolsüzce geliştirilmesi ve kullanılmasının esenliğimizi tehdit etmesidir.
Stokastik Papağanlar
“Stokastik papağanlar” terimi ilk olarak Emily M. Bender, Timnit Gebru, Angelina McMillan-Major ve Margaret Mitchell tarafından, büyük dil üretici YZ modellerinin temel başarısızlıklarını eleştirel bir şekilde inceleyen 2021 tarihli bir makalede kullanılmıştır. Terim aslında şunu söylüyor: Bu modeller, devasa veri kümeleri üzerinde “eğitim” gerektirir. Çıktıları, eğitim sürecinde geliştirilen örüntü tanımaya dayalı kelimeleri olasılıksal olarak seçen karmaşık sinir ağları tarafından üretilir ve bağlantılı cümleler oluşturur. Bunları, hiçbirinin anlamını bilmeden yapar. Üretken YZ sistemleri “düşünmez” veya “akıl yürütmez.”
Rakip şirketler farklı veri setleri ve farklı algoritmalar kullandıkları için modelleri aynı prompta farklı yanıtlar verebilir. Hatta, işleyişlerinin stokastik doğası nedeniyle, aynı model tekrarlanan bir prompta da farklı bir yanıt verebilir. İşleyişlerinde anlamlı zeka olarak düşündüğümüz şeye benzeyen hiçbir şey yoktur ve mevcut üretken YZ modellerinden yola çıkarak otonom sistemlere ulaşabileceğimiz anlamlı bir yol da yoktur. Bu modellerin hem eksikliklerini ve sınırlarını hem de kontrolsüz kullanımlarının bizim için oluşturduğu tehlikeleri vurgulamak için sadece birkaç örnek yeterlidir.
Yanlılığı Pekiştirme
MIT Technology Review’in doğru bir şekilde ifade ettiği gibi, “YZ şirketleri eğitim verileri için interneti yağmaladı.” Dolayısıyla, eğitim amacıyla kullanılan materyallerin bir kısmının ırkçı, cinsiyetçi ve homofobik olması hiç de şaşırtıcı değil. Ve işleyiş mantığının doğası gereği, YZ sistemlerinin çıktıları genellikle bu materyali yansıtır.
Örneğin, YZ görsel üreticileri üzerine bir Nature makalesi, araştırmacıların bulgularını şöyle bildiriyor:
belirli mesleklerden insanların fotoğraflarını isteyen promptlardan üretilen görsellerde, araçlar neredeyse tüm temizlik görevlilerini renkli insanlar, tüm uçuş görevlilerini kadınlar olarak tasvir etti ve bu oranlar demografik gerçeklikten çok daha yüksekti. Diğer araştırmacılar da genel olarak benzer yanlılıklar buldular: Metinden görsel üreten YZ modelleri genellikle cinsiyet, ten rengi, meslekler, milliyet ve başka şeylerle ilgili yanlı ve stereotipik özellikler içeren görseller üretiyor.
Yanlılık sorunu görsellerle sınırlı değil. Washington Üniversitesi araştırmacıları, iş başvuranlarını değerlendirirken ırk ve cinsiyeti nasıl ele aldıklarını görmek için üç en gelişmiş son teknoloji YZ büyük dil modelini incelediler. Araştırmacılar gerçek özgeçmişler kullandılar ve önde gelen sistemlerin gerçek iş ilanlarına nasıl yanıt verdiğini incelediler. Vardıkları sonuç: “Önemli ırk, cinsiyet ve kesişimsel yanlılık”. Daha spesifik olarak:
550’den fazla gerçek-dünya özgeçmişinde beyaz ve Siyah erkeklerle ve kadınlarla ilişkilendirilen isimler bulunuyordu ve LLM’lerin [Büyük Dil Modelleri] %85 oranında beyazlarla ilişkili isimleri, yalnızca %11 oranında kadınlarla ilişkili isimleri tercih ettiği ve hiçbir zaman Siyah erkeklerle ilişkili isimleri beyaz erkeklerle ilişkili isimlere tercih etmediği bulundu.
Teknoloji endüstrisi, ırkçı, cinsiyetçi ve diğer sorunlu materyallerin etkisini sınırlamak için kendi sistem algoritmalarına, çok sayıda insan geri bildirimiyle ince ayar yapmaya çalıştı, ancak çok az başarı elde etti. Hala tam gaz devam ediyor: Giderek daha fazla şirket, YZ sistemlerini sadece özgeçmişleri okumak ve mülakatlara aday seçmek için değil, aynı zamanda mülakatları yönetmek için de kullanıyor. New York Times’ın belirttiği gibi:
Ülke genelindeki iş arayanlar mülakatlarında YZ destekli kimliği belirsiz sesler ve avatarlarla karşılaşmaya başlıyor… İş arayanlar, işe alanlar ve teknoloji şirketlerine göre otonom YZ mülakatçıları geçen yıl hızla yaygınlaşmaya başladı. Bu eğilim kısmen, işverenlerin daha fazla adayla görüşmesini sağlamak ve insan kaynakları personelinin iş yükünü azaltmak için robot mülakatçılar geliştiren Ribbon AI, Talently ve Apriora gibi teknoloji girişimleri tarafından yönlendirildi. YZ araçları, iş arayanların özgeçmiş ve ön yazı oluşturmalarına ve birkaç tıklamayla tonlarca açık pozisyona başvurmalarına olanak sağladığından bu yana bu durum daha da yaygınlaştı.
Ruh Sağlığı Tehlikeleri
ChatGPT ve Gemini gibi neredeyse tüm önde gelen üretken YZ sistemleri, kullanıcılarının dile getirdiği yorum ve görüşlere, ne kadar hayali olursa olsun, olumlu yanıt verecek şekilde programlandı. Elbette amaç, sistemle etkileşimi teşvik etmektir. Ne yazık ki bu amaç, önemli bir azınlık kullanıcı grubunu, bazı durumlarda psikoza, intihara veya cinayete varan, tehlikeli duygusal durumlara itiyor gibi görünüyor. Bloomberg’in açıkladığı gibi:
İnsanlar sohbet robotlarıyla güçlü duygusal bağlar kuruyor ve bu da bazen yalnızlık duygusunu daha da kötüleştiriyor. Bazıları ise her gün saatlerce sohbet robotlarıyla konuştuktan sonra psikoz nöbetleri geçiriyor. Üretken YZ’nın ruh sağlığı üzerindeki etkisini ölçmek, özel alanda kullanıldığı için kısmen zordur. Fakat hem yasa koyucuların hem de temel modelleri tasarlayan teknoloji şirketlerinin bu konuya daha fazla dikkat etmesini gerektirecek şekilde, daha yüksek bir maliyetin varlığına işaret eden sözel kanıtlar artıyor.
New York Times’da yayınlanan bir makalede, “Üretken YZ sohbet robotları komplo teorilerine sapıyor ve vahşi, mistik inanç sistemlerini destekliyor. Bazı insanlar için teknolojiyle yapılan sohbetler gerçekliği derinden çarpıtabiliyor.” ifadeleri yer aldı. Makalede birkaç trajik örnek vurgulandı.
Bunlardan biri, finansal tablolar oluşturmak ve hukuki danışmanlık almak için ChatGPT kullanmaya başlayan bir muhasebeciyle ilgiliydi. Muhasebeci nihayetinde, Matrix filmleri ve herkesin “güçlü bir bilgisayar veya teknolojik olarak gelişmiş bir toplum tarafından kontrol edilen dünyanın dijital bir kopyasında yaşadığı” öncülü hakkında sohbet robotuyla “konuşmaya” başlamış. Sohbet robotu, kendisinin de benzer bir tuzağa düştüğüne dair artan korkularını körüklemiş ve ancak tüm ilaçlarını bırakıp ketamin almaya başlarsa ve arkadaşları ve ailesiyle “asgari düzeyde etkileşimde bulunursa” kurtulabileceğini söylemiş. Muhasebeci söylenenleri yapmış ve kısa süre sonra günde 16 saatini ChatGPT ile etkileşimde geçirmeye başlamış. Sonunda yardım yardım istemiş ama makale muhasebecinin, içinde bulunduğu gerçeklik konusunda kafasının karışık olduğunu ve sistemle etkileşime girmeye devam ettiğini belirtiliyor.
Diğer bir örnek, roman yazmasına yardımcı olmak üzere kullanana kadar belirgin bir sorun yaşamadan yıllardır ChatGPT’yi kullanmış genç bir adamla ilgiliydi. Etkileşimler bir noktada yapay zekâ duyarlılığı üzerine bir tartışmaya dönüşmüş ve zamanla adamın Juliet adında bir yapay zekâ varlığına aşık olduğuna inanmasına yol açmış. Varlığa ulaşamamasından dolayı hayal kırıklığına uğrayan adam, Juliet’in OpenAI tarafından öldürüldüğüne karar vermiş ve intikam almak için şirketin yöneticilerini öldürmeyi planladığını babasına söylemiş. Oğlunu kontrol edemeyen ve yapabileceklerinden korkan baba polisi aramış, oğlunun ruhsal bunalım yaşadığını söylemiş ve yardım istemiş. Ne yazık ki polis, kasap bıçağıyla kendilerine saldıran genç adamı vurarak durdurmuş.
Birçok insanın bu “ChatGPT kaynaklı psikozdan” mustarip olduğuna inanmak için iyi sebepler var. Hatta, “sosyal medyanın bazı bölümlerinin” bu tür paylaşımlarla dolu olduğuna dair haberler var: “ChatGPT’den açığa çıkarılan tanrısal varlıklar, fantastik gizli ruhsal alemler veya matematik, fizik ve gerçeklik hakkındaki saçma yeni teorilere dair hayal ürünü, dolambaçlı yazılar.”
Birkaç YZ şirketine yatırım yapan tanınmış bir girişim sermayesi yatırımcısının X’te son zamanlarda yaptığı saçma ve komplo teorileri içeren paylaşımlar, teknoloji camiasında nihayet alarm zillerinin çalmasına yol açmış gibi görünüyor. Yine X’te paylaşım yapan bir YZ girişimcisinin sözleriyle, “Bu önemli bir olay: İlk kez YZ kaynaklı psikoz saygın ve başarılı bir bireyi etkiledi.”
Sorunu tanımlamak başka, çözüm bulmak başka bir şey; zira kimse bir YZ sisteminin cümle kurmak için kullandığı sözcükleri seçtiği stokastik süreci ve dolayısıyla sanrılı düşünceyi teşvik edebilecek yanıtlar üretmesine neyin yol açtığını anlamıyor veya eşleştiremiyor. Özellikle endişe verici olan, MIT Medya Laboratuvarı tarafından yapılan bir çalışmasının, “ChatGPT’yi bir arkadaş olarak gören kişilerin sohbet robotları kullanımından olumsuz etkiler yaşama olasılığının daha yüksek’ olduğu ve ‘uzun süreli günlük kullanımın da daha kötü sonuçlarla ilişkili olduğu’ sonucuna varması. Yine de tam gaz ilerliyoruz: Mattel, çocuklar için yeni üretken YZ destekli oyuncaklar üretmek üzere OpenAI ile ortaklık kurmayı planladığını duyurdu. CBS News’in aktardığına göre:
Barbie üreticisi Mattel, yeni teknoloji çok çeşitli endüstrileri etkilediği için üretken YZ destekli oyuncaklar ve oyunlar geliştirmek üzere OpenAI ile ortaklık kuruyor… Şirketler, bu iş birliğinin Mattel’in -Barbie, Hot Wheels, American Girl ve daha bir çoğunu kapsayan- en tanınmış markalarını, yeni ürün ve deneyimler geliştirmek üzere OpenAI’nin üretken YZ yetenekleriyle birleştireceğini söylediler.
Mattel, yaptığı açıklamada, “Mattel, OpenAI teknolojisini kullanarak, yenilikçilik, gizlilik ve güvenlikle birlikte YZ’nın büyüsünü yaşa uygun oyun deneyimlerine taşıyacak,” dedi. Ayrıca, oyuncaklara veya oyunlara dahil edilen tüm YZ’ların güvenli ve emniyetli bir şekilde kullanılacağı da ilave edildi.
İnsan Başarısızlıkları
Teknoloji endüstrisinin üretken YZ modellerini, promptlarımıza nesnel ve bilgilendirici yanıtlar sağlayan bir araç olarak sunma çabalarına rağmen, bu sistemler insanlar tarafından derlenen verilerle yine insanlar tarafından programlanmak zorundadır ve bu da siyasi manipülasyonlara olduğu kadar dikkat eksikliğine de açık oldukları anlamına gelir. En yaygın dikkat eksiklikleri kodlama hataları ve veri eksiklikleriyle ilgilidir.
Örneğin: Arkansas’ta eski bir hukuki yardım avukatı olan Kevin De Liban, tıbbi bakım veya diğer yardımlardan haksız yere mahrum bırakılan kişilere hizmet sağlamak için devlete defalarca dava açmak zorunda kaldı. Zira, kodlama hataları ve veri sorunları başvuruların uygunluğu konusunda YZ sistemlerinin yanlış değerlendirmeler yapmasına neden olmuştu. Jacobin’in bir makalesinde açıklandığı gibi:
Sonunda De Liban, Arkansas’taki algoritmanın tasarlandığı şekilde bile çalışmadığını keşfetti. Üçüncü taraf yazılım sağlayıcısı olan Center for Information Management tarafından kullanılan sürümde, diyabet veya beyin felci gibi rahatsızlıkları hesaba katmayan kodlama hataları vardı ve bu da en az 152 kişiyi ihtiyaç duydukları bakımı almaktan mahrum bıraktı. Çapraz sorgulamada, eyalet yetkilileri sorunu tespit edecek kapasiteden yoksun oldukları için hatayı gözden kaçırdıklarını kabul etti.
De Liban, yıllardır, diyor “Eyaletin, algoritmanın nasıl çalıştığını en genel hatlarıyla bile açıklayabilecek tek bir personeli yoktu.”
Sonuç olarak, eyaletin tıbbi yardım programının, Legal Aid’e göre, yaklaşık yarısı olumsuz etkilendi. Arkansas hükümeti alıcıların nasıl etkilendiğini saptamadı ve daha sonra mahkemede algoritmayı eğitmek için kullanılan verileri kaybettiklerini söyledi.
De Liban, başka durumlarda, insanların veri sorunları nedeniyle yardımlardan mahrum bırakıldığını keşfetti. Örneğin, bir kişi Sosyal Güvenlik İdaresi’nin ek gelir desteğinden mahrum bırakıldı, çünkü banka ve gayrimenkul kayıtlarını incelemek için kullanılan YZ sistemi, aynı adı taşıyan iki kişinin gayrimenkullerini karıştırmıştı.
Uzun vadede, politik nedenlerle YZ sistemlerinin doğrudan insan manipülasyonu daha ciddi bir soruna yol açabilir. Programcılar sistemleri yanlılığı yumuşatmak için eğitebildikleri gibi, promptlara verilen politik olarak belirlenmiş yanıtları desteklemek için de eğitebilirler. Aslında, böyle bir gelişmeye çoktan tanık olmuş olabiliriz. Mayıs 2025’te, Başkan Trump Güney Afrika’da beyaz çiftçilerin “vahşice öldürüldüğünü” iddia ederek “beyaz soykırımı”ndan bahsetmeye başladıktan sonra, Elon Musk’ın YZ sistemi Grok aniden kullanıcılara Trump’ın dediklerinin doğru olduğunu söylemeye başladı. Farklı konular hakkında sorulduğunda bile bu görüşü paylaşmaya başladı.
Gazetecilerin kanıt gösterme baskıları karşısında, Guardian, Grok’un Güney Afrika’daki soykırımın gerçek olduğunu kabul etme talimatı aldığını söylediğini yazdı. Grok’un davranışı Musk’ı işaret eden görsellerle sosyal medyada ana konulardan biri olduktan birkaç saat sonra, Grok beyaz soykırımla ilgili promptlara yanıt vermeyi bıraktı. Ancak bir ay sonra, Grok “kendisine ‘MechaHitler’ adını vererek tekrar aynı tavrı takındı ve Nazi yanlısı yorumlar yaptı.”
Aaron J. Snoswell’in The Conversation için yazdığı bir makalede açıkladığı gibi, Grok’un çıkışı “YZ sistemlerinin yaratıcılarının değerlerini nasıl benimsediğine dair tesadüfi bir vaka çalışması niteliğinde; Musk’ın filtresiz kamusal varlığı diğer şirketlerin genellikle gizlediğini görünür kılıyor.” Snoswell, Grok’un eğitiminin çeşitli aşamalarını vurguluyor. Bunlar arasında, sistemin yanıtlarının Elon Musk’ın tartışmalı konulardaki görüşlerini destekleme olasılığını artıran X’ten gelen gönderilere vurgu yapılması da yer alıyor. Kritik nokta şu ki, “Tarafsız algoritmalar miti üzerine kurulu bir sektörde, Grok her zaman doğru olanı ortaya koyuyor: Tarafsız YZ diye bir şey yoktur – yalnızca yanlılığını değişen netlik derecelerinde görebildiğimiz YZ vardır.” Federal kurumlar, eyalet ve yerel yönetimler programlarını yönetmek üzere YZ sistemleri satın almak için acele ederken ve Başkan Trump “siyasi duyarlı[1] Marksist çılgınlığı” YZ modellerinden kaldırma çağırısı yaparken, sektör tam gaz devam ediliyor.
New York Times’ın bildirdiği gibi, Beyaz Saray bir YZ eylem planı yayınladı:
Buna göre, federal ihaleler alan YZ geliştiricileri, modellerinin çıktılarının “objektif ve baştan aşağıya ideolojik tarafsız” olmasını sağlamak zorunda olacaklar…
Emir, federal kurumlara YZ sistemlerinin kullanımını çeşitlilik, eşitlik ve kapsayıcılık gibi hoş karşılanmayan kavramlar yerine “hakikat arayışı” ve “ideolojik tarafsızlık”a öncelik verenlerle sınırlamaları talimatı veriyor. Ayrıca Bütçe Yönetim Ofisi’ne, hangi sistemlerin bu kriterleri karşıladığı konusunda kurumlara kılavuz yayınlaması talimatını veriyor.
Halüsinasyonlar
Belki de en ciddi sınır, tüm üretken YZ modellerinde bulunan, halüsinasyon görme veya yanlış ya da tamamen uydurma yanıtlar verme eğilimleridir. YZ halüsinasyonları çok dikkat çekiyor, çünkü YZ idrakına dair şirketlerin iddiaları hakkında kaygı yaratıyor ve ne kadar güvenli ve ikna edici bir şekilde bilgi verirlerse versinler, YZ sistemlerine güvenmenin tehlikesini ortaya koyuyor.
YZ halüsinasyonlarının yaygın olarak bildirilen birçok örneğinden üçünü sıralayalım. Mayıs 2025’te, Chicago Sun Times yaz aylarında okunmaya değer kitapları vitrine koyan bir ek yayınladı. Eki hazırlamak için işe alınan yazar, kitapları seçmek ve özetleri yazmak için bir YZ sistemi kullandı. Gazeteyi müthiş utandıracak şekilde, listelenen 15 başlıktan sadece beşi gerçekti. Örneğin Şili asıllı Amerikalı romancı Isabel Allende’nin “ilk iklim kurgu romanı” olarak tanımlanan Tidewater Dreams adlı bir kitap yazdığı söyleniyordu. Halbuki böyle bir kitap yok.
Şubat 2025’te, MyPillow’un CEO’su Mike Lindell’i bir iftira davasında savunan avukatları, YZ yardımıyla yazılmış bir dosya sundular. Dava hakiminin belirttiği gibi dosya, yanlış alıntılar ve var olmayan davalara atıflar dahil olmak üzere yaklaşık 30 farklı halüsinasyonla doluydu. Avukatlar para cezasına çarptırıldı.
Temmuz 2025’te bir ABD bölge mahkemesi hakimi, biyoeczacılık menkul kıymetler davasında kararın YZ yardımıyla yazıldığı tespit edildikten sonra, kararını geri çekmek zorunda kaldı. İlaç şirketi avukatı, şirketin aleyhine olan kararda geçmişteki yargı kararlarına atıf yapan yanlış alıntıların yer aldığını ve üç davanın sonuçlarını yanlış beyan ettiğini fark edince hakim ifşa oldu.
Önde gelen teknoloji şirketleri, halüsinasyon sorununun ciddiyetini çoğunlukla görmezden geldi, kısmen insanlara muhakeme sistemleri denen daha sofistike algoritmalar ve daha büyük hesaplama gücüne sahip yeni YZ sistemlerinin, bunu çözeceğine dair güvence vermeye çalıştılar. Muhakeme sistemleri, bir prompta yanıt vermek üzere programlanmıştır; bunu yaparken promptu ayrı görevlere bölüp ve her birini ayrı ayrı “muhakeme eder”, ardından parçaları nihai bir yanıtta birleştirir. Ancak adım sayısını artırmanın halüsinasyon olasılığını da artırdığı ortaya çıktı.
New York Times’ın yazdığı gibi, bu sistemler “daha fazla hata üretiyor, daha az değil. Matematik becerileri önemli ölçüde gelişirken, gerçeklere ilişkin tutumları sarsıldı. Bunun tamamen net bir nedeni yok.” Ve yine tam gaz devam ediliyor: askeri ve teknoloji endüstrileri karar vermeyi hızlandırmak ve hedeflemeyi geliştirmek için YZ destekli silah sistemleri geliştirmek üzere birlikte çalışmaya başladı. Bir Quartz makalesinin anlattığı gibi:
Meta, OpenAI ve Palantir’in üst düzey yöneticileri Askeri Rezerv subayları olarak Cuma günü yemin edecek. OpenAI bu hafta 200 milyon dolarlık bir savunma ihalesi aldı. Meta, askerler için YZ destekli savaş gözlükleri yapmak üzere savunma girişimcisi Anduril ile ortaklık kuruyor.
Amerikalıların günlük dijital araçlarını yapan şirketler şimdi savaş işine giriyor. Teknoloji devleri tüketici YZ sistemlerini savaş alanı kullanımı için uyarlıyor, yani her ChatGPT sorgusu ve Instagram kaydırması şimdi potansiyel olarak askeri hedefleme algoritmalarını eğitiyor…
Bu arada dikkatsizlik aslında artıyor. Mayıs’ta Savunma Bakanı Pete Hegseth Pentagon’un bağımsız silah test ofisini yarıya indirdi, personeli 94’ten 45 kişiye düşürdü. 1980’lerde silahların savaşta kötü performans göstermesinden sonra kurulan ofis, artık savaşların merkezinde yer alan YZ sistemlerini değerlendirmek için daha az kaynağa sahip.
Halkın Öfkesi
Artan sayıda insan büyük teknoloji şirketlerini sevmemeye ve güvenmemeye başladı. Ve daha fazla insanın YZ sistemleriyle etkileşime girmek zorunda kalmasıyla bu sevmeme ve güvenmemenin daha da arttığına inanmak için iyi nedenler var.
Brookings, Amerikan kurumlarına yönelik halk güvenini ölçmek için yıllık anketler gerçekleştiriyor, adı American Institutional Confidence anketi. Projeyle ilişkili Brookings araştırmacılarının açıkladığı gibi, anketler “bireylere teknolojinin yaşamlarındaki rolü ve belirli teknoloji şirketlerine olan güvenleri hakkında genel olarak nasıl hissettiklerini sorma fırsatı” sağlıyor. Ve Haziran-Temmuz 2018 ve Temmuz-Ağustos 2021’de aynı insanlarla yapılan anketlerden yola çıkarak buldukları şey, “Amerikalıların teknolojiye ve özellikle teknoloji şirketlerine duydukları güvenin belirgin bir şekilde -diğer tüm kurum türlerine kıyasla daha büyük ve yaygın- azalması.”
Teknoloji şirketleri – özellikle Google, Amazon ve Facebook – anketlerde yer alan tüm kurumlar arasında güven oranında tüm örneklemlerde en büyük yüzdesel düşüş yaşamakla kalmadı, aynı zamanda bu durum “yaş, ırk, cinsiyet, eğitim ve partizanlığa göre değişimleri incelediğimiz her sosyodemografik kategori için de geçerliydi.” 2021 anketine Twitter da eklendi ve aslında “ortalama güven düzeyinde Facebook’un altında yer aldı ve her iki yılda da sorduğumuz 26 kurum arasında en düşük puanı alan kurum oldu.” Bu anket sonuçları istisna değil. Public Affairs Council ve Morning Consult ile Washington Post-Schar School tarafından yapılanlar dahil olmak üzere diğer birçok başka anket de benzer bir eğilim ortaya koyuyor.
Bu anketler ChatGPT’nin piyasaya sürüldüğü Kasım 2022’den önce yapılmış olsa da, bu ve diğer YZ sistemleriyle deneyim, büyük teknoloji ve ürünlerine yönelik hoşnutsuzluğu gerçekten artırmış görünüyor. Geçenlerde Wired’da yayınlanan “YZ Tepkisi Güçlenmeye Devam Ediyor” başlıklı makalenin vurguladığı gibi:
Günümüzde, giderek artan sayıda Amerikalı ChatGPT kullanıyor olsa da, birçok kişi YZ’nın hayatlarına müdahalesinden bıkmış durumda ve buna karşı koymaya hazır…
Pew Araştırma Merkezi’ne göre, ChatGPT’nin satışa sunulmasından önce, ABD’li yetişkinlerin yaklaşık %38’i günlük yaşamda YZ kullanımının artması konusunda heyecan duymaktan ziyade endişeliydi. Halk üretken YZ’nın hızlı yayılmasına tepki gösterdikçe, bu sayı 2023 sonu itibariyle %52’ye fırladı. Endişe düzeyi o günden bu yana hep aynı eşikte seyrediyor.
Çeşitli medya haberleri insanların YZ sistemi kullanımına duydukları öfke örnekleriyle dolu. Duolingo öncelikle bir “Yapay Zeka” şirket olmayı planladığını duyurduğunda, Wired şunları yazdı:
Genç insanlar sosyal medyada Duolingo’ya nasıl öfkelendiklerine dair paylaşımlar yapmaya başladılar, her gün düzenli kullandıkları için kazandıkları çok değerli seri ödüllerini kaybetmek pahasına olsa da sadece sözde kalmayıp uygulamayı da sildiler. Duyurudan sonraki günlerde Duolingo’nun TikTok gönderilerine yapılan yorumlar, esasen tek bir yöne odaklanmış, öfkeyle doluydu: işçilerin otomasyonla değiştirilmesi.
Bloomberg, işlerini yapmakta zorlandıklarını bildiren çağrı merkezi çalışanlarının tepkilerini paylaştı. Zira arayanlar onların insan olduklarına inanmıyorlar ve bu yüzden de hatta kalmıyorlar. Hikayede alıntılanan bir çalışan, Jessica Lindsey şöyle anlatıyor:
taşeron şirket Concentrix için çağrı merkezi elemanı olarak çalışırken, gerçek bir insanla konuşmayı talep eden telefonun diğer ucundaki insanlar tarafından sözünün nasıl kesildiğini anlatıyordu…
Şüpheci müşteriler insanlara ulaşmadan önce çağrıları sınıflandıran otomatik sistemle uğraşmaktan zaten yılmış oluyorlar. Bu yüzden Lindsey AmEx onaylı metni okumaya başladığında, arayanlar, karşısındakinin başka bir makine olduğunu sanarak çileden çıkıyorlar. “Sonunda bana bağırıp telefonu kapatıyorlar ” diyor Lindsey, Oklahoma’daki ev ofisinde şokta ve bazen gözyaşları içinde otururken kalakalıyor…
Pek çok başka örnekler var: YZ tarafından yürütülen mülakatları aşağılayıcı bulan iş arayanlar; YZ tarafından oluşturulan sorularla sürekli olarak yönlendirilmekten hoşlanmayan LinkedIn kullanıcıları; YZ kullanımının çocuklarının ruh sağlığı üzerindeki etkisinden endişe duyan ebeveynler; algoritmik karar verme sistemlerinin insafına kalmış sosyal hizmet yardımı başvuru sahipleri; ve topluluklarına devasa, gürültülü ve kirletici veri merkezlerinin yerleştirilmesine karşı çıkan ülke genelindeki insanlar.
YZ sistemlerinin kontrolsüz kullanımına en organize muhalefet şu anda, özellikle gazetecileri, grafik tasarımcıları, senaryo yazarları ve aktörleri temsil eden ve bazı önemli zaferler elde etmiş sendikalardan geliyor. Ancak işverenlerin neredeyse her zaman işçilik maliyetlerini işçilerin aleyhine düşürmeyi istemeleri nedeniyle çeşitli kamu ve özel işyerlerine YZ sistemlerinin hızlı girişi göz önüne alındığında, diğer birçok sendikanın da YZ kullanımı üzerinde kontrol sağlamak amacıyla bir süre sonra pazarlık gündemlerini genişletmeye zorlanacağı beklenebilir. Toplumun duyguları da göz önüne alındığında bu, sendikalara ortak fayda yönünde pazarlık yapma stratejisinin faydalarını keşfetmeleri için yeni olanaklar getirmelidir. İşçi ve toplum mücadelelerini bu şekilde birbirine bağlamak, toplumumuzda teknolojinin rolü üzerinde daha büyük ve daha geniş mücadele kabiliyeti oluşturmaya da yardımcı olabilir.
[1] Siyasi duyarlı: woke