İlk iki yazımızda yapay zekanın teknik özelliklerini, toplumsal etkilerini ve sektörel uygulamalarını ele aldık. Şimdi ise bu teknolojinin getirdiği üç temel soruna odaklanacağız: veri güvenliği, kontrol ve niyet meselesi ile erişim eşitsizliği. Bu sorunlar aslında yapay zeka ile ortaya çıkmadı. Bunlar dijital çağın, hatta modern kapitalizmin yapısal sorunları. Yapay zeka bu sorunların boyutlarını genişletiyor ve çözümlerini daha da karmaşıklaştırıyor.

Bu sorunların her biri, toplumsal yapımızdaki çatlakları derinleştirme potansiyeline sahip. Ancak paradoksal bir şekilde, bu sorunların görünür hale gelmesi, çözüm için de bir fırsat sunuyor.

  1. Veri Güvenliği: Dijital Panoptikon

Yapay zekanın beslendiği hammadde dijital veri, BIG DATA. Bu, kişisel verilerimizin dijital ortamda sürekli erişilebilir hale gelmesi anlamına geliyor. Tek bir kimlik doğrulamasıyla bankacılık yapabilmek, sağlık kayıtlarına ulaşmak veya kamu hizmetlerine erişmek hayatı kolaylaştırıyor. Ancak bu kolaylık, güvenlik açısından ciddi riskler taşıyor. Veri güvenliği denildiğinde akla genellikle kredi kartı bilgilerinin çalınması veya şifrelerin ele geçirilmesi geliyor. Oysa sorun çok daha derin ve yapısal. Shoshana Zuboff’un “Gözetim Kapitalizmi Çağı” kitabında[1] detaylıca anlattığı gibi, artık sadece verilerimiz çalınmıyor; davranışlarımız, alışkanlıklarımız, hatta gelecekteki tercihlerimiz bile metalaştırılıp satılıyor.

Jeremy Bentham’ın 18. yüzyılda tasarladığı Panoptikon hapishanesi, merkezde yer alan bir gözetleme kulesinden tüm mahkumların izlenebildiği dairesel bir yapıydı. Mahkumlar ne zaman izlendiklerini bilemedikleri için sürekli izleniyormuş gibi davranırlardı. Bugün, cep telefonlarımız, sosyal medya hesaplarımız ve dijital ayak izlerimiz sayesinde sanki hepimiz mahrem verilerimizi gönüllü bir şekilde paylaşır hale geldik. Eskiden mahremiyetimizi korumak için evimizin perdesini kapatmak yeterliydi. Orwell’in 1984’ünde bile tele ekran sadece evdeydi ve teorik olarak kapatılabiliyordu. Sadece devlet veya büyük kurumlar tarafından izlenebilirdik. Şimdi ise cebimizde taşıdığımız telefonlar 7/24 lokasyonumuzu takip ediyor, akıllı saatlerimiz, hatta buzdolaplarımız bile bizi izliyor.

Google, her arama sorgusunu kaydediyor. Facebook ve Instagram, fotoğraflarınızdaki yüzleri tanıyıp profil oluşturuyor. Alexa ve Google Home gibi asistanlar, “uyandırma kelimesi”[2] beklerken aslında tüm konuşmaları dinliyor. Akıllı televizyonlar izleme alışkanlıklarını kaydediyor. Hatta bazı modeller, karşısında oturanların yüz ifadelerini bile analiz edebiliyor.

2025 yılı itibarıyla durum endişe verici boyutlara ulaşmış durumda. Stanford Üniversitesi’nin 2025 Yapay Zeka İndeks Raporu’na göre¹ yapay zeka ile ilgili güvenlik olayları yıllık %56,4 artışla 233 vakaya ulaştı[3]. IBM’in 2025 raporunda belirtildiği üzere, kurumların %13’ü yapay zeka modelleri veya uygulamalarında güvenlik ihlali yaşadığını, bu ihlali yaşayanların %97’sinin ise yapay zeka erişim kontrollerinin olmadığını bildirdi[4].

Veri güvenliği sorunu üç katmanda kendini gösteriyor:

Bireysel Düzeyde: Facebook-Cambridge Analytica skandalında 87 milyon kullanıcının verilerinin siyasi manipülasyon için kullanıldığı anlaşıldı. Bu olay, kişisel verilerin nasıl silah haline getirilebileceğinin çarpıcı bir örneğiydi. Bugün ise durum daha da karmaşık. Araştırmaya katılan beyaz yaka çalışanların %15’i hassas bilgileri, kod parçalarını veya finansal verileri ChatGPT gibi halka açık dil modellerine yapıştırıyor[5]. Gizli şirket bilgileri, fiziki sunucusunun yeri bile tam olarak net olmayan bir şirkete vermiş oluyor; sanki gizililik sözleşmesi imzalamış bir şirket çalışanıymış gibi, hem de sızıntı olduğunda kimi hangi ülke yasasına göre dava edeceği bile belli değilken. Her yapıştırılan bilgi, potansiyel bir güvenlik açığı yaratıyor.

Kurumsal Düzeyde: Varonis’in 2025 raporuna göre kurumların %99’unda yapay zeka tarafından kolayca erişilebilecek hassas veriler bulunuyor ve kurumların %98’inde onaylanmamış “gölge yapay zeka” uygulamaları mevcut[6]. 2025’te yaşanan Change Healthcare saldırısı, 190 milyon kişiyi etkileyerek sağlık sektöründe yaşanan en büyük veri ihlali oldu[7]. Hastane ağları çöktü, hasta kayıtlarına erişilemedi. Sağlık gibi kritik bir alanda yaşanan bu tür olaylar, sadece finansal kayıp değil, insan hayatı açısından da risk oluşturuyor. 2021’de Pfizer’ın veri ihlali, milyonlarca insanın sağlık bilgilerini tehlike altına soktu.

Ulusal Düzeyde: E-devlet sistemlerindeki güvenlik açıkları, milyonlarca vatandaşın verilerini riske atıyor. Gartner’ın tahminlerine göre, 2027 yılına kadar yapay zeka ile ilgili veri ihlallerinin %40’ından fazlası, üretken yapay zekanın ulus devlet sınırları arası yanlış kullanımından kaynaklanacak[8]. Verilerin hangi ülkede[9], hangi sunucularda saklandığı bile bilinmiyor. 2020’de İçişleri Bakanlığı’nın 78 milyon vatandaşın T.C. kimlik numarası, adı, soyadı, anne-baba adı, doğum yeri ve tarihi gibi bilgilerinin internette satışa çıktığını açıklaması hafızalarda[10]. 2021’de SGK verilerinin sızdırılması, milyonlarca kişinin sağlık bilgilerinin karanlık web sitelerinde dolaşması[11]… E-devlet sistemindeki güvenlik açıkları nedeniyle vatandaşların adına şirket kurulması, kredi çekilmesi vakaları[12]… Bunlar sadece bildiğimiz, basına yansıyan örnekler. Entegrasyon kolaylık getirirken, merkezi veri depolama sistemleri hedef haline geliyor. KVKK (Kişisel Verilerin Korunması Kanunu) düzenlemeleri önemli, ancak teknolojik koruma tedbirleri bunu desteklemezse yeterli değil. Veri güvenliğine yatırım, teknolojinin kendisi kadar önemli hale geliyor. Gelinen noktada “Büyük Birader bizi sadece izlemiyor, aynı zamanda içimizde[13] Bu sadece bir “hırsızlık” meselesi değil, aynı zamanda bireysel özerklik ve irade üzerinde potansiyel tahribat anlamına da geliyor. Artık sadece kameralarla dışarıdan gözetlenmiyoruz. Akıllı telefonlar, uygulamalar ve akıllı cihazlar sayesinde, sanki bir “büyük birader” herkesin beyninin içine girmiş gibi düşünceleri, alışkanlıkları biliyor ve buna göre herkesi yönlendiriyor.

Aslında bu sorun yapay zekaya özgü değil, dijitalleşme başladığı günden itibaren bu sorunun içindeyiz ve bu, bir nevi basit hırsızlık sorunu. Verinin değeri, korunmasını gerekli kılıyor. 2000’lerin başında yaşanan bilgisayar virüsleri, trojan krizi gibi bir kriz aslında. Sebebi belli, çözümü zor ama mümkün. Avantaj ve risk denkleminin dengesi, kullanıcıların bilinçli ve örgütlü tercihlerine bağlı. Ancak çoğu zaman bu tercihi yapacak teknik bilgi eksik kalıyor; bu nedenle ilgili adımlar üzerine yoğunlaşmak önem arz ediyor.

Yapay zeka bu durumu nasıl değiştiriyor? Öncelikle, veri toplama kapasitesini ve iştahını inanılmaz boyutlara çıkarıyor. OpenAI’nin GPT modelleri internetteki trilyonlarca kelimeyi tarayarak eğitildi. Google’ın Gemini modeli, kullanıcıların tüm etkileşimlerinden öğreniyor. Bu modeller sadece metinleri değil, görüntüleri, sesleri, hatta davranış kalıplarını bile analiz edebiliyor.

Daha da endişe verici olan, bu veriler birleştirildiğinde ortaya çıkan tablo. 2013’te MIT’de (Massachusetts Teknoloji Enstitüsü) yapılan bir araştırmaya göre, sadece dört anonim konum verisi noktası, %95 doğrulukla bir kişinin kimliğini tespit etmek için yeterli[14]. Hangi saatte uyanılır, hangi rota kullanılır, ne tür müzik dinlenilir, hangi haberler okunur- bunlar tek başına masum görünebilir. Ama bir araya geldiğinde, sizin hakkınızda psikanalistinizin bile bilmediği detaylı bir profil oluşturur.

Bu profil sadece size reklam göstermek için kullanılmıyor. Çin’in sosyal kredi sistemi, bu tür verileri kullanarak vatandaşlarına puan veriyor ve bu puan, tren biletinden iş başvurusuna kadar her şeyi etkiliyor[15]. ABD’de sigorta şirketleri, sosyal medya verilerinize bakarak sağlık sigortası primlerinizi belirleyebiliyor. İngiltere’de bazı işverenler, çalışan adaylarının sosyal medya profillerini yapay zeka ile tarayıp “risk skoru” çıkarıyor. Türkiye’de henüz bu kadar sistematik uygulamalar yok ama altyapısı hızla kuruluyor.

Belki de en ürkütücü olan, “predictive analytics” – tahmine dayalı analitik. Target mağazalar zinciri, 2012’de bir genç kızın hamile olduğunu ailesi öğrenmeden önce tespit edip bebek ürünleri reklamı gönderdiğinde büyük skandal olmuştu[16]. Bugün bu tür tahminler çok daha sofistike. Yapay zeka, depresyona girme ihtimalinizden, ilişkinizin ne zaman biteceğine, hangi hastalıklara yakalanma riskinizin yüksek olduğuna kadar her şeyi tahmin edebiliyor. Ve bu tahminler, kendi kendini gerçekleştiren kehanetlere dönüşebiliyor.

İkinci soruna geçmeden önce çözüme dair birkaç not düşme ihtiyacı oluşuyor. Belirttiğimiz gibi bu, bir nevi basit hırsızlık sorunu. Çözümü de teknolojinin sunduğu, çoktan birer alışkanlık haline gelmiş bazı konforlardan vazgeçebilmekte. Bu konfor karşılığında riske edilen şeyin farkına varabilmekte. Peki böyle bir farkındalık için mücadele ediliyor mu?

  1. Kontrol ve Niyet Meselesi: Algoritmik Hegemonya

“Tarafsız algoritma” modern zamanların en büyük yalanlarından biri. Her algoritma, onu yazan insanların bilinçli veya bilinçsiz önyargılarını taşır. Ama daha da önemlisi, bu algoritmaları kontrol eden şirketlerin ekonomik ve politik çıkarları, teknolojinin nasıl çalışacağını belirler. Cathy O’Neil’ın “Weapons of Math Destruction” kitabında anlattığı gibi, algoritmalar objektif görünümlerinin arkasına saklanarak aslında var olan eşitsizlikleri pekiştiriyor ve meşrulaştırıyor. Durumu şöyle de özetleyebiliriz; halkla ilişkiler ve pazarlama tarihinde gördüğümüz manipülasyon tekniklerinin şimdi algoritmik yapay zeka desteği var.

Somut örneklere bakalım. Amazon’un işe alım algoritması vakası klasik bir örnek. Şirket, 2014’te özgeçmişleri tarayıp en iyi adayları seçecek bir yapay zeka sistemi geliştirdi. Sistem, son 10 yılın başarılı çalışan profillerinden öğreniyordu. Sorun şuydu: Teknoloji sektörü tarihsel olarak erkek egemen olduğu için, sistem kadın adayları sistematik olarak eleyip erkekleri tercih ediyordu. “Kadın satranç kulübü” gibi ifadeler içeren özgeçmişler düşük puan alıyordu[17]. Amazon sistemi kapatmak zorunda kaldı ama benzer sistemler birçok şirkette hâlâ kullanılıyor.

ABD’de kullanılan COMPAS adlı suç tahmin algoritması da oldukça sorunlu. ProPublica’nın araştırmasına göre, sistem siyah sanıkların tekrar suç işleme riskini sistematik olarak yüksek gösteriyor. Aynı suçu işlemiş, benzer sabıka geçmişine sahip beyaz ve siyah sanıklar karşılaştırıldığında, siyahların “yüksek riskli” olarak etiketlenme olasılığı iki kat fazla. Bu algoritma, yargıçların kefalet ve ceza kararlarını etkiliyor. Önyargı, veriyle besleniyor ve algoritma aracılığıyla hukuk sistemine giriyor[18].

Bankaların “size özel” kredi önerisi aslında veri analizi ile risk profilinize dayalı karlı bir pazarlama. Netflix’in film önerileri kişisel zevkinizi değil, izleme süresi metrikleriyle en yüksek kârı hedefliyor. Makine öğrenmesi doğruyu değil, veriyi kodlayıcının amacı doğrultusunda en iyi şekilde yansıtan sonucu bulur. Hatta eğitim verisindeki önyargılar sistemin çıktılarına yansıyabilir. İşe alım sistemlerindeki cinsiyet veya ırk ayrımcılığı, reklam algoritmalarının toplumsal kalıpları pekiştirmesi, sağlık sistemlerinde belirli demografik grupların temsil edilmemesi gibi toplumsal alanda var olan birçok sorun makineler ile iyice kemikleşip üstesinden gelinemez hale gelebilir.

ChatGPT benzeri deep learning (derin öğrenme) modelleri gerçek anlamda düşünmüyor. Onlar çeşitli tahminler yapabilirler ancak kendi irade ve amaçları yoktur. İrademizi bu sistemlere devretmek, yani bizim yerimize karar vermesine izin vermek, kontrol edilemeyen sonuçlara yol açabilir. Kendimiz karar verecek verilere sahipsek ama bunları analiz edecek kapasite ve/veya zamanımız yoksa yapay zeka bu konuda bize destek verebilir. Ancak neye göre karar vereceğimizi bilmediğimiz bir konuda, bize nasıl karar verdiğini açıklayamayacak bir makineye irademizi teslim etmemiz tanım itibari ile anlamsızdır.

Yapay zekayı bir üst akıl olarak konumlandırıp, irademizi ona devrettiğimizde ve bu yanılsama ile hareket ettiğimizde tarif etmeye çalıştığımız düzenin içinde bir çark olarak yer almanın ötesine geçemiyoruz. “Tarafsız” olduğu yanılsaması ile bir üst akıl olarak konumlandırdığımız sürece de geçmemiz çok olası değil. Niyeti sorgulayan ve teknolojiyi kendi niyetine uygun şekilde kullanan bir yaklaşım fark yaratabilir. Peki bu yaklaşıma uygun hareket edecek imkanlara erişimimiz var mı?

  1. Erişim Eşitsizliği: Dijital Apartheid

Teknolojiye erişim eşitsizliği yeni değil, ancak yapay zeka bu uçurumu daha da derinleştiriyor. Akademik ve endüstriyel etik tartışmalar çoğunlukla şeffaflık, açıklanabilirlik ve dürüstlük gibi konularla sınırlı kalıyor. Ancak asıl etik kriz erişim eşitsizliğinde. Eşit toplum yoksa eşit erişim de olmaz. Bir yanda en son yapay zeka destekli sağlık taramalarıyla hastalıkları erken teşhis ettirebilen zenginler varken, diğer yanda bırakın akıllı saati, temel sağlık hizmetlerine bile ulaşamayan milyonlar var. Yapay zeka bu sınıfsal eşitsizliği daha görünür hale getirmekle kalmıyor, aynı zamanda derinleştiriyor da. Hatta yapay zeka ile yeni eşitsizlik alanları oluşuyor. Yapay zeka destekli özel eğitime kimler ulaşabilecek? OECD raporları[19], yapay zekanın yüksek vasıflı çalışanlar ile düşük vasıflı çalışanlar arasındaki ücret farkını giderici yönde bir etkisi olmadığını söylüyor. Ayrıca, cinsiyet ve yaş temelli ücret farkları yapay zekadan büyük ölçüde etkilenmemiş görünüyor. Teknolojik gelişmeler sonucu vasıfsız kalma riskine karşı insanların yeni beceri kazanma imkanlarının da çok sınırlı olacağı kesin.

Yapay zeka çağının belki de en acı gerçeği, faydalarının eşit dağılmaması. Oxford Economics’in 2024 raporuna göre, yapay zekadan en çok faydalanacak ülkeler zaten zengin olanlar; ABD, Çin, İngiltere ve Almanya gibi ülkeler yapay zeka ekonomisinin %70’ini kontrol edecek[20]. Geri kalan dünya ise ya müşteri ya da veri kaynağı olacak. Dünya nüfusunun %37’si hâlâ internete erişemiyor[21], Afrika’da bu oran %60’lara çıkıyor[22]. İnternete erişimi olanların da önemli bir kısmı, sadece mobil internet kullanıyor ve veri paketleri sınırlı. Bu insanlar için yapay zeka çağının vaatleri – online eğitim, uzaktan sağlık hizmetleri, dijital ekonomiye katılım – erişilemez lüksler.

Türkiye’de internet erişim oranı %84 civarında olsa da bu rakam yanıltıcı. TÜİK verilerine göre, hanelerin %25’inde bilgisayar yok[23]. Kırsal kesimlerde geniş bant internet erişimi hâlâ sorunlu. Daha da önemlisi, dijital okuryazarlık oranları düşük. Milyonlarca insan interneti sadece WhatsApp, Instagram ve YouTube için kullanıyor. Bu “tüketici” kullanım, gerçek dijital beceri anlamına gelmiyor.

Eğitimdeki eşitsizlik bu durumu katmerlendiriyor. Stanford Online High School’da öğrenciler, kişiselleştirilmiş yapay zeka öğretmenleri ile çalışıyor. Her öğrencinin öğrenme hızına ve stiline göre adapte olan sistemler kullanılıyor. Aynı anda Anadolu’nun bir köyündeki okulda, öğrenciler hâlâ tek öğretmenli birleştirilmiş sınıflarda eğitim görüyor. Bu çocuklar büyüdüğünde, global iş piyasasında nasıl rekabet edecek?

Sağlık alanındaki eşitsizlik daha da dramatik. Mayo Clinic’te hastalar, genomik verilerine dayalı kişiselleştirilmiş kanser tedavisi alabiliyor. IBM Watson Health, nadir hastalıkları teşhis etmek için milyonlarca tıbbi makaleyi saniyeler içinde tarayabiliyor. Türkiye’de ise devlet hastanelerinde MR için aylarca sıra bekleniyor. Yapay zeka destekli teşhis sistemleri sadece birkaç özel hastanede ve fahiş fiyatlarla sunuluyor.

Ekonomik fırsatlardaki eşitsizlik belki de en kalıcı olanı. Upwork ve Fiverr gibi platformlarda, gelişmiş ülkelerden serbest çalışanlar yapay zeka araçlarını kullanarak verimliliğini artırıyor ve daha yüksek ücretler talep ediyor. Aynı platformlarda rekabet eden gelişmekte olan ülke vatandaşları, bu araçlara erişemediği için giderek daha düşük ücretlerle çalışmak zorunda kalıyor.

Dil bariyeri de önemli bir faktör. ChatGPT İngilizce’de muazzam başarılı ama Türkçe’de hâlâ yetersiz. Google Translate yıllardır var ama Türkçe çevirileri hâlâ gülünç hatalar içeriyor. Bu demek oluyor ki, ana dili İngilizce olmayanlar yapay zeka devriminden ikinci sınıf vatandaş olarak faydalanıyor.

Bu gerçekler ışığında şu anda yaşanan “yapay zeka devrimi” söylemleri sürdürülebilir mi? Her yeni teknoloji hayal gücünü tetikliyor, beklenti balonu şişiriliyor. İş yapış şeklini, verimliliği, ekonomik modelleri ve sonra her şeyi değiştireceği yönünde anlatılar sürekli artıyor. Dot-com balonu, Metaverse, Web 3.0 söylemlerinin altının boşalması bunlara örnek. Yapay zekanın sürdürülebilirliği enerji tüketimi, hesaplama maliyetleri ve gerçek kullanım alanlarına bağlı. Teknik gerçeklikler, pazarlama söylemlerini ne kadar süre taşıyabilir?

31 ülkede yapılan bir araştırma, yetişkinlerin %52’sinin yapay zeka ürün ve hizmetleri konusunda endişeli olduğunu gösterdi. Bu korku, genellikle yeni teknolojilerin yarattığı doğal merak ve heyecanı gölgeliyor. Yaşlılar, düşük eğitim seviyesine sahip olanlar ve düşük gelir grupları, yapay zeka becerilerinde en düşük seviyelere sahip[24].UNESCO’nun vurguladığı gibi, en dezavantajlı topluluklar – kadınlar, renkli insanlar, engelli bireyler, LGBTQ+ bireyler – bu bölünmenin yükünü taşıyor[25].

Bu eşitsizlik, gelecekte “yapay zeka lordları” ile “dijital serfler” arasında yeni bir sınıf sistemi yaratma riski taşıyor. Örneğin, yapılan son araştırmalar 2030 yılına kadar yapay zeka kaynaklı otomasyonun, Siyah Amerikalıların icra ettiği işleri genel nüfusa oranla %10 daha fazla etkileyeceğini ve yaklaşık 4,5 milyon çalışanın bu dönüşüme maruz kalacağını öngörüyor[26]. Benzer şekilde; kadın istihdamının yoğunlaştığı yönetim destek, perakende ve müşteri hizmetleri gibi sektörler, otomasyon riskinin en yüksek olduğu alanlar olarak öne çıkıyor. Bu durumun temelinde yatan en kritik faktörlerden biri ‘algoritmik önyargı’dır (algorithmic bias); zira yapay zeka sistemleri, eğitildikleri veri setlerindeki tarihsel eşitsizlikleri ve toplumsal önyargıları kopyalayarak, dezavantajlı grupların işe alım veya kredi puanlama gibi süreçlerde elenmesine neden olabiliyor.

Sorunların Kesişimi: Kısır Döngü

Bu üç sorun – veri güvenliği, kontrol mekanizmaları ve erişim eşitsizliği – birbirinden izole problemler değil. Birbirlerini besleyen, güçlendiren ve çözümlerini zorlaştıran bir döngü oluşturuyorlar. Veriye erişimi olan onu kontrol ediyor. Google ve Facebook neden bu kadar güçlü? Çünkü milyarlarca insanın verisine sahipler. Bu veri onlara, rakiplerinin geliştiremeyeceği algoritmalar yaratma gücü veriyor. Bu algoritmalar daha fazla kullanıcı çekiyor, daha fazla veri topluyor ve döngü böyle devam ediyor.

Bu durum bize ekonomik, siyasi ve sosyal manipülasyonun kaçınılmaz olduğu bir gerçeklik sunmakta. Platform şirketlerinin kazandığı muazzam güç, onları modern çağın feodal beyleri haline getirdi. Google arama pazarının %92’sine sahip[27]. Bu demek oluyor ki, Google‘ın algoritması sizin hakkınızda ne gösterirse, dünya onu görüyor. Facebook ve Instagram (Meta) 3 milyar kullanıcısıyla dünyanın en büyük medya şirketi ama hiç içerik üretmiyor. Amazon e-ticaretin %40’ını kontrol ediyor ve aynı zamanda bu pazarda rekabet eden şirketlerin de altyapı sağlayıcısı. Apple, uygulamalar üzerinden %30 komisyon alarak dijital vergilendirme yapıyor. Bu şirketler sadece ürün satmıyor veya hizmet vermiyor; hayatımızın dijital altyapısını kontrol ediyor. Yapay zeka da bu kontrolü daha da pekiştiriyor. GPT-4 gibi büyük dil modellerini eğitmek yüz milyonlarca dolar maliyetinde. Sadece Google, Microsoft, Amazon gibi devlerin karşılayabileceği hesaplama gücü gerekiyor. Sonuç? Yapay zeka devrimi, güç yoğunlaşmasını artırıyor, zenginleri daha zengin yapıyor.

Endişe verici olan, bu şirketlerin demokratik denetimden kaçma becerileri. Facebook, Myanmar’daki soykırımda platformunun oynadığı rolü ancak yıllar sonra kabul etti. YouTube‘un radikalleştirme algoritması, insanları aşırılık yanlısı içeriklere yönlendirdiği için eleştirildi ama şirket bunu “kullanıcı tercihi” olarak savundu. Twitter (şimdi X), Elon Musk yönetiminde içerik moderasyonunu gevşeterek yanlış bilgi ve nefret söyleminin yayılmasına göz yumuyor[28]. Türkiye’de durum biraz farklı ama özünde aynı. Yerli platform şirketlerimiz yok denecek kadar az. Trendyol, Hepsiburada gibi e-ticaret devleri bile aslında global sermayenin parçası. Teknoloji transferi adı altında, aslında şirketlerin ihtiyacı olan verileri sağlayarak, bir nevi veri transferine ücretsiz malzeme sağlamış oluyoruz. Milyonlarca Türkiye vatandaşının verisi, yurt dışındaki sunucularda saklanıyor ve nasıl kullanıldığını tam olarak bilmiyoruz. Ancak esas önemlisi, uzun vadede veri biriktiremeyen yapıların bir alternatif olma şansının da ortadan kalkması. Böylece tek merkezden yönetilen algoritmalar tekelleşiyor.

Kontrol gücüne sahip olanlar, kuralları belirliyor. Facebook‘un algoritması hangi haberleri gösteriyorsa, milyarlarca insan o haberleri görüyor. Google neyi üst sıralarda gösteriyorsa, o bilgi “doğru” kabul ediliyor. Amazon hangi ürünü öne çıkarıyorsa, o ürün daha çok satıyor. Bu şirketler sadece büyük pazar payına sahip değil; gerçekliği şekillendirme gücüne de sahipler. Erişim eşitsizliği, güç dengesizliğini daha da artırıyor. Yapay zeka araçlarına erişimi olanlar daha üretken oluyor, daha çok kazanıyor, daha iyi eğitim alabiliyor. Erişimi olmayanlar ise giderek geride kalıyor. Dijital uçurum ekonomik uçuruma dönüşüyor ve bu uçurum nesilden nesile aktarılma riski taşıyor.

Veri güvenliği zayıf olan gruplar, genellikle ekonomik olarak dezavantajlı gruplar. Onların verileri daha kolay sömürülüyor, bu da ekonomik eşitsizliği derinleştiriyor. Algoritmaların kontrolünü elinde tutanlar, erişim kapılarını da kontrol ediyor. Eğitim, iş, kredi gibi fırsatlara kimlerin erişeceğine algoritmalar karar veriyor. Dijital erişimi olmayanlar, algoritmik kararlara itiraz etme, haklarını savunma imkanından da yoksun kalıyor. Seslerini duyuramazken, algoritmalarda temsil de edilmiyorlar.

Kurumların %40’ının yapay zeka ile ilgili gizlilik olayları bildirmesi, %70’inin ise yapay zeka kullanan şirketlere güvenmemesi bu döngünün somut sonuçları[29]. Güven erozyonu, özellikle dezavantajlı gruplar arasında daha yoğun. Fiziksel dünyada zaten ayrımcılığa uğrayanlar, dijital dünyada da aynı – hatta daha yoğun – ayrımcılığa maruz kalıyor.

Veri güvenliği olmadan iyi niyet tartışması boşa çıkıyor. İyi niyetli olunsa bile, erişim eşitsizliği sürdükçe adil bir yapay zeka çağından bahsedemeyiz. Tartışmaların ileri gitmesini engelleyen ana sorun ise şu: Bu problemler yeni değil, çoğu yapay zeka öncesinde de vardı.

Sonuç: Kriz mi, Fırsat mı?

Bu sorunlara kolay çözümler yok. “Veri güvenliği yasaları çıkaralım” demek kolay ama GDPR (General Data Protection Regulation) gibi en sıkı yasalar bile teknoloji devlerini durduramıyor. Şirketler ceza ödemeyi maliyete katıp yoluna devam ediyor. “Algoritmalar şeffaf olsun” deniyor ama çoğu yapay zeka modeli o kadar karmaşık ki, onu yaratanlar bile nasıl çalıştığını tam olarak açıklayamıyor. “Dijital eşitlik sağlayalım” güzel bir ideal ama bunun için devasa kaynaklar ve politik irade gerekiyor.

Yine de umutsuzluğa kapılmamak gerek. Tarih bize gösteriyor ki, teknolojik dönüşümler yönlendirilebilir. 19. yüzyılda işçi hareketleri olmasaydı, fabrikalar hâlâ 16 saatlik çalışma günleri ve çocuk işçilerle çalışıyor olurdu. 20. yüzyılda tüketici hakları mücadelesi verilmeseydi, şirketler zehirli ürünleri satmaya devam ederdi.

Sorunların bu şekilde saptanması ve kamuoyunda tartışılır hale gelmesi, yapay zekanın yarattığı bu risklerin ve hak ihlallerinin görünür hale gelmesi, değişim için gerekli olan farkındalığı tetikliyor. Artık sadece teknik hatalar değil; veri güvenliği ihlalleri, algoritmik ayrımcılık ve eşitsizlik de net bir şekilde teşhis edilebiliyor. Bu netlik ise şirketleri ve devletleri daha güçlü koruma mekanizmaları geliştirmeye zorluyor. Amerika’daki algoritmik ayrımcılık davaları, mahkemelerin yapay zeka sistemlerini insan karar vericilerle aynı standartlara tabi tutmasına ve federal yasaların ihlali durumunda şirketlerin sorumlu tutulmasına yol açıyor[30]. Erişim eşitsizliği, dijital okuryazarlık programlarının ve kapsayıcı teknoloji politikalarının önemini artırıyor[31].

Ancak çözüm, sadece teknik veya yasal düzenlemelerle sınırlı değil. Toplum olarak teknoloji ile ilişkimizi yeniden tanımlamalı, pasif tüketiciler olmaktan çıkıp aktif vatandaşlar haline gelmeliyiz. Yapay zekanın getirdiği sorunlar, aslında demokrasinin, ekonomik sistemimin ve toplumsal değerlerin sorunları.

Yapay zeka çağında yaşıyoruz ve bu geri döndürülemez bir gerçek. Bu teknoloji hayatımızı derinden etkilemeye devam edecek. Soru şu: Bu dönüşümü kimin kurallarıyla, hangi değerlerle ve nasıl bir toplumsal sözleşmeyle yaşayacağız? Cevabı henüz verilmedi. Teknoloji baronlarının, algoritmaların insafına kalmak zorunda değiliz. Dizinin son yazısında bu başlıkları ele alacağız. Sürecin nesnesi değil aktif bir öznesi olmak – bilgiye erişimin dışında, teknolojiyi kullanımın da kolaylaşması ile bu artık o kadar da zor değil – en makul çıkış yolu olarak görünüyor. Teknolojik determinizme kapılmadan, yapay zekanın yarattığı sorunların kaçınılmaz bir kader olmadığını hatırlamalıyız. Gelecek, bugün aldığımız kararlarla şekilleniyor. Dizinin son yazısında, bu sorunların nasıl fırsata dönüştürülebileceğini, daha adil bir yapay zeka geleceğinin nasıl inşa edilebileceğini tartışacağız.

Bu yazıda ele aldığımız sorunlar karanlık bir tablo çiziyor olabilir. Ama sorunları net olarak görmeden çözüm üretemeyiz. Bir sonraki yazıda, yapay zekanın çevresel etkilerini – enerji tüketiminden su kullanımına, karbon ayak izinden elektronik atıklara kadar – ele alacağız. Çünkü dijital dönüşümün maliyeti sadece sosyal değil, ekolojik de. Ve belki de gezegenimizin geleceği, bu maliyeti nasıl yöneteceğimize bağlı.

[1] Shoshana Zuboff, “The Age of Surveillience Capitalism”, PublicAffairs, 2018; Shoshana Zuboff, “Gözetim Kapitalizmi Çağı”, Okuyan Us Yayınları, 2021

[2] Uyandırma Kelimesi (Wake Word): Akıllı cihazların mikrofonlarını aktif hale getirip komut almaya başlamasını sağlayan “Hey Siri”, “OK Google” veya “Alexa” gibi tetikleyici ifadelerdir. Cihazlar teknik olarak bu kelimeyi yakalamak için ortamı sürekli dinler; ancak üreticiler, yerel işlemci tarafından bu özel ifade saptanmadığı sürece konuşmaların bulut sunucularına iletilmediğini beyan etmektedir.

[3] Stanford University, “AI Index Report 2025”, Stanford Institute for Human-Centered AI, 2025

[4] IBM, “Cost of a Data Breach Report 2025”, Temmuz 2025

[5] AI Data Privacy Statistics & Trends 2025, Protecto.ai

[6] Varonis, “2025 State of Data Security Report”, Haziran 2025

[7] Data Breach Statistics 2025, Sprinto

[8] Gartner, “40% of AI Data Breaches Will Arise from Cross-Border GenAI Misuse by 2027”, Şubat 2025

[9] https://www.bbc.com/turkce/haberler/2016/04/160404_50_milyon_veri_turkiye

[10] https://dijitalguvenlikplatformu.aksigorta.com.tr/haberler/72-milyon-kisinin-verileri-satisa-cikarildi

[11] https://www.evrensel.net/haber/528044/21-milyon-isci-ve-isverenin-tum-sgk-hizmet-bilgileri-calindi

[12] https://www.milliyet.com.tr/ekonomi/haberi-olmadan-adina-350-bin-tl-kredi-cektiler-banka-suclu-mu-7132004

[13] George Orwell’in “1984” romanındaki ünlü sözü “Big Brother is watching us” (Büyük Birader bizi izliyor) sözünden ilhamla.

[14] Yves-Alexandre de Montjoye, César A. Hidalgo, Michel Verleysen & Vincent D. Blondel, Scientific Reports, Unique in the Crowd: The privacy bounds of human mobility, 2013, https://www.nature.com/articles/srep01376

[15] Jack Karsten ve Darrel M. West, China’s social credit system spreads to more daily transactions, 2018, https://www.brookings.edu/articles/chinas-social-credit-system-spreads-to-more-daily-transactions/

[16] Cemal Tunçdemir, Algoritma sizi gözetliyor!, 2016, https://amerikabulteni.com/2016/10/02/algoritma-sizi-gozetliyor/

[17] Jeffrey Dastin, Insight – Amazon scraps secret AI recruiting tool that showed bias against women, 2018, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G/

[18] ProPublica, “Machine Bias: There’s Software Used to Predict Future Criminals. And it’s Biased Against Blacks.”, Mayıs 2016

[19] Artificial intelligence and wage inequality, OECD, https://www.oecd.org/en/publications/artificial-intelligence-and-wage-inequality_bf98a45c-en.html

[20] PwC, “Global Artificial Intelligence Study: Sizing the prize”, 2024/2025

[21] ISPI, “The Digital Divide: A Barrier to Social, Economic and Political Equity”

[22] World Economic Forum, “Closing the digital divide as we enter the Intelligent Age”, Ocak 2025

[23] TÜİK, “Hanehalkı Bilişim Teknolojileri (BT) Kullanım Araştırması, 2024

[24] Chenyue Wang ve diğerleri, “The artificial intelligence divide”, 2025

[25] UNESCO, “AI literacy and the new Digital Divide”, Eylül 2025

[26] AI Bias: 14 Real AI Bias Examples & Mitigation Guide, Crescendo.ai, 2025

[27] StatCounter Global Stats, “Search Engine Market Share Worldwide”, StatCounter 2024 verileri

[28] Martin Hart-Landsberg, Büyük Teknolojinin Yapay Zeka Saldırısıyla Yüzleşme Zamanı, 2025, https://www.art-izan.org/toplum-siyaset/54972/

[29] Gartner, “40% of AI Data Breaches Will Arise from Cross-Border GenAI Misuse by 2027”, Şubat 2025

[30] Quinn Emanuel, “When Machines Discriminate: The Rise of AI Bias Lawsuits”

[31] European Union Agency for Fundamental Rights, “Bias in algorithms”