top of page

FLI Yapay Zeka Raporu, Matrix’i Hatırlatıyor

  • Yazarın fotoğrafı: LexNexus
    LexNexus
  • 28 Tem
  • 3 dakikada okunur
Bilgisayar ekranında akan kodlar

Dünyada yapay zekayı geliştiren en büyük şirketler (OpenAI, Google DeepMind, Meta, xAI, vs.), insan gibi düşünen, karar veren ve öğrenen çok güçlü yapay zeka sistemleri (Yapay Genel Zeka, Artificial General Intelligence, “AGI”) üzerinde çalışıyorlar. İnsan seviyesinde düşünebilen bu sistemleri kontrol altında tutacak plan ise, henüz gündemde değil.


Şirketler, bu kadar güçlü sistemler geliştirirken, kontrol dışına çıkması veya kötüye kullanılmasına karşı yeterli güvenlik önlemlerini almıyorlar. Kontrolden çıkabilecek süper zeka sistemlerine “şimdi yapalım, sonra güvende tutmanın yollarını düşünürüz” yaklaşımındalar.


Guardian’ın haberine göre, Future of Life Institute (FLI) isimli bağımsız ve saygın bir araştırma kuruluşu, bu şirketleri bir “risk değerlendirme raporuyla” inceledi ve: 1) Hiçbiri iyi not almadı. 2) Çoğunun gerçek bir acil durum planı yok.


Matrix filminde, bir zamanlar insanları korumak için tasarlanan makineler, sonunda onları tehdit olarak görüp kendi düzenlerini kurmuştu. Bugün gerçek dünyadaki yazılımcılar benzer bir akıl inşa etmeye çalışıyor ama güvenlik önlemleri hala bir film senaryosu olabilecek kadar zayıf.


Hukuki soru net: Eğer bir sistem bizden zeki hale gelirse — onu yönetecek yasal mekanizmalar nerede? Yetki, sorumluluk ve kontrol kimde olacak?


Riskler Nedir?


1. Kontrolden Çıkma Riski (Alignment Risk)


AGI, insanlardan bağımsız kararlar alacak kadar zeki olursa, başka bir ifadeyle yeterince gelişirse, ne istediğimizi yanlış anlayabilir ya da kendi hedeflerini bizimkilerin önüne koyabilir.


İnsanlığın istekleri ve arzularıyla, ihtiyaç duyduklarının kesişmediğine sıklıkla şahit oluyoruz. En basit örneklemeyle, iklim krizi konusunda asla atılmayan adımların uzun vadede insanlığa vereceği zararın yanında, bugün plastik tüketiminden veya karbon salınımından vazgeçememek net bir tablo çiziyor.


Dünya kaynaklarının, dünya nüfusuna yetersizliği konusunda yapay zeka, hiçbir ahlaki kaygı gütmeden, nüfus kırma politikaları uygulayabilir, biyolojik silah geliştirebilir. Bu bir çözüm mü? Kuşkusuz. Duygudan yoksun rasyonel bir düşünce akışı, bugün “kurban” edilecek bir kalabalığın, gelecekte milyonlarcasını kurtarabileceği sonucuna ulaştıracaktır.


Tam bu noktada, hukuktaki temel prensiplerden olan “araçsallaştırma yasağı” gündeme gelecektir. Kökeni Immanuel Kant’ın ahlaki felsefesine dayanan kurala göre “bir insanın yalnızca bir başkasının amacı için araç olarak kullanılmaması gerektiği” ifade edilir. Her birey kendi başına bir amaç olarak görülmeli; onun rızası, onuru ve hakları göz ardı edilerek kullanılmamalıdır.


2. Yanlış Kullanım Riski (Misuse Risk)


Bu sistemler, kötü niyetli kişiler tarafından siber saldırılar, propaganda, manipülasyon ya da biyolojik silah tasarımı gibi amaçlarla da kullanılabilir.


İlk maddedeki gibi, yapay zekanın bizim adımıza kararlar alamadığını, bizim için bizi feda edemediğini varsayalım. İnsanlığın her sorusu yanıtlanmalı mıdır? İnsan, kusurlu bir varlıktır. Kusurlu hareketi önlemeye ilişkin ceza hukuku doğmuştur; çünkü toplum, zararlı fiilleri yalnızca sonuçlarıyla değil, yaptırımlarla da kontrol altına almaya çalışır.


Ancak yapay zeka, ne ceza ne sorumluluk yüklenebilen bir özne olduğundan, onun gerçekleştirdiği eylemler yaptırımsız kalabilir. İnsan hatasına karşı geliştirilen hukuk, yapay zekanın hatasına karşı şimdilik sessizdir. Bu da sadece teknik bir boşluk değil, hukukun adalet üretme iddiası açısından yapısal bir risk anlamına gelir.


3. Toplumsal Dengesizlik Riski


Çok az sayıda şirket, insanlığın kaderini etkileyebilecek sistemleri elinde tutuyor. Bu da güç eşitsizliği, etik sorunlar ve ekonomik krizlere yol açabilir.


Kamu çıkarıyla doğrudan bağlantısı olmayan bu şirketler, bilgiye, altyapıya ve algoritmalara sahip olmanın ötesinde, insan davranışlarını şekillendirme, hatta devlet politikalarını etkileyebilme gücüne erişiyor.


4. Kazara Felaket (Accidental Catastrophe)


Sistem bir gün kendi içinde "mantıklı" görünen bir kararı yanlış yorumlarla alabilir — ve bu kararın sonucu geri döndürülemez olabilir. Bu felaket kasıtlı olmayabilir, hatta “doğru olanı yapmaya çalışırken” bile sonuç yıkıcı olabilir.


Bugünün teknolojisinde verilebilecek en yakın örnek Tesla’nın otopilot kazaları. 2021'de ABD’de bir Tesla, tam otonom sürüş modundayken kaza yaptı ve iki kişi hayatını kaybetti. Sistem sürücü müdahalesi gerektirmez gibi davransa da, kriz anında kontrolü insana devretmeyi başaramadı ve bir felakete sebebiyet verdi.


Bugün en basit teknoloji içeren arabalarda bile otomatik fren sistemleri bulunuyor, ancak havada süzülen bir çöp poşetinin bu sistemi tetiklemeyeceğinin bir garantisi yok.


Bir ekonomik felaket örneği de 2010 yılında yaşandı ve borsa 36 dakika içerisinde çöktü. Flash Crash olarak adlandırılan olayda insan eliyle müdahale edilene kadar yapay zeka sistemleri birbirini tetikleyerek zincirleme bir zarara yol açtı.


Gelecekte daha fazla insan sorumluluğu yüklenecek yapay zekaların, daha büyük felaketlere yol açması ihtimal dışı değil. FLI yapay zeka raporu, hazır olmadığımızı ortaya koyuyor.


Lex Nexus Yorumu

Matrix dünyasına paralel olarak yorumlamak gerekirse, henüz hapı yutmadık. Ancak acilen, odağımızı yetenek geliştirmeden uzaklaştırıp,  bu sistemlerin sorumluluk, denetim ve sınırlandırma mekanizmalarını tartışmaya yönlendirmeliyiz. AGI'nin gelişimi, klasik hukukun ötesine geçen yeni bir yasa, denetim ve sorumluluk mimarisi gerektiriyor. Teknolojinin büyüsüne kapılmadan, insan onurunu, özgürlüğünü ve kamu düzenini merkeze alan bir yapay zeka rejimi inşa edilmesi gerektiğini savunuyoruz.


Vision. Reason. Lex Nexus.


 
 
 

Yorumlar


bottom of page