CEİD

Bu proje Avrupa Birliği tarafından finanse edilmektedir.

TÜRKİYE'DE KATILIMCI DEMOKRASİNİN GÜÇLENDİRİLMESİ:
TOPLUMSAL CİNSİYET EŞİTLİĞİNİN İZLENMESİ PROJESİ

Hayır, AI bu yeni kitabın söylediklerine rağmen hepimizi öldürmeyecek

Jacob Aron, AI Güvenlik Araştırmacıları Eliezer Yudkowsky ve Nate Soares tarafından yapılan argümanlar, herkes onu inşa ederse, herkes ölüyor, yüzeysel olarak çekici ama ölümcül bir şekilde kusurlu

16 Haziran 2025 Pazartesi günü Londra, İngiltere'deki Global Switch Docklands Veri Merkezi kampüsünde bir kurulumdaki sıvı soğutmalı sunucular. Nvidia Corp. CEO'su Jensen Huang, Avrupa'nın yapay istihbarat bilgi işlem kapasitesinin önümüzdeki iki yıl boyunca on kat artacağını öngördü ve 20'den fazla AI factoris ile birlikte. Fotoğrafçı: Getty Images aracılığıyla Jason Alden/Bloomberg

Yapay zekanın yükselişi, Londra’da bunun gibi veri merkezlerine olan talebi artırdı

Birisi inşa ederse, herkes ölür
Eliezer Yudkowsky ve Nate Soares (Bodley Head, İngiltere; Little, Brown, ABD)

İnsan varlığının bütünlüğünde, endişelenmemiz için çok şey var. Para sıkıntıları, iklim değişikliği ve sevgi ve mutluluğu bulmak birçok insan için listede büyük ölçüde yer alır, ancak özel bir az sayıda için, bir endişe her şeyden önce yükselir: yapay zeka sonunda insan ırkını yok edecektir.

Kaliforniya’daki Makine İstihbarat Araştırma Enstitüsü’nde (Miri) Eliezer Yudkowsky, bu nedeni çeyrek yüzyıl boyunca, adanmış bir takipçiye kadar proselytize ediyor. Sonra Chatgpt dönemine girdik ve AI güvenliği hakkındaki fikirleri, teknoloji CEO’ları ve politikacılar tarafından yankılanan ana akıma itildi.

Nate Soares ile yazma, ayrıca Miri’de, Birisi inşa ederse, herkes ölür Yudkowsky’nin argümanını toplum boyunca alınacak basit, kolay sindirilebilir bir mesaja damıtma girişimi mi? Bu hedefte tamamen başarılı, daha önce uzun blog yayınlarında ve wiki makalelerinde sıkışıp kalmış fikirleri, Stephen Fry ve Mark Ruffalo gibi ünlülerden Fiona Hill ve Ben Bernanke de dahil olmak üzere politika ağır ağırlıklarına kadar son derece okunabilir bir kitaba dönüştürüyor. Sorun şu ki, zorlayıcı olsa da, argüman ölümcül bir şekilde kusurlu.

Nedenini açıklamadan önce, hayatımı bu konuyu Yudkowsky’nin derinlemesine düşünmeye adamıştığımı itiraf edeceğim. Ama aynı şekilde, düşünmeden reddetmiyorum. Yudkowsky’nin çalışmalarını birkaç yıldır takip ettim ve son derece ilginç bir zihni var. 660.000 kelimelik fan kurgularını bile okudum ve gerçekten keyif aldım Harry Potter ve rasyonalite yöntemleriAI güvenliği ve etkili fedakarlık hareketleri ile derin bağlantıları olan rasyonalist topluluğun felsefesini benimsediği.

Bu hareketlerin üçü de dünyayı ilk prensiplerden izleme, varlığın en iyi yollarını belirlemek için mantık ve kanıt uygulamaya çalışmaya çalışır. Yani Yudkowsky ve Soares, iyi rasyonalistler olarak başlıyor Birisi inşa ederse, herkes ölür İlk prensiplerden de. Açılış bölümü, fizik yasalarında, insanlardan daha üstün bir zekanın ortaya çıkmasını önleyen hiçbir şey olmadığını açıklıyor. Bu, hissediyorum, tamamen tartışmalı. Aşağıdaki bölüm daha sonra, Power ChatGPT’nin ne kadar büyük dil modellerinin (LLMS) (LLM’ler) çok iyi bir açıklama sunar. “LLM’ler ve insanlar her ikisi de cümle üreten makinelerdir, ancak farklı işler yapmak için farklı süreçlerle şekillendirildiler,” diyor çift-yine tam bir uyum içindeyim.

Üçüncü bölüm, ayrışmaya başladığımız yerdir. Yudkowsky ve Soares, bir makinenin gerçekten “isteyebileceğini” söyleyip söyleyemeyeceğimizin gerçek felsefi sorusunu süpürürken, AIS’in bir şeyler “istedikleri” gibi davranmaya nasıl başlayacağını açıklar. Openai’nin O1 modelinin, yanlışlıkla “imkansız” bir siber güvenlik zorluğunu tamamlamak için beklenmedik davranış sergileyen bir testine atıfta bulunurlar, bu da modelin başarılı olmak istiyormuş gibi davrandığı bir işareti olarak “vazgeçmediğine” işaret eder. Şahsen, bu senaryoya her türlü motivasyonu okumakta zorlanıyorum – eğer bir nehre bir baraj yerleştirirsek, nehir onu atlama girişiminden “vazgeçmez”, ancak nehirler hiçbir şey istemez.

Sonraki birkaç bölüm, AI hizalama sorunu olarak bilinen şeyle ilgileniyor, bir yapay zeka istedikten sonra, hedeflerini insanlığın hedefleriyle hizalamanın imkansız olacağını ve nihayetinde, hedeflerini ilerletmek için tüm olası maddeleri ve enerjiyi tüketmek isteyeceğini savunuyor. Bu fikir daha önce filozof Nick Bostrom tarafından “Kipi Maksimizasyon” olarak popüler hale getirilmişti, bu da klip klipler oluşturmakla görevli bir AI’nın sonunda her şeyi kliplere dönüştürmeye çalışacağına inanıyor.

Tabii – ama ya sadece kapatırsak? Yudkowsky ve Soares için bu imkansız. Onların konumu, yeterince gelişmiş yapay zekanın sihirden (sözlerim, onların değil) ayırt edilemez olması ve ölümünü önlemenin her türlü yoluna sahip olacağıdır. Teklifini yapmak için kripto para biriminde insanlara ödeme yapan bir şema yapay zekanın (sanırım, sanırım, ama yine de “istek” problemine geri dönüyoruz), insan sinir sisteminin beynimizi doğrudan hacklemesine izin veren daha önce bilinmeyen bir işlevi keşfetmek için hayal ediyorlar.

Eğer böyle senaryolar icat ederseniz, AI doğal olarak korkunç görünecektir. Çift ayrıca, AI platosunun, Openai’nin en son GPT-5 modelinde olduğu gibi göründüğü gibi, aslında rakiplerini sabote eden gizli bir süper-AI’nın sonucu olabileceğini öne sürüyor. Görünüşe göre bizi kıyamete götürmeyecek hiçbir şey yok.

Peki, bu konuda ne yapmalıyız? Yudkowsky ve Soares’in hepsi temelde saçmalık bir dizi politika reçetesi var. Birincisi, mevcut AI devrimini güçlendiren bilgisayar yongaları olan grafik işleme birimlerinin (GPU) büyük ölçüde kısıtlanması gerektiğidir. Uluslararası bir organ tarafından nükleer tarzı izlemeye başvurmadan en iyi 2024 dönümlük GPU’ların sekizinden fazlasına sahip olmanın yasadışı olması gerektiğini söylüyorlar. Karşılaştırıldığında, Meta bu yongaların en az 350.000’i vardır. Bu bir kez gerçekleştiğinde, uluslar kayıt dışı veri merkezlerini bombalayarak, bu nükleer savaşı riske atsa bile, bu kısıtlamaları uygulamaya hazır olmalıdırlar.Çünkü veri merkezleri nükleer silahlardan daha fazla insanı öldürebilir”(Onların vurgusu).

Derin bir nefes alın. Buraya nasıl geldik? Benim için bu Pascal’ın bahisinin bir biçimi. Matematikçi Blaise Pascal, hayatınızı (Hıristiyan) Tanrı varmış gibi yaşamanın rasyonel olduğunu açıkladı. Eğer Tanrı varsa, inanmak sizi cennette sonsuz kazanç için kurar, ancak inanmamak cehennemde sonsuz kayıplara yol açar. Eğer Tanrı yoksa, belki de dindar bir hayat yaşamaktan biraz kaybedersiniz, ama sadece son derece öyle. Mutluluğu en üst düzeye çıkarmanın yolu inançtır.

Benzer şekilde, AI’nın sonsuz kötülüğe yol açtığını varsayarak güverteleri istiflerseniz, bundan kaçınmada hemen hemen her şey haklıdır. Rasyonalistleri, günümüzdeki herhangi bir eylemin, bugün yaşayanlar acı çekse bile, gelecekte trilyonlarca mutlu insanın yaratılmasına yol açtığı sürece gerekçelendirildiğine inanmaya yönlendiren bu düşünce çizgisidir.

Açıkçası, kimsenin böyle düşünerek günlerinden nasıl geçebileceğini anlamıyorum. Bugün yaşayan insanlar önemlidir. İsteklerimiz ve endişelerimiz var. Milyarlarımız iklim değişikliği ile tehdit ediyoruz, esasen söz konusu olmayan bir konu Birisi inşa ederse, herkes ölür. Superintelligent AI’yı ait olduğu bilim kurgusuna sevk edelim ve enerjimizi bugün burada bilimsel sorunların sorunlarını çözmeye adayalım.