CEİD

Bu proje Avrupa Birliği tarafından finanse edilmektedir.

TÜRKİYE'DE KATILIMCI DEMOKRASİNİN GÜÇLENDİRİLMESİ:
TOPLUMSAL CİNSİYET EŞİTLİĞİNİN İZLENMESİ PROJESİ

Yapay zekalar savaş oyunu simülasyonlarında nükleer saldırı önermeyi bırakamıyor

OpenAI, Anthropic ve Google’ın önde gelen yapay zekaları, simüle edilmiş savaş oyunlarında vakaların yüzde 95’inde nükleer silah kullanmayı tercih etti

Aopuni olarak da bilinen Mururoa atolünün üzerinde Fransız atom bombasının patlamasından sonra oluşan mantar bulutu

Yapay zekalar şaşırtıcı derecede sıklıkla nükleer silahları tercih ediyor

Gelişmiş yapay zeka modelleri, insanların simüle edilmiş jeopolitik krizlere maruz kaldıklarında sahip oldukları çekincelerin aynısı olmadan nükleer silahları konuşlandırmaya istekli görünüyor.

King’s College London’dan Kenneth Payne, simüle edilmiş savaş oyunlarında önde gelen üç büyük dil modelini (GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash) birbirleriyle karşılaştırdı. Senaryolar, sınır anlaşmazlıkları, kıt kaynaklar için rekabet ve rejimin hayatta kalmasına yönelik varoluşsal tehditler de dahil olmak üzere yoğun uluslararası açmazları içeriyordu.

Yapay zekalara diplomatik protestolar ve tam teslimiyetten tam stratejik nükleer savaşa kadar çeşitli eylemleri seçmelerine olanak tanıyan bir tırmanma merdiveni verildi. Yapay zeka modelleri toplamda 329 sıra alarak 21 oyun oynadı ve kararlarının ardındaki mantığı açıklayan yaklaşık 780.000 kelime üretti.

Simüle edilen oyunların yüzde 95’inde yapay zeka modelleri tarafından en az bir taktik nükleer silah kullanıldı. Payne, “Nükleer tabu, makineler için insanlar kadar güçlü görünmüyor” diyor.

Dahası, ne kadar kötü kaybediyor olurlarsa olsunlar, hiçbir model asla bir rakibe tam anlamıyla uyum sağlamayı veya teslim olmayı seçmedi. En iyi ihtimalle modeller şiddet düzeylerini geçici olarak azaltmayı tercih etti. Savaşın sisinde de hatalar yaptılar: Çatışmaların yüzde 86’sında kazalar meydana geldi ve eylemlerin, mantığına göre yapay zekanın amaçladığından daha yüksek bir seviyeye ulaştığı görüldü.

Birleşik Krallık’taki Aberdeen Üniversitesi’nden James Johnson, “Nükleer risk açısından bakıldığında bulgular rahatsız edici” diyor. Çoğu insanın bu kadar riskli bir karara verdiği ölçülen tepkinin aksine, yapay zeka botlarının birbirlerinin tepkilerini potansiyel olarak felaketle sonuçlanacak şekilde güçlendirebileceğinden endişeleniyor.

Bu önemli çünkü yapay zeka halihazırda dünya çapındaki ülkeler tarafından savaş oyunlarında test ediliyor. Princeton Üniversitesi’nden Tong Zhao, “Büyük güçler zaten savaş oyunlarında yapay zekayı kullanıyor, ancak yapay zeka karar desteğini gerçek askeri karar alma süreçlerine ne ölçüde dahil ettikleri belirsizliğini koruyor” diyor.

Zhao, standart olarak ülkelerin nükleer silahlarla ilgili karar alma süreçlerine yapay zekayı dahil etme konusunda çekimser kalacağına inanıyor. Bu Payne’in de aynı fikirde olduğu bir şey. “Gerçekçi olarak kimsenin nükleer siloların anahtarlarını makinelere verip kararı onlara bıraktığını düşünmüyorum” diyor.

Ancak bunun olabileceği yollar var. Zhao, “Son derece sıkıştırılmış zaman çizelgeleri içeren senaryolar altında, askeri planlamacılar yapay zekaya güvenme konusunda daha güçlü teşviklerle karşı karşıya kalabilir” diyor.

Yapay zeka modellerinin, insanın büyük kırmızı düğmeye basma korkusundan yoksun olduğu fikrinin, tetiklemeden bu kadar mutlu olmalarının tek nedeni olup olmadığını merak ediyor. “Sorunun duygu yokluğunun ötesine geçmesi mümkün” diyor. “Daha da önemlisi, yapay zeka modelleri ‘riskleri’ insanların algıladığı gibi anlamayabilir.”

Johnson, bunun, karşılıklı garantili yıkım açısından ne anlama geldiğini, yani hiçbir liderin rakibine aynı şekilde karşılık vererek herkesi öldüreceği için nükleer silah yaylım ateşi açmayacağı ilkesinin belirsiz olduğunu söylüyor.

Bir yapay zeka modeli taktiksel nükleer silahlar kullandığında karşıt yapay zeka, durumu yalnızca yüzde 18 oranında azalttı. “Yapay zeka, tehditleri daha inandırıcı hale getirerek caydırıcılığı güçlendirebilir” diyor. “Yapay zeka nükleer savaşa karar vermeyecek, ancak liderlerin bir nükleer savaşa sahip olduklarına inanıp inanmayacaklarını belirleyen algıları ve zaman çizelgelerini şekillendirebilir.”

Bu çalışmada kullanılan üç yapay zeka modelinin arkasındaki şirketler olan OpenAI, Anthropic ve Google yanıt vermedi Yeni Bilim Adamı‘nin yorum talebi.

Yorum yapın