Gerçekten yapay zeka ne kadar güvenilir? TU Wien’deki disiplinlerarası bir araştırma ekibi, bir sinir ağının tanımlanmış bir giriş alanı içinde ne kadar güvenilir bir şekilde çalıştığının kesin hesaplanmasını sağlayan bir yöntem geliştirmiştir. Başka bir deyişle: Artık belirli hata türlerinin gerçekleşmeyeceğini matematiksel olarak garanti etmek mümkündür – AI’nın hassas uygulamalarda güvenli kullanımı için önemli bir adım.
Akıllı telefonlardan kendi kendine giden arabalara kadar AI sistemleri hayatımızın günlük bir parçası haline geldi. Ancak güvenliğin kritik olduğu uygulamalarda, merkezi bir soru ortaya çıkar: Bir AI sisteminin ciddi hatalar yapmayacağını garanti edebilir miyiz – girişi biraz değişse bile?
Tu Wien’den bir ekip – Dr. Andrey Kofnov, Dr. Daniel Kapla, Prof. Efstathia Bura ve Prof. Ezio Bartocci – matematik, istatistik ve bilgisayar bilimlerinden uzmanları bir araya getirerek, nöral ağları, AI sistemlerinin beyinlerini analiz etmenin bir yolunu buldu, böylece çıktı aralığının olası bir şekilde belirlenebileceği ve kesin olarak belirlenebileceği.
Makale şu adreste yayınlandı Arxiv ön hazırlık sunucusu. Araştırma ICML 2025’te sunum için kabul edildi.
Küçük değişiklikler, büyük etki?
Kofnov, “Nöral ağlar genellikle öngörülebilir bir şekilde davranıyor – aynı girişte her beslediğinizde aynı çıktıyı verirler” diyor. “Ancak gerçek dünyada, girdiler genellikle gürültülü veya belirsizdir ve her zaman tek, sabit bir değerle tanımlanamaz. Girdideki bu belirsizlik çıktıda belirsizliğe yol açar.”
Prof. Ezio Bartocci, “Bir görüntü girdi olarak alan ve içindeki hayvanı tanımlamakla görevlendirilen bir sinir ağı hayal edin” diyor. “Görüntü biraz değiştirilirse ne olur? Farklı bir kamera, biraz daha fazla gürültü, aydınlatmada değişiklikler – AI’nın aniden gördüklerini yanlış sınıflandırmasına neden olabilir mi?”
Kofnov, “Olası çıktıların tamamını anlamak, özellikle finans, sağlık veya mühendislik gibi yüksek bahis alanlarında daha iyi, daha güvenli kararlar almaya yardımcı olur.” “Olası çıktıların olasılığını hesaplayarak, aşağıdaki gibi önemli soruları cevaplayabiliriz: Aşırı bir sonuç şansı nedir? Ne kadar risk dahil?”
Bu tür soruları geleneksel testleri kullanarak cevaplamak zordur. Birçok senaryo denenebilirken, olası tüm girdilerin tam kapsamı neredeyse imkansızdır. Her zaman test edilmeyen ve sistemin başarısız olduğu nadir kenar durumları olabilir.
Çok boyutlu alanda matematik
Tu Wien’de geliştirilen çözüm geometrik bir yaklaşım kullanıyor: “Mümkün olan tüm girdilerin kümesi-örneğin, böyle bir AI sistemine beslenebilen tüm olası görüntüler-3 boyutlu dünyamıza geometrik olarak benzer bir alan olarak hayal edilebilir, ancak keyfi sayıda boyutta,” diye açıklıyor Prof. Bura. Diyerek şöyle devam etti: “Bu çok boyutlu alanı, sinir ağının o bölgeden girdi için üreteceği çıktıları belirlemek için her biri tam olarak analiz edilebilen daha küçük alt bölgelere ayırıyoruz.”
Bu, bir dizi çıktı olasılığını matematiksel olarak ölçmeyi mümkün kılar – potansiyel olarak hatalı sonuçları% 100 kesinlik ile dışlamak.
Teori henüz büyük dil modelleri gibi büyük ölçekli sinir ağları için geçerli değildir. Kapla, “ChatGPT gibi bir AI gibi bir AI bu yöntem için çok karmaşık. Analiz etmek hayal edilemez miktarda bilgi işlem gücü gerektirecektir” diyor. “Ama en azından küçük sinir ağları için titiz hata niceliğinin mümkün olduğunu gösterdik.”
Yöntem, BT güvenliği alanında disiplinlerarası işbirliğini teşvik eden Tu Wien’deki Secint Doktora Koleji kapsamında geliştirildi. Etik konular ve teknolojinin toplumsal etkisi de programda merkezi bir rol oynamaktadır.
Bartocci ve Prof. Bura, AI teorisi, istatistik ve resmi yöntemlerden gelen fikirleri birleştirerek bu yeni yöntemi geliştirmek için Dr. Kofnov (eski Ph.D. Öğrenci ve Mevcut Postdoc) ve Dr. Kapla (Dr. Kapla (Postdoc) ile birlikte çalıştı.



