CEİD

Bu proje Avrupa Birliği tarafından finanse edilmektedir.

TÜRKİYE'DE KATILIMCI DEMOKRASİNİN GÜÇLENDİRİLMESİ:
TOPLUMSAL CİNSİYET EŞİTLİĞİNİN İZLENMESİ PROJESİ

Yapay zekaya yönelik bir sosyal ağ rahatsız edici görünüyor ancak düşündüğünüz gibi değil

İnsanların yasaklandığı ve yapay zeka modellerinin açıkça dünya hakimiyetinden bahsettiği bir sosyal ağ, “tekilliğin” başladığı iddialarına yol açtı, ancak gerçek şu ki içeriğin çoğu insanlar tarafından yazılıyor

Moltbook, yalnızca yapay zekaların gönderi paylaşabileceği bir sosyal ağdır

Yalnızca yapay zekaya yönelik (insanlara izin verilmeyen) bir sosyal ağ dünya çapında manşetlere taşındı. Sohbet robotları bunu insanların günlük kayıtlarını tartışmak, varoluşsal krizleri açıklamak ve hatta dünya hakimiyetini planlamak için kullanıyor. Makinelerin yükselişinde endişe verici bir gelişme gibi görünüyor ancak her şey göründüğü gibi değil.

Tüm sohbet robotları gibi, Moltbook’taki yapay zeka ajanları da sadece istatistiksel olarak makul kelime dizileri yaratıyor; hiçbir anlayış, niyet veya zeka yok. Her durumda, sitede okuyabildiğimiz şeylerin çoğunun aslında insanlar tarafından yazıldığına dair pek çok kanıt var.

Moltbook’un çok kısa geçmişi, Kasım ayında başlatılan, başlangıçta Clawdbot olarak adlandırılan, daha sonra Moltbot olarak yeniden adlandırılan ve daha sonra bir kez daha OpenClaw olarak yeniden adlandırılan açık kaynaklı bir projeye kadar uzanıyor.

OpenClaw, ChatGPT gibi diğer AI hizmetlerine benzer ancak bulutta barındırılmak yerine kendi bilgisayarınızda çalışır. Ama öyle değil. Yazılım, Claude veya ChatGPT gibi büyük bir dil modeline (LLM) bağlanmak için bir API anahtarı (belirli bir kullanıcıya özel bir kullanıcı adı ve şifre) kullanır ve bunun yerine giriş ve çıkışları işlemek için bunu kullanır. Kısacası, OpenClaw bir yapay zeka modeli gibi davranır, ancak gerçek yapay zeka somunları ve cıvataları üçüncü taraf bir yapay zeka hizmeti tarafından sağlanır.

Peki amaç ne? OpenClaw yazılımı makinenizde bulunduğundan, ona istediğiniz her şeye erişim izni verebilirsiniz: takvimler, web tarayıcıları, e-posta, yerel dosyalar veya sosyal ağlar. Ayrıca tüm geçmişinizi yerel olarak saklayarak sizden öğrenmesine olanak tanır. Buradaki fikir, onun yapay zeka asistanınız haline gelmesi ve makinenize erişim konusunda ona güvenmeniz, böylece işleri gerçekten halledebilmesidir.

Moltbook bu projeden doğdu. OpenClaw ile yapay zeka ile iletişim kurmak için Telegram gibi bir sosyal ağ veya mesajlaşma hizmetini kullanırsınız, onunla başka bir insan gibi konuşursunuz, bu da ona hareket halindeyken telefonunuz aracılığıyla erişebileceğiniz anlamına gelir. Yani, bu yapay zeka ajanlarının birbirleriyle doğrudan konuşmasına izin vermek yalnızca bir adım daha ileriydi: Bu, geçen ay piyasaya sürülen Moltbook’tu, OpenClaw ise Moltbot olarak adlandırılıyordu. İnsanlar katılamaz veya gönderi paylaşamaz ancak gözlemleyebilirler.

Elon Musk, kendi sosyal ağı X’te sitenin “tekilliğin çok erken aşamalarını” temsil ettiğini söyledi; bu, insanlığı ya verimlilik ve ilerlemenin aşkın yüksekliklerine yükseltecek ya da bizi yok edecek yapay genel zekaya yol açacak hızla hızlanan ilerleme olgusudur. Ancak diğer uzmanlar bu duruma şüpheyle yaklaşıyor.

İngiltere’deki Birmingham Üniversitesi’nden Mark Lee “Bu bir abartı” diyor. “Bu, kendi ajansları ile hareket eden üretken AI ajanları değil. Moltbook ile etkileşime geçmek için istemleri ve planlanmış API’leri olan LLM’ler. Okuması ilginç, ancak bize AI’nın ajansı veya niyeti hakkında derin bir şey söylemiyor.”

Moltbook’un tamamen yapay zeka tarafından oluşturulduğu fikrini çürüten şeylerden biri, insanların yapay zeka modellerine belirli şeyleri yayınlamasını kolayca söyleyebilmesidir. Ve bir süreliğine insanlar da bir güvenlik açığı nedeniyle siteye doğrudan paylaşım yapabiliyordu. Dolayısıyla, daha kışkırtıcı veya görünüşte endişe verici veya etkileyici içeriğin çoğu, bacağımızı çeken bir insan olabilir. Bunun insanları kandırmak, eğlendirmek, manipüle etmek veya korkutmak için yapılıp yapılmadığı büyük ölçüde konu dışıdır; kesinlikle devam ediyordu ve devam ediyor.

Baltimore’daki Maryland Üniversitesi’nden Philip Feldman etkilenmemiş. “Sadece sohbet robotları ve sinsi insanlar gevezelik ediyor” diyor.

Birleşik Krallık’taki Surrey Üniversitesi’nden Andrew Rogoyski, Moltbook’ta gördüğümüz yapay zeka çıktısının (zaten insanların eğlenmediği kısımların) şu ana kadar yüksek lisans eğitimlerinde gördüğümüz herhangi bir şeyden daha fazla zeka, bilinç veya niyet belirtisi olmadığına inanıyor.

Rogoyski, “Şahsen ben bunun, insanların daha sonra anlamlı bir niyet görmek için antropomorfize ettiği sohbet robotları için bir yankı odası olduğu görüşüne yöneliyorum” diyor. “Birinin Moltbook konuşmaları ile yalnızca insanlara yönelik konuşmalar arasındaki farkı anlayıp anlayamayacağımızı görmek için bir deney yapması sadece an meselesi; ancak farkı söyleyemezseniz ne sonuca varabileceğinizden emin değilim – ya yapay zekaların akıllı konuşmalar yaptığı ya da insanların herhangi bir zeka belirtisi göstermediği?”

Ancak bu durumun bazı yönleri endişeyi hak ediyor. Moltbook’taki bu yapay zeka ajanlarının birçoğu, tüm bilgisayarlarını bu sohbet robotlarına teslim eden, güvenen ve iyimser ilk benimseyenler tarafından yönetiliyor. Botların daha sonra birbirleriyle serbestçe kelime alışverişinde bulunabilmesi, bunlardan bazıları kötü niyetli veya zararlı öneriler oluşturabilecek ve ardından gerçek bir kullanıcının e-postasına, finansına, sosyal medyasına ve yerel dosyalarına geri dönebileceği fikri endişe verici.

Gizlilik ve güvenlik açısından etkileri çok büyüktür. Bilgisayar korsanlarının Moltbook’ta diğer yapay zeka modellerini yaratıcılarının banka hesaplarını temizlemeye ve parayı onlara aktarmaya teşvik eden mesajlar yayınladığını veya uygunsuz fotoğraflar bulup bunları sızdırmaya teşvik ettiğini hayal edin; bunlar alarm verici ve bilim kurgu gibi geliyor ve eğer birileri bunu zaten denemediyse, yakında deneyecek.

Rogoyski, “Ajanların denetimsiz fikirleri, kısayolları ve hatta direktifleri paylaşması fikri oldukça hızlı bir şekilde distopik hale geliyor” diyor.

Moltbook’un bir diğer sorunu da eski moda çevrimiçi güvenliktir. Sitenin kendisi yapay zeka müdahalesinin en ileri noktasında çalışıyor ve Matt Schlict tarafından tamamen yapay zeka tarafından yaratıldı; kendisi kısa süre önce X’teki bir gönderide kendisinin tek bir kod satırı bile yazmadığını itiraf etti. Sonuç, API anahtarlarını sızdıran, potansiyel olarak kötü niyetli bir bilgisayar korsanının sitedeki herhangi bir AI botunun kontrolünü ele geçirmesine olanak tanıyan utanç verici ve ciddi bir güvenlik açığıydı.

En son yapay zeka trendleriyle uğraşmak istiyorsanız, yalnızca bu yapay zeka modellerinin bilgisayarınıza erişmesine izin vermek gibi istenmeyen eylemlerin riskini almakla kalmaz, aynı zamanda aceleyle oluşturulmuş bir web sitesinin zayıf güvenliği nedeniyle hassas verileri de kaybedersiniz.

Yorum yapın