Yapay zeka hakkında görkemli açıklamalar yapan teknoloji liderlerine dikkat edin. Gerçekliğin görüşünü kaybettiler, diyor Philip Ball

Google Deepmind CEO’su Demis Hassabis ve Nobel Ödülü sahibi, protein yapılarını tahmin etmek için Alphafold AI algoritmasını geliştirmedeki rolü nedeniyle, 60 dakika Nisan ayında gösteri. Alphafold gibi AI’nın yardımıyla, tüm hastalığın sonu “belki önümüzdeki on yıl içinde” ulaşılabilir. Bununla röportaj devam etti.
Aslında uyuşturucu geliştirme ve hastalığı iyileştirme üzerinde çalışanlara, bu iddia gülünçtür. Onlarca yıldır ilaç keşfi üzerinde çalışan tıbbi kimyager Derek Lowe’ye göre, Hassabis’in “Kendime anlaşılmaz kelimeleri ağlayarak pencereden sessizce bakarak biraz zaman harcamak istiyorum” ifadeleri. Ancak abartmayı tanımak için bir uzman olmanıza gerek yok: tüm hastalığın yaklaşık on yıl içinde sona ereceği fikri saçma.
Bazıları, Hassabis’in sözlerinin, belki de yatırımcıları ve finansmanları çekmek için aşırı derecede aşamalı teknoloji liderlerinin başka bir örneği olduğunu ileri sürdü. Bu, Elon Musk’un Mars kolonileri hakkında aptalca tahminler yapması ya da Openai’den Sam Altman’ın yapay genel zekanın (AGI) hemen köşede olduğunu iddia ettiği gibi değil mi? Ancak bu alaycı görüşün bazı geçerliliği olsa da, bu uzmanların kancadan çıkmasına izin verir ve sorunu hafife alır.
Görünüşe göre yetkililerin uzmanlık alanlarının dışında büyük iddialarda bulundukları bir şeydir (bkz. AI, uzaylılar ve uzay yolculuğu üzerine Stephen Hawking). Ama Hassabis burada şeridinde kalıyormuş gibi görünebilir. Nobel alıntısı, Alphafold’un tahminlerinin potansiyel bir yararı olarak yeni ilaçlardan bahsediyor ve algoritmanın serbest bırakılmasına ilaç keşfinde devrim yaratma konusundaki sonsuz medya başlıkları eşlik etti.
Benzer şekilde, 2024 Nobel Ödülü sahibi Geoffrey Hinton, Google’ın eski bir AI danışmanı olan Geoffrey Hinton, büyük dil modellerinin (LLMS) insan öğrenmesine benzeyecek şekilde iş yaratmaya yardımcı olduğunu iddia ettiğinde, derin bilgilerden konuşuyor gibi görünüyordu. Bu yüzden insan bilişini araştıranların protestolarının çığlıklarını ve bazı durumlarda AI’da da aldırmayın.
Bu tür örneklerin ortaya koyduğu şey, garip bir şekilde, bu AI uzmanlarının bazılarının ürünlerini yansıttığı görülüyor: en iyi ihtimalle deri derin ve kırılgan bir anlayışa sahipken dikkate değer sonuçlar üretebiliyorlar.
İşte başka bir örnek: AGI’ya yönelik çalışmalarıyla ilgili endişelerden dolayı Openai’den ayrılan bir araştırmacı olan Daniel Kokotajlo, şu anda Kaliforniya’daki AI Futures Projesi’nin genel müdürü şunları söyledi: “AIS’imizi yalan söylüyoruz ve söyledikleri şeyin yanlış olduğunu bildiklerinden eminiz.” Antropomorfik bilgi, niyet ve aldatma dili Kokotajlo’nun LLMS’nin gerçekte ne olduğunu gözden kaçırdığını gösteriyor.
Bu uzmanların en iyi bildiklerini varsaymanın tehlikeleri, 2016 yılında Hinton’un yorumunda yapay zeka sayesinde “insanlar şimdi eğitim radyologlarını durdurmalı” diye örneklenmiştir. Neyse ki, radyoloji uzmanları ona inanmadılar, ancak bazıları tıp öğrencilerinin radyolojideki iş beklentileri hakkındaki endişeleri ile artan endişeler arasında bir bağlantı. Hinton o zamandan beri bu iddiayı revize etti – ancak zaten Nobel’e verilmiş olsaydı ne kadar daha fazla güç olacağını hayal edin. Aynı şey Hassabis’in hastalık hakkındaki yorumları için de geçerlidir: AI’nın ağır kaldırma yapacağı fikri, hem bilimsel hem de politik olarak tam tersine ihtiyaç duyduğumuzda gönül rahatlığı yaratabilir.
Bu “uzman” peygamberler medyadan çok az geri dönüş alma eğilimindedir ve bazı akıllı bilim adamlarının bile onlara inandığını kişisel olarak kanıtlayabilirim. Birçok hükümet lideri de teknoloji CEO’ları ve Silikon Vadisi gurularının yutturuldukları izlenimini veriyor. Ancak, LLM’lerin kendileri gibi açıklamalarını ele almaya başlamamızı, yüzeysel güvenlerini şüphecilikle gerçekleştirene kadar karşılamamızı öneririm.
Philip Ball, Londra’da yaşayan bir bilim yazarıdır. Son kitabı Life How Working



