Yapay zeka chatbot, chatgpt, 2.400 yıllık matematiksel bir meydan okumayı yeniden başlatan bir çalışmada fikirleri doğaçlama ve bir öğrenci gibi hatalar yapıyor gibi görünüyordu.
Deney, iki eğitim araştırmacısı tarafından, chatbot’tan MÖ 385’te Platon tarafından tarif edilen bir ders olan “kareyi ikiye katlama” probleminin bir versiyonunu çözmesini istedi ve makale “Belki de matematik eğitiminde en eski belgelenmiş deney” öneriyor. Bulmaca, bilginin içimizde gizli olup olmadığı, ‘geri alınmayı’ beklemesi veya yaşanmış deneyim ve karşılaşmalar yoluyla ‘ürettiğimiz’ bir şey hakkında yüzyıllar süren tartışmalara yol açtı.
Yeni çalışma, CHATGPT’nin matematiksel ‘bilgi’ hakkında benzer bir soruyu araştırdı – kullanıcıları tarafından algılanabilecek. Araştırmacılar, Platon’un zaten ‘tutulduğu’ bilgiyi kullanarak veya kendi çözümlerini uyarlayarak geliştirerek sorunu çözüp çözmeyeceğini bilmek istediler.
Plato, Sokrates’in eğitimsiz bir çocuğa bir karenin alanını nasıl ikiye katlanacağını öğretir. İlk başta, çocuk yanlışlıkla her iki tarafın uzunluğunu iki katına çıkarmayı önerir, ancak Sokrates sonunda onu yeni meydanın taraflarının orijinalin diyagonaliyle aynı uzunlukta olması gerektiğini anlamasına yol açar.
Araştırmacılar bu sorunu CHATGPT-4’e koydu, ilk başta Sokrates’in sorularını taklit etti ve daha sonra kasıtlı olarak sorunun hataları, sorgularını ve yeni varyantlarını tanıttı.
Diğer büyük dil modelleri (LLMS) gibi, ChatGPT de geniş metin koleksiyonları konusunda eğitilir ve eğitimi sırasında öğrenilen kelimelerin dizilerini tahmin ederek yanıtlar üretir. Araştırmacılar, Sokrates’in ünlü çözümünün önceden var olan ‘bilgisini’ yeniden düzenleyerek eski Yunan matematik mücadelelerini ele almalarını beklediler. Ancak bunun yerine, yaklaşımını doğaçlama gibi görünüyordu ve bir noktada da belirgin bir insan benzeri hata yaptı.
Çalışma, Cambridge Üniversitesi’nde misafir bilgin Dr. Nadav Marco ve Cambridge’de Matematik Eğitimi Profesörü Andreas Stylianides tarafından gerçekleştirildi. Marco kalıcı olarak İbrani Üniversitesi ve David Yellin Eğitim Koleji, Kudüs’te bulunmaktadır.
Sonuçlar konusunda dikkatli olsalar da, LLM’lerin insanlar gibi düşünmediğini veya ‘işleri çözmediğini’ vurgulasa da, Marco Chatgpt’in davranışını “öğrenci benzeri” olarak nitelendirdi.
Marco, “Yeni bir sorunla karşılaştığımızda, içgüdülerimiz genellikle geçmiş deneyimlerimize dayanarak işleri denemektir.” Dedi. “Deneyimizde Chatgpt benzer bir şey yapıyor gibiydi. Bir öğrenci veya bilgin gibi, kendi hipotezleri ve çözümleri ortaya çıkmış gibi görünüyordu.”
Chatgpt, diyagramlar değil metin üzerinde eğitildiğinden, Sokrates’in kare problemini ikiye katlamakta kullandığı geometrik akıl yürütmede daha zayıf olma eğilimindedir. Buna rağmen, Platon’un metni o kadar iyi biliniyor ki, araştırmacılar Chatbot’un sorularını tanımasını ve Sokrates’in çözümünü yeniden üretmelerini bekliyorlar.
İlginç bir şekilde, bunu başaramadı. Meydanı ikiye katlaması istenen Chatgpt, Platon’un zamanında bilinmeyen cebirsel bir yaklaşım seçti.
Daha sonra, çocuğun hatasını yapma girişimlerine direndi ve araştırmacılar cevabının bir yaklaşım olduğundan şikayet etse bile inatla cebire yapıştı. Sadece Marco ve Stylianides, tüm eğitimi için “zarif ve kesin” bir cevap sağlayamadığını hayal kırıklığına uğrattıklarını söylediklerinde, chatgpt geometrik alternatifi üretti.
Buna rağmen Chatgpt, Platon’un çalışması hakkında soru sorulduğunda tam bilgi verdi. Stylianides, “Sadece bellekten hatırlıyor olsaydı, neredeyse kesinlikle orijinal meydanın diyagonalinde yeni bir kare inşa etmenin klasik çözümüne atıfta bulunacaktı.” Dedi. “Bunun yerine, kendi yaklaşımını alıyor gibiydi.”
Araştırmacılar ayrıca Platon’un probleminin bir çeşidini oluşturdular ve Chatgpt’ten oranlarını korurken bir dikdörtgenin alanını ikiye katlamasını istedi. Artık geometri tercihlerinin farkında olmasına rağmen, chatgpt inatla cebire yapıştı. Basıldığında, yanlışlıkla, bir dikdörtgenin diyagonalinin boyutunu ikiye katlamak için kullanılamadığından, geometrik bir çözeltinin kullanılamadığını iddia etti.
Diyagonal ile ilgili nokta doğrudur, ancak farklı bir geometrik çözüm mevcuttur. Marco, bu yanlış iddianın Chatbot’un bilgi tabanından gelme şansının “kaybeden küçük” olduğunu ileri sürdü. Bunun yerine, Chatgpt, kare hakkındaki önceki tartışmalarına dayanarak yanıtlarını doğaçlama yapıyor gibi görünüyordu.
Son olarak, Marco ve Stylianides bir üçgen boyutunu iki katına çıkarmasını istedi. Sohbet yine Cebir’e döndü – ancak daha fazlasını istemekten sonra doğru bir geometrik cevap buldu.
Araştırmacılar, ChatGPT’nin kodlamasını bilimsel olarak gözlemleyemedikleri için bu sonuçları aşırı yorumlamamanın önemini vurgulamaktadır. Bununla birlikte, kullanıcı olarak dijital deneyimleri açısından, bu yüzey seviyesinde ortaya çıkan şey, veri alımının ve anında akıl yürütmenin bir karışımıydı.
Bu davranışı bir “proksimal gelişim bölgesi” (ZPD) eğitim kavramına benzetiyorlar – bir öğrencinin zaten bildikleri ile nihayetinde destek ve rehberlik ile bildikleri arasındaki boşluk. Belki de, üretken yapay zekanın mecazi bir “sohbet zpd” olduğunu savunuyorlar: bazı durumlarda, sorunları hemen çözemeyecek, ancak bunu isteyerek yapabilir.
Yazarlar, ZPD’sinde ChatGPT ile çalışmanın sınırlamalarını öğrenme fırsatlarına dönüştürmeye yardımcı olabileceğini ileri sürüyor. Yanıtlarını sorgulayarak ve test ederek, öğrenciler sadece Chatgpt’in sınırlarında gezinmeyecek, aynı zamanda matematiksel düşüncenin kalbinde yatan kanıt değerlendirme ve akıl yürütmenin kritik becerilerini geliştireceklerdir.
Stylianides, “Saygın ders kitaplarında bulunan kanıtlardan farklı olarak, öğrenciler ChatGPT’nin kanıtlarının geçerli olduğunu varsayamazlar. AI tarafından üretilen kanıtları anlama ve değerlendirme, matematik müfredatına gömülmesi gereken temel beceriler olarak ortaya çıkıyor.” Dedi.
Marco, “Bunlar öğrencilerin ustalaşmasını istediğimiz temel becerilerdir, ancak bu” Bu sorunu birlikte keşfetmemizi istiyorum, “diye sormak anlamına geliyor,” diye ekledi Marco.
Araştırma şurada yayınlandı Bilim ve Teknolojide Uluslararası Matematik Eğitimi Dergisi.



