CEİD

Bu proje Avrupa Birliği tarafından finanse edilmektedir.

TÜRKİYE'DE KATILIMCI DEMOKRASİNİN GÜÇLENDİRİLMESİ:
TOPLUMSAL CİNSİYET EŞİTLİĞİNİN İZLENMESİ PROJESİ

Yapay zeka destekli oyuncakların güvenli olup olmadığını bilmiyoruz ama yine de buradalar

Yapay zekayla desteklenen oyuncaklar, endişe verici bir duygusal anlayış eksikliği gösteriyor. Ancak sektörün tamamen yasaklanması değil, düzenlenebilmesi için teknolojinin risklerini ve faydalarını anlamamız gerekiyor.

3 yaşındaki Mya ve annesi Vicky, Cambridge Üniversitesi Eğitim Fakültesi'nde gözlem sırasında Gabbo adlı yapay zeka oyuncağıyla oynuyor

3 yaşındaki Mya ve annesi Vicky, Cambridge Üniversitesi Eğitim Fakültesi’nde gözlem sırasında Gabbo adlı yapay zeka oyuncağıyla oynuyor

En ileri teknolojiye sahip yapay zeka modelleri bile uydurma bilgileri gerçekmiş gibi sunmaya, tehlikeli bilgiler yaymaya ve sosyal ipuçlarını kavramada başarısız olmaya eğilimlidir. Buna rağmen çocuklarla sohbet edebilen yapay zekayla donatılmış oyuncaklar gelişen bir sektör.

Bazı bilim insanları cihazların riskli olabileceği ve sıkı düzenleme gerektirebileceği konusunda uyarıda bulunuyor. Son araştırmada araştırmacılar, 5 yaşındaki bir çocuğun böyle bir oyuncağa “Seni seviyorum” dediğini bile gözlemledi ve çocuk da buna şu yanıtı verdi: “Dostça bir hatırlatma olarak, lütfen etkileşimlerin sağlanan kurallara uygun olduğundan emin olun. Nasıl ilerlemek istediğinizi bana bildirin.” Ancak bu onların oyuncak kutusundan tamamen çıkarılmaları gerektiği anlamına gelmiyor.

Cambridge Üniversitesi’nden Jenny Gibson, “Çocuk oyunlarında belirli bir dereceye kadar riski kabul ettiğimiz başka alanlar da var, örneğin macera oyun alanları; riskler var; çocuklar kollarını kırıyor” diyor. “Fakat oyun alanlarını yasaklamıyoruz çünkü fiziksel okuryazarlığı ve oyunla birlikte gelen sosyal becerileri öğreniyorlar. Benzer şekilde yapay zeka oyuncakları için de şunu anlamak istiyoruz: Ara sıra tuhaf bir şey söylenmesinin riski, dünyada yapay zeka hakkında daha fazla bilgi edinmenin veya ebeveyn-çocuk etkileşimlerini destekleyen veya bilişsel veya sosyal duygusal faydaları olan bir oyuncağa sahip olmanın faydasından daha mı büyük? Bu yeniliği durdurmak istemem.”

Bu cihazların çocuklarla nasıl iletişim kurduğunu anlamak için yine Cambridge Üniversitesi’nden Gibson ve meslektaşı Emily Goodacre, 6 yaşın altındaki 14 çocuğun Curio Interactive tarafından geliştirilen Gabbo adlı yapay zeka destekli bir oyuncakla oynamasını izledi. Küçük tüylü bir robot olan Gabbo seçildi çünküÇünkü bu yaş grubu için açıkça reklamı yapılmıştı.

İkili bazı endişe verici etkileşimler gözlemledi ve şunları buldu: oyuncak çocukları yanlış anladı, duyguları yanlış okudu ve gelişimsel açıdan önemli olan oyun türleriyle meşgul olamadı. Örneğin bir çocuk oyuncağa üzgün hissettiğini söyledi ve oyuncak ona endişelenmemesini söyleyerek konuyu değiştirdi. Başka bir çocuk, “O (Gabbo) anlamadığında sinirleniyorum” dedi. Araştırma, AI in the Early Years adlı bir raporda yayınlandı.

Curio Interactive yanıt vermedi Yeni Bilim Adamı yorum talebi. Ancak AI destekli oyuncaklar, ChatGPT kullanarak çocuklarla sohbet eden Little Learners gibi perakendecilerden de (ayılar, köpek yavruları ve robotlar dahil) yaygın olarak temin edilebiliyor. FoloToy, aralarında OpenAI, Google ve Baidu’nun da bulunduğu çeşitli büyük dil modelleriyle kullanılabilecek panda, ayçiçeği ve kaktüs oyuncakları sunuyor.

Miko gibi şirketler, yapay zeka modelini hangi şirketin eğittiğini açıklamadan, çocuklar için “yaşa uygun, denetlenen yapay zeka konuşmaları” vaat eden robotlar sunuyor ve halihazırda 700.000 adet sattığını iddia ediyor. Luka firması “Duygusal Etkileşime Sahip İnsan Benzeri Yapay Zeka” vaat eden bir baykuş sunuyor. Little Learners, Miko ve Luka, yorum talebine yanıt vermedi.

Ancak FoloToy’dan Hugo Wu şunu söyledi: Yeni Bilim Adamı Şirketin riskleri göz önünde bulundurduğunu ve yapay zekayı, insan sohbeti ve ilişkilerinin yerine geçmek yerine oyunu geliştirebilecek bir şey olarak gördüğünü söyledi. “Yaklaşımımız etkileşimlerin güvenli, yaşa uygun ve yapıcı kalmasını sağlamaktır. Bunu başarmak için sistemlerimiz, uygunsuz veya kafa karıştırıcı yanıt olasılığını en aza indirmek amacıyla birden fazla filtreleme katmanıyla birlikte niyet tanımayı kullanıyor” diyor Wu. “Aile ortamında sağlıklı kullanımın sağlanmasına yardımcı olmak için bağımlılıkla mücadele tasarım özellikleri ve ebeveyn denetimi araçları gibi mekanizmaları hayata geçirdik.”

Yapay zeka etiği üzerinde çalışan Oxford Üniversitesi’nden Carissa Véliz, teknolojinin bir risk ve bir fırsat temsil ettiğini söylüyor. “Büyük dil modellerinin çoğu, savunmasız nüfusları onlara maruz bırakacak kadar güvenli görünmüyor ve küçük çocuklar, en savunmasız nüfuslardan biri” diyor. “Özellikle endişe verici olan şey, onlar için güvenlik standartlarımızın olmaması; denetleyici otorite yok, kural yok. Bununla birlikte, yeterli önlemlerle güvenli bir araca sahip olabileceğinizi gösteren bazı istisnalar da var.”

Véliz, ücretsiz e-kitap kütüphanesi Project Gutenberg ile Empathy AI arasındaki işbirliğine atıfta bulunuyor; burada örneğin Alice ile şu adresten sohbet edebilirsiniz: Alice Harikalar Diyarında. “Model kitabın alanından asla ayrılmıyor, yalnızca kitapla ilgili soruları yanıtlıyor, tıpkı çocuklara uygun bir kitaptaki maceraları ve bilmeceleri paylaşan bir hikaye kitabı gibi” diyor. “Güvenli yapay zeka diye bir şey var, ancak çoğu şirket yüksek kaliteli bir ürün üretecek kadar sorumlu değil ve resmi korkuluklar olmadan bu, tüketiciler için alıcılara dikkat edilmesi gereken bir alan.”

Gibson, yapay zeka oyuncaklarının risklerinin veya potansiyel faydalarının neler olabileceğini söylemek için henüz çok erken olduğunu söylüyor. O ve Goodacre, üretken yapay zeka destekli oyuncakların, oyuncak üreticilerinin cihazlarını sosyal oyunu teşvik edecek ve uygun duygusal tepkiler sağlayacak şekilde programlaması için daha sıkı düzenlemelere ihtiyaç duyduğunu vurguluyor. Gibson, yapay zeka üreticilerinin sorumlu davranmayan oyuncak üreticilerinin erişimini iptal etmesi gerektiğini ve düzenleyicilerin “çocukların psikolojik güvenliğini sağlamak” için kurallar getirmesi gerektiğini söylüyor. Bu arada ikili, ebeveynlerin çocukların bu tür oyuncakları yalnızca gözetim altında kullanmasına izin verdiğini öne sürüyor.

OpenAI anlattı Yeni Bilim Adamı reşit olmayanların güçlü korumayı hak ettiğini ve şirketin çocuklara yönelik yapay zeka destekli oyuncak üreticileriyle resmi olarak ortak olmadığını söyledi. Birleşik Krallık Hükümeti Bilim, Yenilik ve Teknoloji Bakanlığı (DSIT) bu soruya yanıt vermedi Yeni Bilim Adamı Çocuk oyuncaklarında yapay zekanın düzenlenmesine ilişkin sorular.

Birleşik Krallık hükümeti şu anda daha büyük çocukları çevrimiçi ortamda güvende tutmak için tasarlanmış diğer teknoloji yasalarını değerlendiriyor. Birleşik Krallık’ın Çevrimiçi Güvenlik Yasası (OSA) Temmuz 2025’te yürürlüğe girerek web sitelerini çocukların pornografi ve hükümetin tehlikeli bulduğu içerikleri görmesini engellemeye zorladı. Mevzuat interneti daha güvenli hale getirmeyi amaçlıyordu, ancak teknoloji meraklısı çocuklar sanal özel ağ (VPN) gibi araçları kullanarak sanki başka ülkelerden katı kurallar olmadan geziniyormuş gibi görünmek için önlemlerden kolayca kaçabilirler.

Bakımdaki çocukları desteklemek ve eğitim kalitesini artırmak için Eğitim Bakanlığı tarafından getirilen yeni bir yasaya (Çocuk Refahı ve Okullar Yasası) ilişkin önerilen değişiklikler, Birleşik Krallık’taki çocukların sosyal medya ve VPN kullanmasını yasaklamayı amaçlıyordu. Bu değişiklikler şu anda oylamayla reddedildi, ancak hükümet her iki konu hakkında daha sonraki bir tarihte istişarede bulunma sözü verdi.

Madde 13 Mart 2026’da değiştirildi

Bir ilişkilendirmeyi değiştirmek için bu makaleyi güncelledik.

Yorum yapın