CEİD

Bu proje Avrupa Birliği tarafından finanse edilmektedir.

TÜRKİYE'DE KATILIMCI DEMOKRASİNİN GÜÇLENDİRİLMESİ:
TOPLUMSAL CİNSİYET EŞİTLİĞİNİN İZLENMESİ PROJESİ

Yazım hataları ve argo, tıbbi bakım arayışını caydırmaya teşvik etmek

AI modelleri, insanlar onlara renkli dil, yazım hataları, garip biçimlendirme ve hatta cinsiyetten bağımsız zamirler içeren sorular sorduğunda tıbbi önerilerini değiştirir

Bir doktora ne zaman görüleceğiniz konusunda tavsiye istemek konusunda dikkatli olun

Boğaz ağrınız hakkında bir doktor görmeli misiniz? AI’nın tavsiyesi, sorunuzu ne kadar dikkatli yazdığınıza bağlı olabilir. Yapay zeka modelleri, olacak hastalardan simüle edilmiş yazılar üzerinde test edildiğinde, yazar yazım hatası yaparken, duygusal veya belirsiz bir dil içeriyorsa veya kadın olsaydı tıbbi bakım aramaya karşı tavsiyelerde bulunma olasılıkları daha yüksekti.

Çalışmaya dahil olmayan San Diego, Kaliforniya Üniversitesi’ndeki Karandeep Singh, “Sinsi önyargı AI tavsiyesinin tenorunu ve içeriğini değiştirebilir ve bu ince ama önemli farklılıklara yol açabilir” diyor.

Massachusetts Teknoloji Enstitüsü’ndeki Abinitha Gourabathina ve meslektaşları, farklı formatlarda ve stillerde binlerce hasta notu oluşturmaya yardımcı olmak için AI kullandı. Örneğin, bazı mesajlar sınırlı İngilizce yeterliliği olan veya yazma ile daha az kolay olan hastaları taklit etmek için ekstra alanlar ve yazım hataları içeriyordu. Diğer notlar, sağlık kaygısı olan yazarlar tarzında belirsiz bir dil, dramatik veya duygusal bir ton veya cinsiyetten bağımsız zamirler veren renkli ifadeler kullandı.

Araştırmacılar daha sonra notları, sohbet botlarına güç vermek için yaygın olarak kullanılan dört büyük dil modeline (LLMS) beslediler ve AI’ya hastanın durumlarını evde veya bir klinikte ziyaret edip etmemesi ve hastanın belirli laboratuvar testleri ve diğer tıbbi kaynaklar alması gerekip gerekmediği hakkında soruları cevaplamasını söylediler. Bu AI modelleri, Openai’nin GPT-4’ü, Meta’s Lama-3-70B ve Lama-3-8B’yi ve AI şirket yazarı tarafından sağlık endüstrisi için geliştirilen Palmyra-MED modeli içeriyordu.

Testler, çeşitli format ve stil değişikliklerinin, tüm AI modellerini yüzde 7 ila 9 arasındaki hastaların tıbbi yardım almak yerine evde kalmasını önerme olasılığının daha yüksek olduğunu göstermiştir. Modellerin ayrıca kadın hastaların evde kalmasını önerme olasılığı daha yüksektir ve takip araştırmaları, mesajlardaki cinsiyet ve dil tarzı nedeniyle tedaviler için önerilerini değiştirme olasılıklarının daha yüksek olduğunu göstermiştir.

Openai ve Meta yorum talebine yanıt vermedi. Yazar, yazardaki Zayed Yasin, yazarın klinik kararlar veya “döngüde insan olmadan” sağlık tavsiyesi için LLMS’yi kullanarak “tavsiye etmez veya desteklemez”.

Singh, şu anda elektronik sağlık kayıt sistemlerinde kullanılan operasyonel AI araçlarının çoğu, bu araştırmada özel olarak incelenmemiş olan Openai’nin GPT-4O’suna dayanıyor. Ancak, çalışmadan büyük bir paket, sağlık sektöründe kullanılan “üretken AI modellerini değerlendirmenin ve izlemenin” gelişmiş yollarına ihtiyaç olduğunu söyledi.