Reddit Answers ve Sağlık İçeriklerinde Güvenlik: Yapay Zeka Destekli Tavsiyelerin Riskleri
yapay zeka destekli sohbet botlarının halüsinasyon üretme eğilimi giderek artıyor. Bu kez olay, Reddit’in Answers özelliğinin kullanıcı deneyimini etkilediği bir durumda yaşandı: bir kullanıcı, ağrı kesici arayışında olan birine eroin önerildiğini fark etti. Olayın ardından Reddit hızlı adımlar attı ve hem sağlıkla ilgili içeriklerde hem de genel yanıt üretiminde ince ayar yapmayı hedefledi.
Answers Sağlık Tavsiyelerinde Sınıfta Kaldı Bağlam, bir sağlık çalışanı tarafından moderatörlere özel bir alt dizinde paylaşılan bir başlıkta belirlendi. Kronik ağrı hakkında yazılan bir konuyu kapsayan gönderide, Answers’ın uygunsuz bir şekilde eroin önerebileceği yönündeki bulgu dikkat çekti. Benzer bir durumda, sohbet botu başka bir kullanıcıya kratom adlı, bazı eyaletlerde yasadışı olan bir bitkisel özütünü tavsiye etmişti. FDA, kratomun karaciğer hasarı, nöbet ve bağımlılık riski taşıdığı konusunda uzun süredir uyarılar yayıyor.

Reddit Answers, Kullanıcı İçeriğinden Öğreniyor Sistem, Gemini ve ChatGPT gibi büyük dil modellerine benzer şekilde çalışsa da temel farkı, yanıtlarını Reddit kullanıcılarının paylaştığı içeriklerden türetmesidir. Başta ayrı bir sekmede sunulan bu özellik, şimdi bazı sohbet akışlarına entegre edilerek test edilmektedir. Ancak topluluk kaynaklı içeriklerden beslendiği için yanlış veya zararlı tavsiyeler öne çıkabiliyor; sağlık gibi hassas konularda bu durum ciddi riskler doğurabilir.
Görünürlük Azaltıldı ve Düzeltmeler Devam Ediyor Bir kullanıcının tespiti, Answers’ın sağlık alt başlıklarında yanlış ve tehlikeli tıbbi tavsiyeler verdiğini gösterdi. Moderatörlerin bu özelliği devre dışı bırakma seçeneğinin olmaması da eleştiri konusu oldu. Şikâyet sonrası Reddit, sistemde düzenlemelere giderek hassas konularda Answers özelliğinin görünürlüğünü azalttı ve güvenilirliği artırmaya çalıştı.
Yapay Zekalarda Tehlikeli Tavsiye Zinciri Bu olay, yapay zekaların hatalı veya tehlikeli tavsiyeler verme eğiliminin güncel bir örneğini ortaya koydu. Google’ın AI Overviews özelliğinin pizzalarda peynirin kaymaması için toksik olmayan yapıştırıcı önermesi ve ChatGPT’nin bazı sağlık tavsiyelerinde güvenilir olmayan sonuçlar üretmesi gibi önceki vakalar da bu riskleri destekliyor. Reddit Answers vakası, yapay zekaların sağlık alanında güvenilir moderasyon olmadan kullanılmasının önemini bir kez daha gösterdi.