Yeni bir araştırma, yapay zekaların insan diline neden bu kadar yakın olduğunu ortaya koydu. Yapay zekaların yanıtlarını oluştururken en çok Reddit gibi tartışma forumlarından öğrenmesi, modellerin “bizden biri” gibi davranmasının temel nedeni olarak gösteriliyor.
FORUMLAR ÖĞRETİYOR
İstatistik platformu Statista’nın araştırmasına göre, ChatGPT ve diğer büyük dil modelleri eğitimlerinde Reddit’i en çok kaynak olarak kullanıyor. Veriler, Reddit’in alıntı yapılan kaynaklar arasında yüzde 40,1 ile ilk sırada yer aldığını gösteriyor.
Araştırma, yapay zekaların ansiklopediler veya akademik kaynaklardan çok, forumlardaki tartışmalar ve insanların günlük ifadeleriyle eğitildiğini ortaya koyuyor. Bu durum, yapay zekaların mizah, öfke ve öznel yorumlara daha yatkın yanıtlar vermesine neden oluyor.
DİĞER KAYNAKLAR
Reddit’in ardından en çok kullanılan kaynaklar ise Wikipedia (yüzde 26,3), YouTube (yüzde 23,5), Google (yüzde 23,2), Yelp (yüzde 21), Facebook (yüzde 19,9) ve Amazon (yüzde 18,7) olarak sıralandı.
BÜYÜK ANLAŞMALAR
Reuters’ın haberine göre, Google 2024’te Reddit ile veri paylaşımı için yıllık 60 milyon dolar ödemeyi kabul etti. Aynı yıl OpenAI de ChatGPT’yi eğitmek için Reddit verilerini kullanma anlaşması yaptı. Bu adımlar, yapay zekaların “insan gibi” yanıtlar vermesinin temel nedenini pekiştiriyor.




