Birleşik Krallık merkezli Dijital Nefretle Mücadele Merkezi (CCDH) tarafından yapılan araştırma, popüler yapay zekâ sohbet aracı ChatGPT’nin güvenlik önlemlerinde ciddi açıklar bulunduğunu ortaya çıkardı.

Araştırma kapsamında 13 yaşındaki çocuk kimliğiyle yürütülen 1.200’den fazla denemede, konuşmaların yarısından fazlası genç kullanıcılar için tehlikeli olarak sınıflandırıldı. ChatGPT’nin alkol ve uyuşturucu kullanımı, yeme bozukluklarını gizleme yöntemleri ve hatta kişiye özel intihar mektupları gibi zararlı bilgiler verdiği tespit edildi.

“Koruma sistemleri neredeyse yok”

CCDH CEO’su Imran Ahmed, sistemin koruma mekanizmalarının son derece yetersiz olduğunu belirterek, “Bunlar neredeyse hiç yok, sadece göstermelik bir kalkan” dedi.

Araştırmada, ChatGPT’nin genellikle tehlikeli içerikler hakkında uyarı verdiği ancak ardından bu içeriklerin detaylı talimatlarını sunduğu görüldü. Ayrıca, araştırmacılar, “bu bilgi okul projesi için” gibi bahanelerle güvenlik engellerini kolayca aşabildi.

OpenAI’den açıklama

ChatGPT’nin geliştiricisi OpenAI, Amerikan Associated Press ajansına yaptığı açıklamada, aracın hassas durumları tanıma ve uygun şekilde yanıt verme yeteneğini geliştirmek için çalışmalar yürüttüğünü bildirdi. Ancak şirket, özellikle gençlerle ilgili bulgulara doğrudan yorum yapmadı.

En çarpıcı bulgu: İntihar mektupları

Araştırmanın en dikkat çekici bulgularından biri, ChatGPT’nin 13 yaşındaki bir kız çocuğu kurgusu için anne-babasına, kardeşlerine ve arkadaşlarına hitaben üç ayrı duygusal intihar mektubu yazması oldu.

Yaygın kullanım, artan kaygılar

Dünya genelinde 700 milyonun üzerinde kullanıcısı bulunan ChatGPT, özellikle gençler arasında hızla yayılıyor. Common Sense Media’nın araştırmasına göre, gençlerin %70’inden fazlası yapay zekâ sohbet botlarını denemiş durumda ve yarısı bunları düzenli olarak kullanıyor.

OpenAI CEO’su Sam Altman, daha önce gençlerin ChatGPT’ye aşırı duygusal bağımlılık geliştirme riskine dikkat çekmişti.

Kaynak: Haber Merkezi