Yapay zekâyla hazırlanan sahte videoları tespit eden yazılımlar gündemde. Ancak uzmanlara göre hiçbir sistem tek başına kesin sonuç vermiyor.
Deepfake videoları tespit eden yazılımlar gelişiyor. Ancak uzmanlar, sahte içerikleri anlamak için tek bir programa güvenilmemesi gerektiğini belirtiyor. Yapay zekâ teknolojilerinin hızla gelişmesiyle birlikte gerçek ile sahte görüntü arasındaki fark her geçen gün daha zor ayırt edilir hale gelmiştir. Sosyal medyada kısa sürede milyonlarca kişiye ulaşan videoların bir kısmı artık kamera karşısında çekilmiş gerçek görüntülerden değil, yapay zekâ destekli üretim sistemlerinden oluşmaktadır. Bu durum, “Yapay zekâyla hazırlanan sahte videolar nasıl anlaşılır?” sorusunu yeniden gündeme taşımıştır.
Deepfake olarak bilinen yapay zekâ destekli sahte video teknolojileri, bir kişinin yüzünü, sesini veya mimiklerini başka bir görüntüye yerleştirebilmektedir. İlk dönemlerde bu tür videolarda yüz kaymaları, dudak senkronu hataları, göz kırpma sorunları veya ışık uyumsuzlukları daha kolay fark edilebilmiştir. Ancak son yıllarda geliştirilen yapay zekâ modelleri, bu hataları büyük ölçüde azaltmıştır. Bu nedenle artık birçok sahte video, çıplak gözle bakıldığında gerçek görüntüden ayırt edilemeyecek seviyeye yaklaşmıştır.
Sahte videoları tespit etmek için kullanılan bazı yazılım ve analiz sistemleri bulunmaktadır. Bu sistemler, görüntüdeki piksel bozulmalarını, yüz hareketlerini, ışık geçişlerini, dudak senkronunu, göz kırpma düzenini ve ses dalgalarını incelemektedir. Bazı araçlar ise videonun teknik verilerini, yani metadata bilgilerini kontrol ederek içeriğin hangi programlarla düzenlenmiş olabileceğini anlamaya çalışmaktadır. Ancak bu yöntemlerin hiçbiri tek başına kesin sonuç vermemektedir.
Uzmanlara göre deepfake tespit sistemlerinin en büyük sorunu, yapay zekâ üretim araçlarının da aynı hızla gelişmesidir. Bugün yakalanabilen bir sahte video türü, birkaç ay sonra geliştirilen yeni bir modelle daha gerçekçi hale getirilebilmektedir. Bu nedenle tespit yazılımları ile sahte içerik üretim araçları arasında sürekli bir yarış yaşanmaktadır.
Son dönemde öne çıkan yöntemlerden biri de dijital filigran ve içerik kimlik bilgisi sistemleridir. Google’ın SynthID teknolojisi gibi sistemler, yapay zekâyla üretilen içeriklere görünmez bir işaret ekleyerek daha sonra bu içeriğin yapay zekâ ile oluşturulup oluşturulmadığını anlamayı hedeflemektedir. C2PA olarak bilinen Content Credentials sistemi de içeriğin kaynağını, düzenleme geçmişini ve üretim sürecini daha şeffaf hale getirmeyi amaçlamaktadır. Ancak bu sistemlerin de etkili olabilmesi için içeriği üreten platformun bu işaretleme yöntemlerini kullanması gerekmektedir. Yani her yapay zekâ videosu otomatik olarak bu sistemlerle tespit edilememektedir.
Bu alanda kullanılan araçlar genellikle gazeteciler, doğrulama ekipleri, güvenlik uzmanları, sosyal medya platformları ve kamu kurumları tarafından tercih edilmektedir. Bazı ticari yazılımlar videonun sahte olma ihtimalini yüzde üzerinden değerlendirebilmekte, bazıları ise ses ve görüntüyü ayrı ayrı analiz etmektedir. Fakat uzmanlar, bu sonuçların “kesin hüküm” olarak değil, “risk değerlendirmesi” olarak görülmesi gerektiğini belirtmektedir.
Yapay zekâ videolarını anlamak için yalnızca programa güvenmek yeterli değildir. Videonun ilk nerede paylaşıldığı, güvenilir haber kaynaklarında yer alıp almadığı, aynı görüntünün başka kaynaklarda bulunup bulunmadığı ve içerikteki kişinin daha önceki görüntüleriyle uyumlu olup olmadığı da kontrol edilmelidir. Özellikle siyasetçiler, ünlüler, iş insanları ve kamuoyunda tanınan kişiler üzerinden hazırlanan sahte videolar, sosyal medyada çok hızlı yayılabildiği için doğrulama süreci daha önemli hale gelmiştir.
Kısa videolar bu konuda daha büyük risk oluşturmaktadır. Çünkü birkaç saniyelik bir görüntüde yüz, ses, mimik ve çevre detaylarını analiz etmek daha zordur. Sosyal medya platformlarında düşük çözünürlüklü, sıkıştırılmış veya kırpılmış videolar paylaşıldığında tespit araçlarının başarısı da düşebilmektedir. Bu nedenle bir videonun bulanık olması, düşük kaliteli görünmesi veya çok kısa kesitlerden oluşması, doğrulama sürecini daha da zorlaştırmaktadır.