Yapay zeka destekli videolar büyük tehlike oluyor! Uzmanlar kritik uyarılarını sıraladı

Uzmanlar, bu teknolojinin siyasi seçimleri manipüle etmekten finansal dolandırıcılıklara kadar geniş bir yelpazede kullanıldığını ve mevcut savunma mekanizmalarının geride kaldığını vurguladı.

Son araştırmalar, deepfake’lerin yayılma hızının yıllık yüzde 900’e ulaştığını gösterirken, insan gözünün bunları ayırt etme oranı sadece yüzde 55-60 seviyesinde kaldı.

2025’in ilk çeyreğinde Kuzey Amerika’da deepfake kaynaklı dolandırıcılık vakaları yüzde 1.740 oranında artarken, kayıplar 200 milyon doları aştı.

Deloitte’nin raporuna göre, yapay zeka destekli sahteciliklerin 2027’ye kadar 40 milyar dolarlık bir ekonomik yük oluşturması beklendi. Bu sahte videolar, sadece bireysel mağduriyetler yaratmıyor; demokrasiyi de baltaladı.

Örneğin, ABD başkanlık seçimlerinde sahte sesli robocall’lar, seçmenleri oy kullanmamaya ikna etmek için kullanıldı ve Federal İletişim Komisyonu (FCC) bu tür AI seslerini yasadışı ilan etti.

“DÜŞMANCA SALDIRILAR”

Bilimsel çalışmalar, deepfake tespitindeki zorlukları net bir şekilde ortaya koydu. Springer’da yayımlanan bir 2025 incelemesi, deepfake’lerin düşük çözünürlük, video sıkıştırma ve “düşmanca saldırılar” (adversarial attacks) gibi faktörler nedeniyle tespitinin giderek zorlaştığını belirtti.

Araştırmacılar L.H. Singh, P. Charanarur ve N.K. Chaudhary, “Deepfake’ler artık o kadar sofistike ki, forensic analizler bile metadata, aydınlatma ve ses-görüntü senkronizasyonu gibi geleneksel ipuçlarını yakalayamıyor” dedi.

Benzer şekilde, ScienceDirect’teki bir çalışma, 73 makaleyi tarayarak ses tabanlı, görsel tabanlı ve multimodal tespit yöntemlerinin güçlü ve zayıf yönlerini inceledi; ancak düşük kaliteli videolarda başarı oranlarının yüzde 70’in altına düştüğünü raporladı.

Uzman görüşleri de alarm zillerini çaldı. Arup’un Bilgi İşlem Direktörü Rob Greig, Dünya Ekonomik Forumu’nun 2025 Küresel Siber Güvenlik Görünümü’nde, “Ses ve görsel ipuçları, deepfake’ler tarafından ustalıkla taklit ediliyor; artık gördüğümüze bile şüpheyle yaklaşmalıyız” ifadelerini kullandı.

Columbia Gazetecilik İncelemesi’nde (CJR) yer alan bir rehberde, makine öğrenimi uzmanları, Deepware Scanner ve Optic gibi araçların bile diffusion modellerinin hızına yetişemediğini belirtti; Bu araçlar, eski GAN tabanlı deepfake’ler için eğitildiği için yeni nesil sahteleri atladı.

NYU Sosyal Medya ve Politika Merkezi’nden Zeve Sanderson ise, “Deepfake’ler seçimlerinde beklenenden az kullanıldı, ama bu sadece yasal korkulardan; asıl tehlike, ucuz ve erişilebilir hale geldiklerinde ortaya çıkacak” dedi.

“GÜVENİLİRLİK İMKANSIZ”

Siyasi dezenformasyon cephesinde durum daha da vahim. Brookings Enstitüsü’nün raporuna göre, deepfake’ler seçimleri etkilemek için “ucuzfake” (basit editli videolar) ile birleşince, gerçeklik algısını tamamen bozdu.

Slovakya’da seçimleri öncesi yayınlanan sahte bir ses kaydı, oy hilesi iddialarını yayarak sonuçları etkileme riski taşıdı.

Meksika’da ise Cumhurbaşkanı adayı Claudia Sheinbaum’un deepfake versiyonu, finansal scam’lerde kullanıldı.

Recorded Future’un Deepfake ve Seçim Dezenformasyonu Raporu, deepfake’lerin yüzde 26,8’inin dolandırıcılık amacıyla üretildiğini ve politik figürlerin aile üyelerine kadar uzanan hedeflemelerle dezenformasyonu katladığını ortaya koydu.

Dolandırıcılıkta ise deepfake’ler yeni bir çağ başlattı. Onfido’nun kıdemli dolandırıcılık uzmanı Simon Horswell, 2023’te deepfake girişimlerinin yüzde 3.000 arttığını ve 30-90 saniyelik ses örnekleriyle multilingual ses klonlarının üretilebildiğini belirtti. Bu, şirket çalışanlarını sahte video aramalarla milyonlarca dolarlık transferlere ikna etmek için kullanıldı.

Pindrop CEO’su Balasubramaniyan, “Deepfake’ler artık spam gibi; arka planda çalışan AI dedektörleri olmadan güvenilirlik imkansız” dedi.

PEKİ, ÇÖZÜM NEDİR?

Uzmanlar, çok katmanlı yaklaşımlar önerdi: Blok zinciri tabanlı izlenebilirlik, hafif modeller ve sürekli güncellenen eğitim veri setleri.

GAO’nun raporu, renk anomalilerini tespit eden AI modellerinin umut verici olduğunu, ancak gerçek dünya senaryolarında etkinliğinin sınırlı kaldığını vurguladı.

Medya okuryazarlığı eğitimi de kritik; Carnegie Mellon Üniversitesi’nden Thomas Scanlon, “Deepfake’ler bireysel davranış kalıplarını analiz ederek kişiselleştirilmiş yalanlar üretiyor; seçmenler, şüpheci bir bakış açısı geliştirmeli” dedi.

Deepfake tehdidi, sadece teknolojik bir sorun değil; toplumun güven dokusunu parçalayan bir kriz.

Eğer tespit teknolojileri bu hızla evrilmezse, yarınki haberler bugünkü gerçeklerden ayırt edilemez hale gelebildi.

Politikacılar, teknoloji devleri ve bireyler, bu asimetrik savaşı kazanmak için acil koordinasyon şart.

Author: can tok

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir