enflasyonemeklilikötvdövizakpchpmhpurfaşanlıurfa
DOLAR
32,2424
EURO
34,8158
ALTIN
2.422,72
BIST
10.055,98
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
18°C
İstanbul
18°C
Az Bulutlu
Salı Az Bulutlu
19°C
Çarşamba Az Bulutlu
19°C
Perşembe Az Bulutlu
22°C
Cuma Parçalı Bulutlu
22°C

Duyuları kandıran Deepfake’ler nasıl anlaşılır?

Yakın vakit evvel Google, GPU’lardan yardım alan fiyatsız bilgi süreç hizmeti Google Colaboratory’deki deepfake (Derin Hile) algoritmalarını …

Duyuları kandıran Deepfake’ler nasıl anlaşılır?
A+
A-

Yakın vakit evvel Google, GPU’lardan yardım alan fiyatsız bilgi süreç hizmeti Google Colaboratory’deki deepfake (Derin Hile) algoritmalarını yasakladı. Deepfake’leri düzenleyen bir kişi yahut teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen kanunları var. Çin yasa tasarısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve muhtemel AB yapay zekâ düzenlemesinin bu özel teknoloji hakkında unsur içermesi bekleniyor.

Kaspersky uzmanları, deepfake sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıklıyor:

  • ‘Deepfake’ çoklukla insanlara dair özellikleri bahis alan ve derin hudut ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya cinslerini söz ediyor. Bunlar görüntü, fotoğraf yahut ses kaydı olabiliyor. Klasik görüntü düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir düzmece kesim oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor.
  • Başlangıçta bu terim Reddit’te popülerlik kazanmış belli bir yazılım kesimine atıfta bulunuyordu. Yazılım, bir kişinin yüzünü öbür kişinin bulunduğu bir görüntüye yerleştirebiliyordu ve ünlülerin taklitleriyle istek dışı porno imajları oluşturmak için kullanıldı. Varsayımlara nazaran tüm deepfake sahtekarlıkların 96’sı pornografik imajlardan oluşuyor. Deepfake’in berbata kullanımı, prestij gaspı ve kamuyu önünde utandırma üzere kullanımlara dair tasaları gündeme getiriyor.
  • Bu teknoloji siber hatalılara da yardımcı olabiliyor. İngiltere ve Hong Kong’daki en az iki olayda, ilgili şirketlerin yöneticisi üzere davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış deepfake ses sahtekarlığı kullanıldı. Yeni araştırmalar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan deepfake uygulamaları tarafından kandırılabileceğini ve yeni hücum vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini önemli bir sorun haline getirdiğini gösteriyor.
  • Diğer bir sorun da deepfake sahtekarlıklarının, berbat gayelerle kullanılabildikleri için ses ve görüntü içeriğine olan inancı sarsması. Örneğin yakın tarihli bir olayda, kripto para ünitesi dolandırıcılığını desteklemek için Elon Musk ile yapılan uydurma bir röportaj kullanıldı. Europol üzere çeşitli uzmanlar ve kurumlar, deepfake manzaralarının artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor.
  • Haberlerin hepsi gerçek haber değil. Görüntü manipülasyonu, görüntülemenin kendisi kadar eski bir bahis. CGI onlarca yıldır piyasada ve her ikisi de deepfake üzere geniş bir kullanım alanı buldu. Örneğin Kendrick Lamar’ın yakın tarihli Heart Part 5 görüntüsünde, rapçinin yüzünü Kanye West üzere başka ünlü ünlülere dönüştürmek için deepfake teknolojisi kullanıldı. Top Gun: Maverick sinemasında oyuncu sesini kaybettikten sonra Val Kilmer’in karakterini seslendirmek için bir algoritmadan yardım alındı. Geçersiz Tom Cruise’un oynadığı viral bir TikTok serisi oluşturmak için de tekrar deepfake algoritmaları kullanıldı. Birkaç teşebbüs, örneğin gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor.

Deepfake’leri çevreleyen tüm inanç problemleriyle birlikte, bir deepfake’in nasıl tespit edileceği merak ediliyorsa işe aşağıdaki ipuçlarıyla başlanabilir:

  • Tom Cruise’un yer aldığı örneklerdeki üzere inandırıcı deepfake örnekleri hala çok fazla uzmanlık, efor ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, makus işlenmiş saçlar, uyumsuz yüz halleri, çok az göz kırpma yahut hiç kırpmama, cilt rengi uyumsuzlukları üzere ögelerle fark edilebiliyor. Giysilerin işlenmesindeki kusurlar yahut yüzün üzerinden geçen bir el de amatör bir deepfake çalışmasını ele verebiliyor.
  • Ünlü yahut halka açık bir kişinin çılgın savlar yahut gerçek olamayacak kadar yeterli teklifler yaptığına rastlanılırsa, görüntü ikna edici olsa bile gerekli ihtimam gösterilmeli ve bilgileri saygın kaynaklardan denetim edilmelidir. Dolandırıcıların deepfake eksikliklerini gizlemek için görüntüleri kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en âlâ strateji görüntüye bakarak ipucu aramak değil, sağduyu ile gerçekleri denetim etme hünerlerini kullanmaktır.
  • Güvenilir bir güvenlik tahlili, yüksek kaliteli bir deepfake sahtekarlığının kullanıcıyı berbat gayeli evrakları yahut programları indirmeye, şüpheli irtibatları yahut kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada dayanak sağlayabilir.
  • Deepfake pornosunun kurbanı olunması durumunda, görüntünün kaldırılmasını talep etmek için hem web sitesine (birçok web sitesi deepfake göndermeyi yasaklar) hem de deepfake oluşturmak ceza gerektiren bir hata olduğu için kolluk kuvvetlerine başvurulabilir.

Kaynak: (BHA) – Beyaz Haber Ajansı

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.