Kaspersky, farklı k?t? niyetli ama?lar i?in deepfake video ve ses oluşturma hizmeti veren ?eşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak i?in ?nl?ler veya siyasi fig?rler gibi belirli hedefler talep edebilir.
Siber su?lular, ?retilen yapay zeka videolarını yasa dışı faaliyetler i?in ?eşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak i?in kullanılabilecek sahte videolar veya g?r?nt?ler oluşturmak i?in deepfake ?rnekleri kullanabiliyor. ?rneğin bir CEO'nun banka havalesi talep ettiği veya bir ?demeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları ?almak i?in kullanabiliyor. Sahte videolar, kişilerden para ya da bilgi sızdırmak i?in kullanılabilecek videolar ya da g?r?nt?ler oluşturmak i?in de kullanılabilir Siber su?lular ayrıca yanlış bilgi yaymak veya kamuoyunu manip?le etmek i?in deepfake'lerden faydalanabiliyor. ?rneğin bir politikacının tartışmalı a?ıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu se?imin sonu?larını etkilemek i?in kullanabilir.
Elon Musk'ın yeni bir kripto para dolandırıcılığını tanıttığı bir deepfake
Deepfake teknolojisi, meşru hesap sahibinin ger?ek?i sahte videolarını veya ses kayıtlarını oluşturarak ?deme hizmetlerinde doğrulama aşamasını atlamak i?in kullanılabiliyor. Bunlar, ?deme hizmeti sağlayıcılarını ger?ek hesap sahibiyle karşı karşıya olduklarını d?ş?nmeleri i?in kandırmak ve b?ylece hesaba ve ilgili fonlara erişim elde etmek i?in kullanılabiliyor.
Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, şunları s?yledi:
"Deepfake'ler giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanılıyor. ?rneğin, bir İngiliz enerji firmasının CEO'su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake'i ile 243.000 dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak su?lu başka bir transfer talebinde bulununca ortaya ?ıktı, ancak o zamana kadar zaten transfer edilmiş olan fonları geri almak i?in ?ok ge? kalınmıştı. Benzer bir vaka BAE'de rapor edildi ve burada da ses deepfake'i i?eren bir dolandırıcılıkta 400 bin dolar ?alındı. Bununla birlikte deepfake'lerin yalnızca işletmeler i?in değil, aynı zamanda bireysel kullanıcılar i?in de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık i?in kullanılabilir veya rızası olmadan başka birinin kimliğine b?r?nebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak i?in anahtar niteliğindedir."
Darkweb kaynaklarının s?rekli izlenmesi, deepfake end?strisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit akt?rlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. Araştırmacılar darknet'i izleyerek deepfake' lerin oluşturulması ve dağıtımı i?in kullanılan yeni ara?ları, hizmetleri ve pazar yerlerini ortaya ?ıkarabiliyor. Bu t?r bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, m?şterilerinin deepfake ile ilgili tehditler s?z konusu olduğunda bir adım ?nde olmalarına yardımcı olmak i?in bu t?r bir izleme i?erir.
Kaspersky, deepfake ile ilgili tehditlerden korunmak i?in şunları ?nerdi:
"Kuruluşunuzdaki siber g?venlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın. Mevcut tehdit ortamının ?n?ne ge?mek i?in Kaspersky Threat Intelligence kullanın.
Kurumsal "insan g?venlik duvarınızı" g??lendirin. ?alışanların deepfake'lerin ne olduğunu, nasıl ?alıştıklarını ve yol a?abilecekleri problemleri anlamalarını sağlayın. ?alışanlara bir deepfake'i nasıl tespit edeceklerini ?ğretmek i?in s?rekli farkındalık ve eğitim ?alışmaları yapın. Kaspersky? Automated Security Awareness Platform , ?alışanların en yeni tehditler konusunda g?ncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan ?nemli bir etken olmaya devam ediyor.
'G?ven ama doğrula' gibi iyi protokollere sahip olun. Sesli mesaj ve videolara ş?pheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların ?oğundan ka?ınmaya yardımcı olabilir.
Deepfake videoların dikkat edilmesi gereken temel ?zelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde g?z kırpma veya hi? g?z kırpmama, dudakların konuşmayla senkronize olmaması, g?r?nt?deki dijital kalıntılar, videonun kasıtlı olarak d?ş?k kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipu?larıdır."