Deepfake’lerin Yükselişi Siber Güvenliğin Geleceği İçin Ne Anlama Geliyor?

Yapay zekadaki gelişmeler, sahte ses ve videoların daha inandırıcı hale geldiği anlamına geliyor.

Başka bir şehirdeki bir iş arkadaşınız veya iş ortağınızla video konferans düzenlediğinizi hayal edin. Yeni bir ürünün lansmanı veya en son yayınlanmamış finansal raporlar gibi hassas konuları tartışıyorsunuz. Her şey yolunda gidiyor gibi görünüyor ve siz kiminle konuştuğunuzu biliyorsunuz. Hatta belki onlarla daha önce tanışmışsınızdır. Görünüşleri ve sesleri beklediğiniz gibi ve işlerine ve işinize oldukça aşina görünüyorlar.

Rutin bir iş görüşmesi gibi gelebilir ama ya konuştuğunuzu sandığınız kişi aslında başka biriyse? Gerçek görünebilirler, ancak tanıdık görüntülerin ve sesin arkasında, hassas kurumsal bilgileri teslim etmeniz için tamamen sizi kandırmaya niyetli bir sosyal mühendislik dolandırıcısı vardır. 

Deepfake Tam Olarak Nedir?

Teknoloji ile hayatımıza yeni giren kelimeler arasında yer alan ‘deepfake’, ‘derin öğrenme’ ve ‘sahte’ kelimelerinin bir birleşimidir. Terim, aynı adı taşıyan bir Reddit topluluğunda ilk kez ortaya çıktığında iki yıl civarındaydı. Teknoloji, hem gerçek hem de yapay zeka tarafından oluşturulan görüntüleri, videoları ve sesi üst üste bindirmek ve birleştirmek için yapay zekayı kullanır ve bunların gerçek olandan neredeyse ayırt edilemez görünmesini sağlar. Sonuçların görünürdeki gerçekliği hızla rahatsız edici seviyelere ulaşıyor.

En ünlü deepfake’lerden biri, Obama’nın sahte haberlerle ilgili bir kamu spotu sunarken çekilmiş bu videosunu yapan aktör ve komedyen Jordan Peele tarafından oluşturuldu. Bu, mizah uğruna ve hızla yükselen bu trende dikkat çekmek için yapılmış olsa da, şaşırtıcı olmayan bir şekilde, en başından beri deepfake teknolojisi kötüye kullanıldı. 

Deepfake’lerin Endişe Verici Sonuçları

Nerede teknoloji yeniliği varsa, neredeyse her zaman pornografi vardır, bu nedenle Reddit’te dalgalanan ilk deepfake’lerin, orijinal aktrislerin yüzlerini başka birinin yerine geçecek şekilde manipüle edilmiş videolar olması şaşırtıcı değildir. Reddit, diğer birçok ağla birlikte o zamandan beri uygulamayı yasakladı. Bununla birlikte, aktris Scarlett Johansson’un derin sahte pornografi hakkında söylediği gibi, ünlüler büyük ölçüde şöhretleri tarafından korunurken, bu eğilim daha az öne çıkan insanlar için ciddi bir tehdit oluşturuyor. Başka bir deyişle, kimliklerini korumak için adım atmayanlar potansiyel olarak bir itibar erimesiyle karşı karşıya kalabilirler.

Bu da derin sahtekarlıkların siyasi sonuçlarına getiriyor. Şimdiye kadar, tanınmış politikacılar kılığına girme girişimleri, büyük ölçüde araştırma veya komedi adına gerçekleştirildi. Ancak derin sahtekarlıkların yaygın sosyal huzursuzluğa yol açacak kadar gerçekçi olabileceği zaman geliyor. Artık olayların ilk elden anlatımı için gözlerimize ve kulaklarımıza güvenemeyeceğiz. Örneğin, bir dünya liderinin rakip devletlerde suikast düzenleme planlarını tartıştığı gerçekçi bir video izlediğinizi hayal edin. Şiddete hazır bir dünyada, deepfake teknolojinin etkileri yıkıcı sonuçlar doğurabilir.

Politik bir etki yaratmaya çalışan sahte haber sağlayıcıları, hikayenin sadece bir yüzü. Diğeri ise, iş liderlerinin fazlasıyla aşina olduğu toplum mühendisliği biçimidir. Video konferans örneğinin gösterdiği gibi, derin sahtekarlıklar siber suçlular için yeni bir silahtır. Ve sandığınız kadar da uzak değil: Bir şirkete yönelik dünyanın ilk deepfake tabanlı saldırısı, Ağustos 2019’da bir İngiliz enerji firmasının, Alman ana şirketinin patronu kılığına giren bir kişi tarafından kandırıldığı rapor edildi. Dolandırıcının, bir telefon görüşmesi sırasında kurbanın aşina olduğu CEO’nun aksanını ve ses kalıplarını taklit etmek için yapay zekayı kullandığı iddia ediliyor. Kurban hiçbir şeyden şüphelenmedi ve 243.000 dolar kaçırdı.

Deepfake teknolojisinin bu tür kullanımları abartılı görünebilir, ancak sosyal mühendislik dolandırıcılarının dijital teknolojilerin yükselişinden çok önce insanların kimliğine büründüğünü unutmamak önemlidir. Suçlular artık hedefleri derinlemesine incelemek ve hatta kendilerini gizlemeleri için makyaj sanatçıları tutmak gibi uzun yollara gitmek zorunda değiller; işletmelerin meşru amaçlar için yaptığı gibi, artık kendi taraflarında gelişmekte olan teknolojilere sahipler. Daha önce, başarılı bir VIP kimliğine bürünmek çok daha zordu. Artık, herkese açık fotoğrafları, videoları ve ses kayıtlarını kullanarak gerçek insanların deepfake kuklalarını yaratma yeteneği herkesin kavrayışında.

İşletmenizi Deepfake’lerden koruyabilir misiniz?

Sentetik kimliğe bürünmenin hiçbir zaman gerçek şey kadar ikna edici olamayacağı şeklindeki yaygın yanlış varsayım, en büyük tehlikedir. Gerçeği kurgudan ayırmanın giderek zorlaştığı bir dünyada yaşıyoruz. Yüz milyonlarca sahte sosyal medya profilinden sahte haberlerin endişe verici bir şekilde yayılmasına ve sürekli artan kimlik avı saldırılarına kadar, gördükleriniz hakkında iki kez düşünmek hiç bu kadar önemli olmamıştı.

Belki de, sonuçta, önemli iş konularını tartışırken kapalı kapılar ardında yüz yüze toplantılara dönüş için bir durum vardır. Neyse ki, inovasyonun önüne büyük engeller koymadan işletmenizi deepfake’lerin kaçınılmaz yükselişine hazırlamanın başka yolları da var.

Başlangıç ​​olarak, ‘görmek inanmaktır’, canlı yayınlar da dahil olmak üzere video izlemek veya ses dinlemek söz konusu olduğunda, giderek daha fazla kaçınmak isteyeceğiniz bir kavramdır. Eğitimsiz gözler için derin sahtekarlıkları gerçek şeyden ayırt etmek giderek zorlaşıyor, ancak AI algoritmalarının temel çalışma biçiminden kaynaklanan bazı işaretler var ve muhtemelen her zaman olacak. Deepfake algoritması yeni yüzler oluşturduğunda, döndürme, yeniden boyutlandırma ve diğer bozulmalarla geometrik olarak dönüştürülürler. Bu, kaçınılmaz olarak arkasında bazı grafiksel eserler bırakan bir süreçtir.

Bu eserlerin tek başına görerek tespit edilmesi zorlaşacak olsa da, AI’nın kendisi de iyilik için bir güç olarak kullanılabilir. Deepfake karşı savunma bilimi bir irade savaşıdır: Deepfake’lerin inandırıcılığı arttıkça, siber güvenlik profesyonellerinin gerçeği aramaya daha fazla yatırım yapması gerekir.

Çin’deki bir araştırma ekibi yakın zamanda deepfake’leri gerçek zamanlı olarak ortaya çıkarmak için yapay zekanın kendisinin kullanılmasına yönelik bir yöntem yayınladı. Aynı ekip tarafından yayınlanan başka bir makale, insan gözüyle görülemeyen dijital gürültü ekleyerek dijital fotoğrafları ve videoları deepfake algoritmalar tarafından kötüye kullanılmaktan proaktif olarak korumanın bir yolunu buldu. Deepfake tehdidi daha da yaklaştıkça, umarız daha fazla karşı önlemin de aynı şeyi yapmasını bekleyebiliriz.

Bu makale yazarın kişisel görüşünü temsil etmektedir.

Total
0
Shares
Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Previous Article
Resim: The New York Times

Blockchain Teknolojisiyle Yanlış Bilgiyle Mücadele Edebilir miyiz?

Next Article

Deepfake Videolarıyla Mücadele Etmek İçin Blockchain Nasıl Kullanılır?

Total
0
Share