Makine öğrenimi ve derin öğrenme gibi algoritmalarla birlikte yeni sensör teknolojileri ve internetin veritabanı gücünü de kulllanarak her geçen gün daha iyiye giden yapay zekanın bizi yöneteceğini düşünüp karalar bağlıyoruz. Ancak çok daha yakın gelecekte; çok daha gerçekçi olan bazı sorunlarla savaşmamız gerekecek gibi duruyor. Sahte seks kasetleri, manipüle edilmiş demeçler ve telif hakkını ihlal eden her türlü görsel içerik.

Aklınızdan geçenleri başkasına söyletmek gibi bir süper gücünüz olsaydı?

Bu yukarıdaki ‘ürpertici’ cümleyi birkaç ay önce; Obama’nın hiç söylemediği sözleri dudağından izlediğimiz ve kendi sesiyle duyduğumuz videoyu sizinle paylaşırken kurmuştuk. Ancak bugün çok daha ciddi bir vaka ile karşı karşıyayız gibi duruyor.

“Aklınızdan geçenleri izlemek ve izletmek gibi bir süper gücünüz olsaydı?”

Aralık ayında Motherboard’ın radarına giren ve Reddit’te binlerce insanı hipnotize eden bir uygulama geliştiren deepfakes isimli bir kullanıcı porno videolara farklı ünlü isimlerin yüzlerini yerleştirerek sahte videolar oluşturmayı başarmıştı. Makine öğrenimi kullanarak “görmeden inanmam” deyiminin sonunu getiren bu algoritma o günlerde bizim için sadece ‘gelecekte başımız belada’ hissiyatı yaratsa da takip eden günlerdeki gelişmelerle birlikte bugün daha sürpriz sonuçlar doğurmuş gibi duruyor.

Çünkü; Bitcoin/Blockchain gibi yıkıcı bir teknolojinin de Reddit’ten doğduğunu göz önünde bulundurursak; böyle ‘güzel’ ve böyle ‘basit’ bir uygulamanın öylece orada kalacağını beklemek biraz ‘iyimserlik’ olurdu. Beklenildiği gibi de oldu; insanlar öğrendi, paylaştı, öğretti ve daha da geliştirdi. Yaklaşık 2 aylık bu süreçte 15 bin kişinin takip ettiği ve yüzlerce farklı insanın bilgisayarına indirerek kendi sahte pornolarını oluşturmayı denediği bir ‘akım’ haline geldi.

Biraz olayın teknik altyapısına bakalım:

deepfakes rumuzlu geliştirici; makine öğrenimi prensibine dayanan yazılımı geliştirirken Keras ve TensorFlow gibi açık kütüphanelerden yararlanmış ve derin öğrenme prensibi de sağ olsun; Google görseller, YouTube ve diğer stock görsel sitelerinden aldığı Gal Gadot görüntüleriyle sistemi beslemiş ve sonrasında herhangi birisinin fotoğrafı eklendiğinde aynı şekilde davranacak şekilde eğitmiş.

Bundan birkaç hafta sonra ise DeepFakeApp isimli bir kullanıcı ortaya çıkarak ‘deepfakes’in geliştirdiği algoritmanın insanların kullanabileceği bir versiyonunu (FakeApp) geliştirdiğini söylemiş ve ücretsiz olarak paylaşmış. İşte burdan sonrası insanların bir makine öğrenimi uygulamasını (Yaklaşık 2,5 GB) indirdiği ve istedikleri kişilerin fotoğrafını yükleyerek istedikleri videoya dakikalar içerisinde entegre edebildiği bir akıma dönüşmüş. Bilgisayar yazılımları konusunda bilgisi olmayan birçok kişinin bile paylaşımcılık ve yardımlaşma sayesinde kullanabildiği uygulamada bazı insanlar başarılı sonuç elde ederken bazıları korkutucu çıktılar almışlar. Konuyu anlamlandırabilmek için gezinirken Sophie Turner, Maisie Williams, Scarlett Johansson, Katty Perry, Taylor Swift, Carey Mulligan gibi birçok farklı tanıdık isme denk geldim.

Öyle veya böyle; bu tarz teknolojilerin yakın gelecekte hangi içeriğin doğru hangi içeriğin yanlış olduğu konusunda ciddi sıkıntılar yaşayacağımızı gösterdiğinin farkına varmamız gerekiyor. “Tüm teknolojiler kötü motivasyonla kullanılabilir ve bunları durdurmak mümkün” gibi görüşlerle birlikte “Viral videolar ve ünlü camiası zaten tamamen eğlence odaklı. Ancak bu daha pornografik, daha mizahi, daha goygoysu ve hatta daha gerçek dışı bir hal alacaktır” gibi yorumlar da mevcut.

Tabii ki bu uygulama sadece pornolarda kullanılmak zorunda değil ve kullanılmayacaktır da. Bunca insan +18 videolar üzerinde deneme yaparken bir kullanıcı da Arjantin başbakanı ile Hitler üzerinde bir deneme yapmış. Yani birkaç ay sonra iki futbolcunun birbiriyle kavga ettiği bir video veya para alışverişi yaptığı bir videoya da denk gelebiliriz ve şu an için yapılan bu manipülasyonlar gözle görülebilir durumdayken birkaç ay sonra bunları fark edebilecek durumda olamayabiliriz.

Bu konularda sahtekarlıkların önlenmesi için çeşitli yöntemler kullanılacaktır. Mesela; videonun veya fotoğrafın gerçek olup olmadığını tarayan bir yapay zeka geliştirilebilir. Nitekim Google yanlış kaynak taraması konusunda ciddi çalışmalar yapıyor.

Bunca evhamın arasında bir de olumlu taraftan bakmak istiyorum. Bu tarz bir yüz değiştirme (Face-swap) teknolojisi gelecekte film çekimleri konusunda farklı deneyimlere sahip olmamızı sağlayacaktır. CGI teknolojilerinin ne kadar ilerleyeceğini kestiremiyoruz ancak fazla ilerlemediğini varsayarak yorum yapacak olursak; dublör ile çekilen sahnelerde fazlaca zaman ve enerji kaybı sağlanıyor. Ancak bu algoritmalar sayesinde herhangi bir dublör ile çekilen görüntü tek bir tuşla saatler içerisinde gerçek karakterin yüzü ile örtülebilir. Bu hem sevilen bir oyuncunun aynı anda farklı dizi ve filmlerde ‘oynamasını’ sağlar hem de sene içerisinde çok daha fazla film izleyebilmemizi sağlar. Zira; bu Star Wars sahnesinde FakeApp ile oluşturulan versiyon ve orijinal versiyon arasındaki fark ayırt edilemez durumda.

Kendi videosunu yapmak isteyenler Tutorial’a buradan ulaşabilir. (ENG)

Daha önce yapılan sahte videolara ve sohbetlere göz atmak isteyenler ise bu bağlantıyı ziyaret edebilir.

Kaynak: Motherboard

Share:

administrator

1997’de Nevşehir-Ortahisar’da doğdu. Marmara Üniversitesi’nde Basım Teknolojileri eğitimi görüyor. Gazeteciliğe ve doğru bilgi alma hakkına inanan Hasan, bir Onaran olarak sosyal inisiyatifin ve eğitimin gücüne inanıyor, geleceğin nerede olduğunu araştırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir