Son aylarda çok sık denk gelmeye başladığımız deepfake uygulamaları bizi iki farklı konuda endişelenmeye itiyor. Birincisi kişisel verilerimizin korunması, ikincisi ise yapay zekâ sayesinde sahte görüntülerin bu kadar kolay oluşturulabiliyor olması. Bu iki endişe, yakın gelecekte bolca konuşacağımız konuların başında geliyor.

Geçtiğimiz hafta sadece Çin Appstore’da markete giren Zao isimli bir uygulama kullanıcıların yüklediği tek bir fotoğrafı kullanarak videoları manipüle edebilmesiyle gündeme oturdu. Sadece bir gün içinde en çok indirilen uygulamalarda birinci sıraya yerleşen Zao isimli uygulamaya fotoğrafını yükleyen bir kişi kendisini Game of Thrones dizisinde bir sahnede veya DiCaprio’nun vücudunda bulabiliyordu. Başta herkesin hoşuna giden bu uygulamanın kullanıcı sözleşmesinde bulunan, kullanıcıların fikri mülkiyet hakkını şirkete teslim etmesi ve pazarlama amacıyla kullanılmasına izin verdiğini gösteren maddenin fark edilmesiyle birlikte ibre tersine döndü.

Zao, yaptığı açıklamada kullanıcıların kişisel gizliliğine önem verdiklerini ve kullanıcı sözleşmesini güncellediklerini söyledi ve veri tabanlarında biyometrik verileri tutmayacaklarını, hesabını silen kullanıcıların verilerini ortadan kaldıracaklarını söyledi. Benzer konularla yıllardır gündeme gelen ve hep benzer açıklamalar ile çözüm sunan Google, Facebook gibi şirketler aklımıza gelmiş olsa da şu an için Zao’nun açıklamasına güvenip yolumuza devam edelim; diğer bir sorun ise sahte görüntülerin potansiyel tehlikeleri.

Sahte dans videosu, kullanıcıların kendisini veya başkalarını pornografik bir videoya yerleştirebilmesi gibi ürünlerle karşımıza çıkan deepfake henüz bu hafta 243 bin dolarlık bir dolandırılma hikayesi ile dünya gündemine gelmiş, bugüne kadar yazdığımız tüm evham içeriklerini haklı çıkarmıştı. Bir bilgisayarın, hiçbir teknik bilgiye sahip olmayan kullanıcıların sahte ses, video veya fotoğraf üretebilmesini sağlaması bir yandan yaratıcı olmasına rağmen oldukça korkutucu ve ciddi anlamda suistimal edilebilir bir alan yaratıyor.

Geleceğimiz hem biyometrik verilerimizi korumak hem de bizim görüntülerimizin, gerçek olmayan bağlamlarda kullanılıp kullanılmadığını takip etmek ile geçecek gibi duruyor.

Bu da ilginizi çekebilir:

[button color=”red” size=”normal” alignment=”center” rel=”follow” openin=”newwindow” url=”https://www.gelecekburada.net/kadinlarin-porno-videolarini-buldugunu-iddia-eden-yapay-zeka/”]Kadınların Porno Videolarını Bulduğunu İddia Eden Yapay Zeka[/button]

Kaynak: CNN

Share:

administrator

1997’de Nevşehir-Ortahisar’da doğdu. Marmara Üniversitesi’nde Basım Teknolojileri eğitimi görüyor. Gazeteciliğe ve doğru bilgi alma hakkına inanan Hasan, bir Onaran olarak sosyal inisiyatifin ve eğitimin gücüne inanıyor, geleceğin nerede olduğunu araştırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir