Geçtiğimiz hafta; bilgisayarlı görme sistemlerini kandıran, makine öğrenimi algoritmalarını manipüle eden adversarial machine learning kavramından bahsetmiştik. Her ne kadar şu ana kadar farklı girişimler ve farklı araştırmacılar tarafından çeşitli alternatifler üretilmiş olsa da tüm datasetlere hitap eden tek bir adversarial (düşman) algoritma henüz bulunmuyor.
Belçika’da bulunan KU Leuven Üniversitesi’nden araştırmacıların projesi, YoLo(v2) isimli açık kaynaklı nesne tanımlama algoritması özelinde, yapay zekanın sadece bir görsel ile kandırılabileceğini gösteriyor.
Videoda görüldüğü gibi, kamera karşısında duran iki insandan biri insan olarak etiketlenirken diğeri, önünde duran görselden dolayı yapay zeka tarafından tanımlanamaz hale geliyor. Bu tarz, sadece tek bir projeye hitap eden çözümleri biraz ‘gereksiz’ veya ‘fantezi’ olarak algılayabilirsiniz ancak bu sorunun yapay zeka çalışmalarında oldukça ünlü ve gündemi meşgul eden bir konu olduğu gerçeği de su götürmez. Çünkü adversarial algoritmalar bir yandan yakın gelecekte kameralar tarafından ‘gasp edilecek’ kişisel gizliliğimizi tekrar kontrol altına alma vaadi sunarken diğer yandan otonom araçların manipüle edilmesi sonucunda kaza yaşanmasına da yol açabilecek bir potansiyele sahip.
YoLo’nun nasıl kurulabileceğine dair bilgiye buradan, adversarial YoLo ismi verilen bu ‘kötü niyetli’ versiyonun Github sayfasına ise buradan erişebilirsiniz.
Kaynak: The Verge – Technology Review