Sosyal medya ağının genişlemesiyle birlikte doğan birçok yalan, yanlış, manipülatif bilgi ve çıplaklık, şiddet içeren paylaşımlar gelen şikayetler üzerine moderatörler tarafından kontrol ediliyor ve gerek görülmesi durumunda kaldırılıyor. Son yıllarda bu konuda ciddi bir katkı sağlayan yapay zeka da şikayete gerek kalmadan topluluk kurallarını ihlal eden içerikleri yakalayıp moderatörleri uyarabiliyor. Ancak hem yapay zeka, hem de Facebook kullanıcıları geçtiğimiz ay Yeni Zelanda’da yaşanan cami saldırısı konusunda sınıfta kaldı ve saldırganın açtığı canlı yayın 29 dakika boyunca hiçbir şekilde şikayet (rapor) edilmemişti.

Facebook Ürün Yönetimi departmanının başkan yardımcısı Guy Rosen tarafından paylaşılan bilgilere göre:

  • Canlı yayın 200 kezden az görüntülendi.
  • Canlı yayın sırasında hiç kimse videoyu bildirmedi.
  • Video, Facebook’tan kaldırılmadan önce yaklaşık 4000 kez görüntülendi.
  • Facebook’a herhangi bir şikayet gelmeden önce bir kullanıcı videonun linkini 8chan isimli platformda paylaştı.
  • Videoya dair ilk kullanıcı bildirisi canlı yayının başlamasından 29, bitmesinden 12 dakika sonra geldi.
  • İlk 24 saatte videonun kopyası 1.2 milyondan fazla kez Facebook’a yüklendi ve Facebook tarafından anında silindi. Yaklaşık 300 bin kopya ise paylaşıldıktan sonra silindi.

 

Facebook bu tarz bir açıklama yapmış olsa da saldırının yaşandığı sırada videoyu tespit edip kaldıramamış olmasının en büyük sorumlusu olarak gösterilmekten kurtulamıyor. Zira, bugün gelişmekte olan yapay zekanın bu tarz işlerde oldukça iyi olduğuna dair bir kanı var. Motherboard da Amazon’un Rekognition servisini kullanarak yapay zekanın bu videoyu nasıl algıladığını görmek istemiş.

Katliamı gerçekleştiren teröristin camilerden birine gitmekte olduğu görüntülerini örnek alan Motherboard, yapay zekanın sahnedeki silahları %90’ın üzerinde güven oranıyla tespit ettiğini gözlemlemiş.

Teröristin yan koltuğunda duran pompalı tüfek %90.8 oranla “silah” – “tüfek”  ve “cephane” olarak etiketlendi. Yapay zeka, saldırgan aracı terk ederken elindeki tüfeği ise %94.9 oranla, aynı etiketler ile tanımladı.

Bu noktada Motherboard, kendilerinin canlı yayın değil de arşiv görüntülerini kullandığını yani aslında Facebook’un yapay zekasının işinin biraz daha zor olarak görülmesinin normal olduğunu söylüyor. Aynı zamanda aradan geçen bu sürede Rekognition servisi geliştirilmiş olabilir veya yapay zeka bu görüntüleri öğrenmiş olabilir diyor ancak her halükarda silahların yapay zeka tarafından tespit edilmesi gerektiğini de hatırlatıyor.

Öte yandan, Motherboard’ın bu çalışması, ucuz sistemlerin bile silahları tanımlamada başarılı olduğunu göstermiş olsa da yapay zekanın sorun yaşadığı bir nokta var. Motherboard, Rekognition sistemini saldırıya ait görüntülerle beslerken bir sahnenin %50 oranla Call of Duty olarak etiketlendiğini fark etti. Yani, yapay zeka terörizm görüntülerini bir oyun ile karıştırdı. Silahların tren gibi alakasız nesneler ile karıştırıldığı bazı örnekler de var. Bir günde binlerce, oyun videosunun paylaşıldığı Facebook’ta bu karışıklığın yaşanmasına da hak verilebilir belki.

Christchurch Attack olarak da bilinen cami katliamı ve o gün videonun tüm internette kolayca yayılması hâlâ birçok tartışmaya konu oluyor.

Share:

administrator

1997’de Nevşehir-Ortahisar’da doğdu. Marmara Üniversitesi’nde Basım Teknolojileri eğitimi görüyor. Gazeteciliğe ve doğru bilgi alma hakkına inanan Hasan, bir Onaran olarak sosyal inisiyatifin ve eğitimin gücüne inanıyor, geleceğin nerede olduğunu araştırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir