Siber zorbalık; karşıdaki kişinin nasıl bir durumda, nasıl bir ruh halinde olduğunu bilmeden; aile yapısını, hayatının gidişatını, düşüncelerini, hayal kırıklıklarını ve hala sağ kalabilmiş hayallerini tamamen göz ardı ederek kırıcı cümleler kurabilmek; rencide etmek veya istismarda bulunmaktır. Bugün bunları bilinçli veya bilinçsiz bir şekilde yapıyor olmamız mümkün. Sadece tanımadığımız insanlar değil, tanıdığımız insanların bile o an ne durumda olduğunu kestiremeyip çevrimiçi ortamlarda kırıcı davranabiliyoruz.

Yapay zekanın çok daha fazla gelişmesiyle birlikte bu tarz sorunları çözebileceğimizi düşünüyorum ancak bugünkü şartlarla çözülmüş, biraz daha az bir öneme sahip olsa da kelebek etkisi yaratabilecek bir sorunumuz daha var: Futurism editörünün de vurguladığı gibi gazetecilerin asla yorumları okumamasının önerilmesi.

Tim Coggin / Alamy Stock Photo

Daha önce bazı spor sayfalarında yöneticilik yapmış birisi olarak; oraya gelen yorumların ne kadar ‘anlık’ duygu ve düşüncelerle yazıldığının; birçoğunun kırıcı olmakla birlikte utanç verici bir hal bile alabildiğinin farkındayım. Bu yorumların yöneticilere ve gazetecilere etkisiyle birlikte ekosistemde (spor sayfası örneğinde: rakip taraftarlara olabilir mesela) de yavaş yavaş büyüyecek bir problem oluşturduğunu fazlaca görme fırsatımız oldu. Belki utanç verici yorumları engellemek şu an için ütopya olarak nitelendirilebilir ancak küfürlü ve kavgacı içeriklerin önlenmesi için birçok çalışma bulunuyor. Bunlardan birisi de IBM mühendisleri tarafından geliştirilen; küfürlü ve kırıcı içerikleri filtlreleyerek daha olumlu alternatifler tavsiye eden bir algoritma (PDF).

Bu sistemi oluşturabilmek için yaklaşık 10 milyon tweet ve Reddit gönderisi toplayan ekip; hem olumsuz içerikleri hem de olumlu içerikleri etiketleyen ekip, sonuç olarak önce metnin ofansif, yani kırıcı -argo- bir içeriğe sahip olup olmadığını tespit eden ve eğer kırıcı ise o cümleyi daha az kırıcı hale getirmeye çalışan bir yapay zeka geliştirmeyi başarmış.

Aşağıdaki görselde görüldüğü gibi; Algoritma, ofansif kelimeler içeren cümleyi çok daha az ofansif olan bir cümleye çevirebiliyor. Hazırlanan tablodaki Shen et al ile yapılan karşılaştırma da bu işin zorluğu konusunda kafamızda bir fikir oluşmasını sağlayabilir.Girilen cümleyi hemen farklı bir cümleye çevirmek yerine öneri şeklinde sunan algoritma; yazdığınız şey üzerine bir kez daha düşünmenizi ve “bak bunu bu şekilde de ifade edebilirsin” gibi bir farkındalığa sahip olmamızı hedefliyor.

Yapay zekada şu an kullanılan makine öğrenimi ve derin öğrenme gibi algoritmaların beslendikçe güçlendiğini düşünürsek, bu tarz bir uygulamanın zamanla çok daha stabil bir hale geleceğini öngörmek mümkün duruyor. Ancak bunun İngilizce kaynaklı olması ve henüz Türkiye’de, Türkçe bir alternatif için adımların atılmamış olması da bizim için üzücü bir durum.

Zira; hem mail alışverişlerinde, hem sosyal media kullanımında hem de özel mesajlarda bu tarz ‘üslup önerici’ sistemlerin olması; birçok iletişime dayalı sorunumuzun ortadan kalkması anlamına geliyor. Bir de yakın gelecekte yapay zekalı asistanlarımızın bizim yerimize insanlarla iletişime geçeceğini, hatta bizim yerimize flört bile edebileceğini düşünürsek; bizim nasıl konuştuğumuzu anlayıp, nasıl konuşmamız gerektiğini önermesi ve sonrasında da yeni tarzımızı benimsemesiyle birlikte artık asistanımızın bizim kimliğimiz haline gelecek olması hem korkutucu, hem heyecan verici hem de tetikleyici. Türkçe veri setlerinin oluşturulması konusunda harekete geçmiş olan veya geçmeyi düşünen yazılımcı arkadaşlarımız varsa, bizimle iletişime geçerse hem Türk vatandaşı olarak hem de gazeteci ahlakımızla iletişimde olmak isteriz.

Kaynak: Futurism

Share:

administrator

1997’de Nevşehir-Ortahisar’da doğdu. Marmara Üniversitesi’nde Basım Teknolojileri eğitimi görüyor. Gazeteciliğe ve doğru bilgi alma hakkına inanan Hasan, bir Onaran olarak sosyal inisiyatifin ve eğitimin gücüne inanıyor, geleceğin nerede olduğunu araştırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir