İnternetin hayatımızda önemli bir yer tuttuğu bugünlerde, ebeveynlerin aklındaki en önemli konu çocuklarının internet ortamındaki güvenliğidir. Bu güvenlik problemlerinden en büyüğü de kendi yaşıtlarıyla arkadaşlık kurmak amacıyla girdikleri sohbet odalarında veya şahsi sosyal medya hesaplarında onlara ulaşabilecek pedofili insanlar. Pedofili bireyler, çoğu zaman çocuklara direkt olarak cinsel saldırı şeklinde yaklaşmazlar. “Child grooming” olarak adlandırılan bu süreçte pedofili birey önce karşısındaki çocukla arkadaş olur, güvenini kazanır ve daha sonra kazandığı güveni kullanarak harekete geçer.

Microsoft internette pedofilileri tanıyacak bir yapay zeka geliştirdi

Microsoft pedofili işaretlerini önceden görmek ve çocuklara yönelik yapılan bu saldırıların önüne geçmek için bir araç geliştirdi. 2018 Kasım’ında çok ayaklı bir çalışmanın parçası olarak başlatılan Artemis Projesi‘nde metin tabanlı sohbetler analiz edilip “child grooming”e dair işaretler derecelendiriliyor. Bu derecelendirme, sistem tarafından konuşma tarzına ve kullanılan kalıplara göre yapılıyor. Şirketler hangi derecenin alarm niteliği olması gerektiğine kendileri karar veriyorlar, mesela X şirketine göre 10 üzerinden 7 ve fazlasını alan bir kullanıcının niyeti pek de iyi olmayabilir. Tehlike arz edebileceği tespit edilen konuşmalar bir moderatöre iletiliyor ve bu kişi şirketin yetkili kişilere başvurup başvurmaması konusunda karar veriyor. Konuşmalarda tehlikeli olarak görülecek kalıp ve kelimelere dair ise açıklama yapılmadı, bunun sebebi de pedofililerin bu kalıplardan kaçınarak kendilerini gizlemelerine engel olmak. Bu proje sayesinde çevrimiçi platformlarda çocuklara yönelik cinsel sömürünün önüne geçilebileceğini umut ediyoruz. Aynı zamanda uzmanlara da pedofililerin çevrimiçi platformlarda çocuklara yaklaşımlarını çözmek konusunda daha fazla bilgi sağlayacaktır.

Google da benzer bir araç geliştirmişti

[button color=”red” size=”normal” alignment=”center” rel=”follow” openin=”newwindow” url=”https://www.gelecekburada.net/googledan-cevrimici-cocuk-istismarini-tespit-eden-api/”]Google’dan Çevrimiçi Çocuk İstismarını Tespit Eden API[/button]

 

Microsoft tarafından yayınlanan bu blog yazısına göre; Şirket bu projeyi birkaç yıl önce Xbox ve Skype platformlarında child grooming’i önlemek amacıyla kullandığı patentli bir teknoloji üzerinden geliştirdi. Ayrıca aynı yazıda, şirketlerin bu araca kâr amacı gütmeyen ve çocukları cinsel istismardan korumak üzerine teknoloji ürünleri geliştiren Thorn üzerinden ücretsiz erişim sağlayabileceği de belirtiliyor.

Bu tarz sistemler ve algoritmalar hala konuşma dilinin anlamını ve bağlamını ayırt etmekte çok iyi olmadıkları için sistemin pek çok hatalı atış yapması da ihtimaller dahilinde. Yani şirketlerin bu araçla beraber çalıştırılacak moderatörlere veya diğer araçlara yatırım yaparken gerçekten kararlı olması gerekiyor. Ayrıca sistem mesajların şifrelenmediğini ve kullanıcıların özel konuşmalarının okunabilmesine izin verildiğini varsayarak çalışıyor. Yani belki şirketler bu riskleri (kişisel gizlilik ihlaline dair sorunları) göz önünde bulundurarak projeye gereken önemi vermeyebilir, fakat tek bir şirket bile önemser ve kullanmaya başlarsa en azından birkaç çocuğun cinsel istismara uğramasının önlenme ihtimali var. Ve bu tek başına 14-15 aylık bir çabayı değerli kılmaya yeter de artar bile.

Ülkemizdeki rakamlara bakılırsa; böyle bir aracın Türkiye’ye de gelmesine ihtiyacımız var:

[button color=”red” size=”normal” alignment=”center” rel=”follow” openin=”newwindow” url=”https://www.gelecekburada.net/turkiyenin-cocuk-gelin-ve-cocuk-pornosu-konusundaki-rakamlari/”]Türkiye’nin Çocuk Gelin ve Çocuk Pornosu Konusundaki Rakamları[/button]

Kaynak: Futurism

Share:

administrator

Yıldız Teknik Üniversitesi Kontrol ve Otomasyon Mühendisliği 4. sınıf öğrencisi olan Kardelen, yeni filmler ve müzikler keşfetmenin yanında teknolojik yenilikleri takip etmekten büyük keyif alıyor ve kendisine ilginç gelen şeyleri Gelecek Burada için yazıyor çiziyor, hatta bizzat Gelecek Burada'nın podcast yayınlarını yürütüyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir