Irkçılık, cinsiyetçilik ve ön yargı, insanlık tarihindeki en utanç verici olayların temelinde yatan kavramlar olmuştur. Son çeyrek asırda teknolojinin gelişmesine paralel olarak sosyal medya platformlarınn yarattığı özgür ifade atmosferi, ayrımcılığa uğrayan, aşağılanan ve baskılanan birçok kesimden insanın sorunlarını dile getirmesine olanak verdi. Son dönemde Amerika’da yaşanan protestolar ve Black Lives Matter hareketi sosyal medyanın gücünü önemli ölçüde gösteriyor. Bu hareket yalnızca polis şiddetini değil, hayatın her alanında siyahilere yönelik ayrımcılığın vurgulanmasını amaçlıyor.

Örneğin, daha önce ırkçı insan yargılarının robotlara kadar uzandığını gösteren bu yazımızda bahsettiğimiz gibi ırkçılık ve ön yargı yapay zekâya da öğretiliyor. Siyahi insanların suça meyilli olarak nitelendirilmesi, toplumun önemli bir kesimini açık hedef haline getiriyor. Microsoft ve IBM’in de yapay zekâlarının sınıfta kaldığını aktardığımız bu yazımız ise, 2018 yılından, teknoloji devi iki şirketin yapay zekâ uygulamalarındaki ırkçılık ve cinsiyetçilik unsurlarını gözler önüne seriyor. Yazıda dikkat çeken noktalardan biri, Google Translate üzerinde çevirilerde öznelerin ve nesnelerin cinsiyet etiketleri olan dillerdeki davranışı. Toplumda cinsiyet normlarına atanan meslek ve görevlere bakış son yıllarda değiştikçe, Google Translate de çevirilerde kadın ve erkek özneler için alternatif cümleler sunmaya b[tooltip tip=”Editör notu: Burada, bu çevirileri sunan tarafın Google Translate değil, Google Translate yapay zekâsına ön yargıyı aşılayan bizler (halk) olduğunu vurgulamakta fayda var.”]başladı.[/tooltip]

2018 yılında Google Çeviri örnekleri

Çağımızda olumsuz statükonun değişmesi için, dezavantajlı grupların ve uğradığı ayrımcılıktan rahatsızlık duyan insanların tepki göstermesi, bunu sosyal medya aracılığıyla kitlesel bir harekete dönüştürüp yetkili makamlara değişiklik için çağrıda bulunması gerekiyor. Yetkili makam devlet kurumları, şirketler ve hatta akademiler olabilir. Son kısım şaşırtıcı gelebilir ancak özellikle teknolojik gelişmelerin kaynağında yer alan bilimsel ve akademik çalışmaların merkezi üniversitelerde ırkçı akademik çalışmalarla suçlanabiliyor.

Amerika’da Harrisburg Üniversitesi, iki akademisyen ve bir doktora öğrencisinin yayınladığı makale nedeniyle son günlerde eleştirilerin odağı haline geldi. Araştırmacılar ortaya koydukları model ile yalnızca bir fotoğraf üzerinden, bir insanın suça meyilli olup olmadığını %80 doğruluk oranıyla tahmin edilebildiğini iddia ediyor. Ayrıca kullanılan verilerin tamamen nesnel olduğu ve hiçbir ön yargı unsurunun bulunmadığını, bu nedenle yüksek doğruluk yüzdesine sahip bu modelin hukuki yaptırım süreçlerinde yazılımsal bir kaynak olarak kullanılabileceğini ifade ediyor.

Bu makalenin yayınlanmasının ardından, 1700 akademisyen, makalenin yayından kaldırılması için bir açık mektup imzaladı. Etnik grupların, dezavantajlı kesimlerin açık bir şekilde ön yargılı ve ırkçı yaklaşımlara maruz bırakıldığını savunan akademisyenlerden biri olan Cambridge Üniversitesi‘den Krittika D’Silva, özellikle bir fotoğrafı temel alarak bir insanın suç işleme ihtimalini değerlendirmenin akıl almaz bir sorumsuzluk olmasına dikkat çekiyor.

Benzer bir amaçla ortaya atılan bir başka model, 2016 yılında Shanghai Jiao Tong Üniversitesi tarafından yayınlandı. Yine tamamen ön yargısız bir şekilde, fotoğraftaki kişilerin suçlu olup olmadığını tahmin eden model, kısa süre içinde Google ve Princeton Üniversitesi‘ndeki araştırmacılar tarafından çürütüldü. Oldukça trajikomik bir karar mekanizmasına sahip olduğu anlaşılan modelde, fotoğraflarda yakalı gömlek giyen kişilerin suçlu olmayan, tişört veya koyu renk giysiler giyenlerin ise suçlu olarak işaretlendiği anlaşıldı. Bir makine öğrenmesi algoritması, girdi olarak verilen içerikte bulduğu ayırt edici farkların aslında ne olduğuyla ilgili bir yargıda bulunamadığı için beyaz gömlek giymeyi suçsuz olmakla eşdeğer kılmış.

Bugüne dek ötekileştirilmiş ve sosyal hayattan uzaklaştırılmış etnik gruplar, kadınlar ve LGBTQI+ bireylerin özgür bir hayat yaşayabilmesi, eşit şekilde eğitim ve sağlık hizmetlerinden faydalanabilmesi için sayısız çalışma yürütülüyor. Yasalarla korunan temel hakların pratikte bir karşılığı olmadığı zaman ise bu köhne anlayışı kırmak imkansız. Eğitimsizlik ve yoksulluk çerçevesinde kuşaklar boyu dezavantajlı grupların bir kısır döngüye mahkum edildiğini unutmamak gerekli. ABD’nin ilk siyahi başkanı Barack Obama ve eşi Michelle Obama gibi siyasi figürlerin yanında sanat, spor ve kültür dünyasından birçok isim, siyahilerin eğitim ve bilinç ile bu ön yargı zincirini kırmasına yönelik çalışmalarda önemli rol model görevi üstleniyor.

Bu kısır döngünün yarattığı veriler ışığında oluşturulan herhangi bir algoritmanın, yanlı ve ön yargılı olmama ihtimali yok. Ayrıca, insan psikolojisini ve davranışını, sosyo-kültürel arka planı hiçe sayarak tek bir fotoğraf üzerinden bir insanın hayatı üzerinde bu derece ciddi bir suçlamada bulunmak, kabul edilebilir bir bilimsel çalışmadan oldukça uzak duruyor.

[button color=”red” size=”big” alignment=”center” rel=”follow” openin=”newwindow” url=”https://www.gelecekburada.net/cinde-uygur-turklerini-tespit-eden-kamera-satisa-sundular/”]Çin’de Uygur Türklerini Tespit Eden Kamera Satışa Sundular[/button]

Kaynak: BBC ve OneZero

Share:

administrator

Boğaziçi Üniversitesi Endüstri Mühendisliği mezunu Öykü, gastronomiye ve mutfak sanatlarına meraklı, ekonomi ve politikaya ilgili ve aynı zamanda veri çağında geleceğin nerede olduğunu araştırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir