Her gün birçok alanda dönüşüme şahit olsak da ırkçılık çağımızın en büyük ve en dinamik sorunlarından biri olmaya devam ediyor. Yaşanan teknolojik gelişmeler ile yeni bir çağın kapılarını aralamaya başlayan insanlık kendini hâlâ birbirini deri rengi ile ayrıştırmaktan alıkoyamıyor.

Geçtiğimiz aylarda George Floyd’un Amerikan polisi tarafından canice katledilmesi sonucu Amerika’da başlayan ve tüm dünyaya yayılan “Black Lives Matter” protestoları günümüzde de ırkçılığın ne denli büyük bir tehdit olduğunu bir kez daha gözler önüne sermiş oldu.

Şiddete ve ırkçılığa karşı başlatılan sivil toplum hareketi: Black Lives Matter
Şiddete ve ırkçılığa karşı başlatılan sivil toplum hareketi: Black Lives Matter

Bireysel ırkçılıktan daha tehlikeli olanın kasıtlı olarak belirli azınlık gruplarına karşı haksızlık yapan ve ırkçı davranışlarda bulunan bireyleri koruma altına alan sistematik ırkçılık olduğunu söyleyebiliriz. Geçmişte birçok kez karşımıza çıkan bu sistematik ırkçılık bu kez de Twitter’ın görüntüleri kırpmak için kullandığı bir algoritmada kendini gösteriyor.

Twitter’ın Irkçılıkla Suçlanan Algoritması

Twitter, ana sayfada görsellerin çok fazla yer kaplamasını önlemek ve aynı tweet’te birden fazla resmin gösterilmesine izin vermek için görüntüleri otomatik olarak kırpıyor. Şirket, resmin en önemli kısımlarına odaklanmak için çeşitli algoritmik araçlar kullanıyor ve yüzlerin veya metnin paylaşılan görüntünün kırpılmış, yani öne çıkarılan kısmında kalmasını sağlamaya çalışıyor. Geçtiğimiz günlerde Twitter kullanıcıları, resim kırpmak için kullanılan bu algoritmanın bazen beyaz renkli yüzleri siyah renkli yüzlere tercih ettiğini keşfetti.

Irkçılıkla suçlanan algoritma, aynı gönderide bulunan resimlerden beyaz yüz bulunanı siyah yüz bulunan fotoğrafa tercih ediyor ve kullanıcılara sadece beyaz yüzün olduğu fotoğrafı gösteriyor. Bu gelişmenin ardından algoritmanın kullanılmaya başlanmadan ırk ve cinsiyet konusunda ön yargısı olup olmadığının test edildiğine dair açıklama yapan Twitter, konu ile ilgili araştırmanın başlatıldığını ve her türlü ırkçılığa karşı olduklarını kamuoyuna duyurdu. Twitter kullanıcıların ortaya çıkardığı bu ırkçılık ile yapılan test ve analizlerin yeterliliği sorgulanmaya başlandı.

"Modelimizi göndermeden önce ilgili analizleri yaptık ancak modelin sürekli iyileştirilmesi gerektiği de apaçık ortada.”
Twitter’ın baş teknoloji sorumlusu Parag Agrawal:”Modelimizi göndermeden önce ilgili analizleri yaptık ancak modelin sürekli iyileştirilmesi gerektiği de apaçık ortada.”

Algoritmanın Irkçılık Yaptığı Nasıl Saptandı?

Irkçı algoritmanın fark edilmesi Vancouverlı üniversite müdürü Colin Madland’ın video konferans uygulaması Zoom‘u kullanırken bir meslektaşının kafasının sanal arka planlı (virtual background) ekranda kaybolması üzerine başladı. Yazılım görünüşe göre siyahi adamın kafasını arka planın bir parçası olarak tanımlayarak ekrandan kaldırdı.

Sanal Arka Plan (Virtual Background) kullanımı esnasında fark edilen ırkçılık algoritması
Sanal Arka Plan (Virtual Background) kullanımı esnasında fark edilen ırkçılık algoritması

Madland konuyla ilgili olarak Twitter’da paylaşımda bulunduğunda ise görüntülerin sırasının ters çevrilmiş olduğunu ve kendi yüzünün olduğu fotoğrafın önizlemede hep ilk sırada geldiğini fark etti. Bunun fark edilmesi üzerine birçok kullanıcı konu ile ilgili deneyler yapmaya başladı. Örneğin, ABD Senatörü Mitch McConnell’in yüzü Twitter algoritması tarafından eski ABD Başkanı Barack Obama’nın yüzüne tercih edilirken takım elbiseli beyaz bir adamın stok fotoğrafı aynı takımdaki siyahi bir adamdan önce geliyor.

.
ABD Senatörü Mitch McConnell’ ve eski ABD Başkanı Barack Obama

Twitter’ın baş tasarım sorumlusu Dantley Davis, Madland’ın sakal, bıyık ve gözlüklerini düzenlemenin sorunu düzelttiğini fark etti.

“Bana yüklenmenin eğlenceli olduğunu düşündüğünüzü biliyorum ama bu konudan herkes kadar rahatsızlık duyuyorum. Ancak, bu sorunu düzeltecek bir konumdayım ve yapacağım da. Bu % 100 bizim hatamız. Kimse aksini söylememeli.”

Dantley Davis

Twitter tarafından 150 milyon dolara satın alınan yapay zekâ şirketi Magic Pony’nin araştırma mühendisliği lideri ve kurucu ortağı Zehan Wang, 2017’de farklı etnik kökenlere ait yüzleri kullanarak algoritma üzerinde yapılan testlerde ” önemli bir ön yargı olmadığı” sonucunun çıktığını açıklamıştı ancak Twitter şimdi bu çalışmayı tekrardan gözden geçirecek. Wang, derinlemesine inceleme yapmaları gerektiğini ve bunun için de zamana ihtiyaçları olduğunu açıkladı.

Bu tür durumlar sadece Twitter ve Google gibi özel firmaların başına gelmiyor. Benzer ırkçılık ve önyargı haberleri ile devlet kurumlarında da karşılaşmak mümkün. Bunlardan biri geçen yılın sonlarında, ABD hükûmeti tarafından yapılan yüz tanıma algoritmalarının siyah ve Asyalı bireylerin yüzlerini tanımlamada beyaz olanlara göre çok daha başarısız olduğunu öne süren bir araştırma olmuştu.

Yine yüz tanıma algoritmalarının ırkçılığı ile ilgili olarak Amerika’da Harrisburg Üniversitesinde iki akademisyen ve bir doktora öğrencisinin yayınladığı makale büyük tepki toplamıştı. Araştırmacılar ortaya koydukları model ile yalnızca bir fotoğraf üzerinden, bir insanın suça meyilli olup olmadığını %80 doğruluk oranıyla tahmin edilebildiğini iddia ediyordu ancak modelin ırkçı ve ön yargılı bir algoritması olduğu siyahi ve latin kökenli insanların fotoğraflarına daha yüksek şuç potensiyeli bulduğu ortaya çıkmasıyla 1700’den fazla akademisyen makalenin kaldırılması için imza atmıştı.

Cambridge Üniversitesi‘den Krittika D’Silva, özellikle bir fotoğrafı temel alarak bir insanın suç işleme ihtimalini değerlendirmenin akıl almaz bir sorumsuzluk olmasına dikkat çekiyor. 2018 yılında siyahi insanları defalarca ırkçı ifadelerle yanlış etiketlediği için Google’ın Fotoğraflar hizmetini herhangi bir şeyi goril, şempanze veya maymun olarak etiketlemesini yasakladığı ortaya çıkmıştı.

Algoritmalar insanların neye önem verdiğini analiz ederek kendisini geliştiriyor. Burada çekilen fotoğrafın öznesinden ziyade fotoğrafın kalitesi ön plana çıkıyor. Oklar her ne kadar siyahileri mağdur edecek bir ırkçılığa dikkat çekse de basit bir kontrast dengesi ile sorunun ırkçılık kaynaklı olmadığı anlaşıldı. Bu yılın Haziran ayında, benzer endişeler IBM’in artık “kitle gözetimi veya ırksal profil oluşturma” için yüz tanıma yazılımı sunmayacağını duyurmasına neden oldu. Bu tür hataların sebebi yazılımlar ya da algoritmalar değil çünkü basit bir şekilde anlatmak gerekirse yazılan kodlar ve algoritmalar insanlığın ortaklaşa oluşturduğu verilerden ve geliştiricilerin hazırladığı veri setlerinden başka kendi iradesi ile hareket edebilecek potansiyele henüz sahip değil. Doğal olarak bir yazılımın kendiliğinden bir ırkçılık veya herhangi bir ön yargısı olması en azından şimdiki teknolojiler kapsamında mümkün gözükmüyor.

Dijital Irkıçılık
Yüz tanıma sistemleri ve dijital ırkçılık

Bu konuda, geçtiğimiz hafta Instagram’da hazırladığımız içeriğe de göz atmanızda fayda var:

 

 

Bu gönderiyi Instagram’da gör

 

gelecekburada.net (@gelecek_burada)’in paylaştığı bir gönderi ()


Yazar: Kemal Berk Önver

Editör: İrem Karaduman

Kaynak: BBC

Share:

administrator

1997 İstanbul doğumlu olan Kemal Berk, İTÜ Ekonomi bölümünde eğitimini sürdürüyor. Estetik açlığını Avrupa Sineması ve Müziği ile doyurmaya çalışmasının yanı sıra felsefe, nöroloji, dinler tarihi ve iktisat konularında okumalar yapmayı seviyor. Öğrenmeye ve gelişmeye yönelik durdurulamaz bir arzuya sahip olması, onu üretken ve verimli olmak için teşvik ediyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir