“Açıklanabilirlik ve yorumlanabilirlik” kendimiz için belirlediğimiz kalite standartlarını karşılamakla ilgiliyken yapay zekâda bu durum nasıl işliyor? Son kullanıcı tarafından talep edilen kararlar herkese uygun olmayabilir. Peki bu karar geliştirilirken kimler hedef alınıyor? Başka bir makine öğrenimi geliştiricisi için mi? Yoksa bir ressam, polis veya genel müdür için mi?
Açıklanabilirlik: Açıklanabilir olma durumu.
Yorumlanabilirlik: Yorumlanma ihtimali veya imkânı bulunmak.
Toronto Üniversitesi ve LG AI Research’ten araştırmacılar, ekranlardaki kusurları belirlemeye ve ortadan kaldırmaya yardımcı olabilecek açıklanabilir yapay zekâ (XAI) algoritması geliştirdi. LG ve üniversite arasında devam eden AI araştırma iş birliğiyle yeni algoritma, sektör karşılaştırmaları üzerinde mukayese edilebilir yaklaşımları ve performansları değerlendirdi. Araştırmacılar, XAI algoritmasının, filmlerdeki klişelerden tıbbi taramalara kadar elde edilen verilerin yorumlanması dahil olmak üzere, makine öğreniminin kararlarını nasıl verdiğine dair bakış açısı gerektiren diğer alanlarda potansiyel olarak uygulanabileceğini düşünüyor.
Kara Kutu
XAI, makine öğrenimi stratejilerinin ‘kara kutu’ yaklaşımı ile ilgili sorunları ele alan, gelişmekte olan bir alan olmasıyla göze çarpıyor. Kara kutu modelinde, bir bilgisayara milyonlarca etiketli görüntü biçiminde bir dizi eğitim verisi verilebiliyor. Verileri analiz ederek, algoritma girdinin (görüntülerin) belirli özelliklerini belirli çıktılarla (etiketler) ilişkilendirmeyi öğreniyor. Son olarak daha önce hiç görmediği görüntülere doğru şekilde etiket ekleyebiliyor.

Makine, görüntünün hangi yönlerine dikkat edileceğine ve hangilerinin göz ardı edileceğine kendisi karar veriyor. Bu durum tasarımcıların bir sonuca nasıl ulaşacağını asla tam olarak bilemeyecekleri anlamına geliyor. Ancak böyle bir ‘kara kutu’ modeli sağlık hizmetleri, hukuk ve sigorta gibi alanlara uygulandığında zorluklar ortaya çıkarabilir. Örneğin bir algoritma modeli, bir hastanın %90 kötü huylu bir tümöre sahip olduğunu belirleyebilir.
”Yanlış veya ön yargılı bilgilere göre hareket etmenin sonuçları kelimenin tam anlamıyla ölüm kalım meselesine dönüşebilir. Modelin tahminini tam olarak anlamak ve yorumlamak için doktorun, algoritmanın ona nasıl ulaştığını bilmesi/ anlaması gerekir.” – Mahesh Sudhakar, T Engineering mezunu
Benzer senaryonun sorunu ve amacı her zaman algoritmada ayarlamalar gerektirse de kullanılacak ‘ısı haritaları’ veya ‘açıklama haritaları’, verilen herhangi bir kararın, bir tıp uzmanı tarafından daha kolay yorumlanabilmesini sağlayabilir.
Cam Kutu
Geleneksel makine öğreniminin aksine, XAI, karar verme sürecini şeffaf hâle getiren bir ‘cam kutu’ yaklaşımıyla tasarlanmış. XAI algoritmaları, öğrenme performanslarının geçerliliğini ve seviyesini denetlemek için geleneksel algoritmalarla aynı anda çalıştırılıyor. Yaklaşım beraberinde hata seçilimi yapmak ve eğitim verimliliklerini bulmak için fırsatlar sağlıyor.
Sudhakar, geniş anlamda bir XAI algoritması geliştirmek için her birinin avantajları ve dezavantajları bulunan iki metodoloji olduğunu söylüyor.
Hangi Metodoloji?
Geri yayılma olarak bilinen ilk yöntem, ağın tahmininin girdisine nasıl karşılık geldiğini hızlı bir şekilde hesaplamak için temeldeki AI mimarisine dayanıyor. Karışıklık olarak bilinen ikinci yöntem, doğruluk için biraz hızdan ödün verirken, gerekli telafiyi belirlemek için veri girişlerini değiştiriyor ve karşılık gelen çıktıları izlemeyi içeriyor.

LG’nin her iki yöntemin avantajlarını birleştiren yeni bir teknoloji istemesiyle, araştırma ekibinin geliştirdiği yeni XAI algoritması, Açıklanabilirlik için Anlamsal Girdi Örnekleme (SISE), 35. AAAI Yapay Zekâ Konferansı için yayınlanan bir makalede açıklanıyor.
XAI’deki bu başarıyla LG yapay zekâ kullanımı ile birlikte ürünlerinin işlevselliği, üretim inovasyonu, tedarik zinciri yönetimi, malzeme keşfinin verimliliği ve müşteri memnuniyeti gibi birçok alanda hitap ettiği sektör için inovatif bir tutum sergiliyor.
Kaynak: techxplore