Yapay zekâ ve makine öğrenmesinin en yaygın kullanıldığı alanlardan biri olan doğal dil işleme, sosyal medyada paylaştığınız bir metni veya yazıyı analiz ederek sizin o yazıyı hangi duygu ile yazdığınızı tahmin etmeye çalışır. Bu teknolojilerin gelişmesi ile birlikte artık sadece yazdıklarınız değil sosyal medyada paylaştığınız fotoğrafların ve videoların da duygu analizi yapılabiliyor. Samsung AI ve Imperial College London‘daki araştırmacıların ortak çalışmasıyla geliştirilen bir derin sinir ağı, sistematik olarak video ve fotoğraflardaki yüzleri analiz ederek duygu analizlerini yapıyor.
Genel Ruh Hali Analizi
Daha önce sosyal medyadaki fotoğraflardan siyasi görüşünüzü, saldırganlık seviyenizi ve ırkınızı tahmin eden yapay zekâlar ile karşılaşmıştık. Duygu analizi yapan yapay zekâlar şimdiye kadar sizin fotoğrafta mutlu mu yoksa kızgın mı olduğunuzu tespit etmek gibi çok basit ve sadece belli başlı kategorilendirme işlemlerini yapabiliyordu.
Geliştirilen yeni duygu analiz tekniği sayesinde çok daha kompleks ve karmaşık analizler yapılabiliyor. Samsung AI ve Imperial College London’ın duygu analizi ile sadece tek bir duygunun yoğunluğu tespit edilmiyor. Hangi duyguya sahip olduğunuzu tespit etmesinin yanı sıra o duyguyu dışarıya ne kadar belirgin bir şekilde gösterdiğinizi de analizine ekleyen sinir ağı, fotoğrafına baktığı insanın anlık olarak nasıl bir ruh halinde olduğunu analiz edebiliyor.
Duygu analizinin nasıl çalıştığının anlatıldığı bir video
Toplumsal Mutluluk Analizi
Nature Machine Intelligence‘da yayınlanan makalede tanıtılan bu derin sinir ağı sistemi, oldukça hızlı bir şekilde tahminlerde bulunabiliyor. Bu özelliği sayesinde gerçek zamanlı olarak duyguları tespit etmek için kullanılabilir.
Şu anda yapılmış bir çalışma olmasa da sinir ağının güvenlik kameralarıyla eş zamanlı çalıştığı bir sistemde kameralar, izledikleri kişilerin duygularını anlık olarak tespit edebilir ve veri olarak kayıt altına alabilir. Bu ve benzeri sistemlerin gelişmesi ile toplumsal mutluluk ve mutsuzluk seviyelerine daha güncel ve daha doğru oranlarda erişim sağlanabilir.
Veri Setleri ve Derin Öğrenme
Gerçek zamanlı duygu analizi yapabilme adına yüksek performanslı donanım ve makine öğrenimi sistemlerinin sağlıklı beslenebilmesi için uygun veri kümeleri gerekiyor. Samsung AI ve Imperial College’daki araştırmacılar sinir ağının duygu tanımasında daha yüksek doğruluk oranına sahip olması için sistemi AFEW-VA ve SEWA veri setleriyle besledi. Kullanılan veri setlerinden AFEW-VA, insanların bazen sebepsiz yere gülmesi gibi rastgele gerçekleşen olayları daha iyi tespit edebilmek için oluşturuldu. SEWA ise duyguyu dışarıya göstermede önemli bir faktör olan kültürel farklılıkların ağırlığının daha çok olduğu bir veri setinden meydana geliyor.
Araştırmacılar, dünyanın dört bir tarafında çekilmiş insan yüzlerinin görüntülerini içeren veri kümelerini derledikten sonra geleneksel duygu tanıma yaklaşımlarını yeni geliştirdikleri tekniklerle harmanlayarak farklı bir model ortaya koydu. Oluşturdukları derin öğrenme mimarisi sayesinde sistem, sadece insan yüzlerine bakarak yüksek doğruluk ile duygu analizi yapabiliyor. Fotoğrafların nerede, nasıl ve ne kalitede çekildiği sistemin doğruluk oranını kritik seviyelerde etkilemiyor. Kullanılan sistem bir yüzü analiz ederken dudak, burun ve gözlerin konumunu referans noktası olarak alıyor ardından kütüphanesindeki diğer veriler ile karşılaştırarak farkları hesaplıyor.
İlk sonuçlar sevindirici
Çalışmanın ilk test sonuçlarından oldukça olumlu veriler elde edildi. Sistem normal bir insanın, karşıdakinin duygusunu tahmin etmede başarılı olma ihtimali ile neredeyse aynı oranlara sahip. Araştırmacılar bu seviyelerin çok umut verici ve heyecanlandırıcı olduğunun altını çizerken yakın gelecekte normal bir insandan daha iyi duygu analizi yapacak olan sistemlerin gelişeceğini belirtiyor.
Bununla birlikte fotoğraf analizinde kullandığı teknikleri videoda analiz yaparken de kullanabilen bir sinir ağı sisteminin, şimdilik fotoğraf üzerinden yaptığı tahminlerde daha başarılı olduğunu eklemek gerekiyor. Araştırma ekibinin videolarda anlık değişen ışık, ortam ve yüz hareketlerinin de hesaba katılacağı daha gelişmiş bir model üzerinde çalıştıkları biliniyor.
Kaynak: Tech Xplore