Harvard Üniversitesi’ndeki araştırmacılar IBM Watson ve MIT, yanlış bilgilendirmenin yayılmasını önlemek amacıyla yapay zekâyı ve yapay metin kalıplarını tespit etmek için GLTR (Dev Dil Model Test Odası) adlı bir yapay zekâ aracı geliştirdi.
Metin oluşturma yöntemleri karmaşık hale geldikçe kötü niyetli kullanıcılar yanlış bilgi ya da propaganda yapmak için metinleri kötüye kullanabiliyor. Bilgisayar yeterli olan biri, seçtiği herhangi bir konu hakkında gerçek görünümlü metinler içeren otomatik olarak binlerce web sitesi oluşturabiliyor. Bu noktaya henüz tam olarak ulaşmamış olsak da, büyük dil modelleri zaten insan tarafından yazılmış metinden ayırt edilemeyen bir metin üretebiliyor. Bu araç Twitter ve Facebook gibi daha çok haber paylaşılan sosyal medya siteleri için kullanışlı olabilir.
Ücretsiz olarak herkesin kullanımına sunulan GLTR, cümlenizdeki kelimelerin OpenAI’dan alınan veri setin içerisindeki durumunu baz alarak; en tahmin edilebilir kelimeleri [tooltip tip=”En çok kullanılan 10 kelime içerisindeyse”]yeşil[/tooltip], orta derecedekileri [tooltip tip=”En çok kullanılan 100 kelime içerisindeyse”]sarı[/tooltip] ve [tooltip tip=”En çok kullanılan 1000 kelime içerisindeyse”]kırmızı[/tooltip], en nadir kullanılan kelimeleri ise mor ile kodluyor. Cümlenizde kırmızı ve mor kelimeler bulunuyorsa bir bot tarafından yazılmadıklarını düşünebilirsiniz.
Dil işleme öğrencileri, insanların “gerçek” metni yapay metinden ayırt edip edemediklerini görmek için bir çalışma yapmış. Öğrencilerin %54’ü ayırt edebilirken, GLTR kullanımı öğrencilerin tespit oranlarını %72’ye çıkarmış. GLTR’nin benzer hedeflere yönelik daha fazla araştırmaya ilham verebilecek modelleri geliştirilebilirse bilgi yönetimi ve işlemi konusunda her alanda güvenilir ve şeffaf bir ortam yaratılabilir.
Kaynak: cnet