Yapay zeka gündelik yaşamımızda karmaşık sorunlara hayati çözümler sunsa da kimi uygulamalarını göz önüne aldığımızda belirsiz bir tehdit olmaya devam ediyor. Özel istihbarat ve savunma şirketi ASRC Federal ve Maryland Üniversitesi’nin ortaklığında yapılan araştırmada [tooltip tip=”Artificial intelligence (yapay zeka)”]AI[/tooltip] ile ilgili yaklaşmakta olan riskler detaylandırılarak yakın gelecekte karşılaşacağımız karmaşık seçimler irdelenmiş.

Makalede özellikle toplum olarak olası modern savaşta yapay zeka kullanmayı seçersek neler olabileceğine dair bir araştırma yapılmış. Araştırmanın birçok yönü insanlığın yok edilmesine yol açan kasvetli ve buhranlı senaryolara odaklanıyor. Yine de araştırmacılar iki önemli kaçınılmazlığa değiniyor: Silahlı yapay zekanın gelişimi ve bu teknolojinin gelişimiyle ivme kazanan “sistem kazaları”.

Üç Mil Adası felaketi gibi kazalar -en azından şimdilik bildiğimiz kadarıyla- karmaşık teknolojilerin doğru uygulanmamasıyla ortaya çıktı. Bu tarz kazalardan sonra yapay zekanın nasıl çalıştığını anlamak ve benzer kazaları yapan insan ile yapay zeka arasındaki ilişkiyi anlamak için araştırmacılar çoklu değişkenleri izleyip, analiz etmiş.

Three Mile Island

Savaş alanında yapay zeka için incelenen döngüdeki yaklaşım “vur ve unut” yaklaşımı. Savaş alanının hızı ve boyutsallığı insan kavrayışının ötesine geçtiğinde, yani artık insanoğlu savaş alanlarının ana unsuru olarak yer almadığında, insan katılımı gereken bir durum olursa, istenen geçici ve fiziksel davranış şekillerine ulaşmakta zorluk yaşayacağız. Tehdidin yakınlığına veya tahmin edilebilirliğine de bağlı olarak, düşmana manuel olarak (elle) müdahale etmek imkânsız bir hal alabilir.

MIT bazı AI ‘hataları’nı önceden tahmin etmek için bir yöntem keşfetti ve ABD Hava Kuvvetleri ile 50 yıllık bir AI hızlandırıcı programı hazırladı. Bu tür bir hazırlık sadece olası hasarı azaltmaya yardımcı olur. Tıpkı akıllı telefonların psikolojik zararlarının tamamen engellenemediği gibi. Bu nedenle yapay zekanın gelecekte neden olacağı hasarı tahmin etmekte başarısız olacağız.

Normal kazaların büyük bir çoğunluğu insan dikkatinin zayıflığından kaynaklanıyor. Durumlarına bakılmaksızın, bu kazalar maalesef hızlı bir büyüme gösteriyor. Makalede belirtildiği gibi devletler ve özel girişimler aracılığıyla potansiyel tehlike olan teknolojilerin geliştirilmesinden kaçınılması ve genişlemelerinin engellenmesi gerekiyor. Yapay zekanın büyümesini durduramazsak ve yapacağı hasarı önleyemezsek de makalenin önerisini izleyebilir ve olası zararı azaltmak için elimizden gelenin en iyisini yapabiliriz.

Araştırmacılar yapay zekanın yasaklanması ve/veya düzenlenmesini önermekle birlikte, etik temelli bir hukuk kuruluşunun en azından ortaya çıkan sorunları yönetmek için bir sistem sağlayabileceğini düşünüyor.  Böylece hayat kurtarmaya yardımcı olan makine öğrenme projelerine yatırım yaparak zaman ve kaynak maliyetini de telafi edebiliriz.

Bugün sahip olduğumuz riski oluşturan insan eksikliklerinin yarın aynı olacağına dair kesin bir öngörü yok fakat yarının insanları bugün hayal edebileceğimiz tehditleri ele almak için daha donanımlı olabilir.

Olumlu ya da olumsuz bilinmeyen için bahse giremeyiz ancak tahmin edebileceğimiz kanıta dayalı senaryolar için hazırlık yapabiliriz. Her ne kadar bu yeni araştırma eksik bir tablo çizse de, silahlı yapay zekanın olası zararlarını azaltmak için şu anda elimizdeki araçları kullanmamız mantıklı gözüküyor. Göstereceğimiz çaba ile gelecekte beklenen değişimin bizleri yıpratmadan hayatlarımıza dahil olmasını sağlayabiliriz.

Kaynak: extremetech

Share:

administrator

96'da İstanbul'da doğdu, Marmara Üniversitesi Basım Teknolojileri bölümünde yüksek lisanına devam ederken İş Geliştirme alanında çalışıyor. Sonunda soru işareti olan her şeye ilgi duyarken geleceğin nerede olduğunu araştırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir