Google sessiz sedasız yaptığı değişiklik, büyük bir kavgaya yol açabilir

Google, sessiz sedasız bir şekilde, yapay zekanın silahlarda ve gözetim araçlarında kullanılmayacağına dair daha önce verdiği sözü geri çekti. Peki şimdi ne olacak?

Google, yapay zeka ilkelerini 2018’de ilk kez yayımlamasından bu yana en önemli değişikliklerden birini yaptı. The Washington Post tarafından fark edilen değişikliğe göre internet devi, silahlarda veya gözetleme teknolojisinde kullanılmak üzere AI araçları “tasarlamayacağına veya dağıtmayacağına” dair verdiği sözleri bu belgeden çıkarttı. Bu yönergeler, daha önce, belgenin mevcut sürümünde bulunmayan “üzerinde çalışmayacağımız uygulamalar” başlıklı bir bölüm içeriyordu.

Artık belgede, “sorumlu geliştirme ve dağıtım” başlıklı bir bölüm bulunuyor. Bu bölümde Google, “kullanıcı hedefleri, sosyal sorumluluk ve uluslararası hukuk ve insan haklarının yaygın olarak kabul görmüş ilkeleriyle uyumlu olacak şekilde uygun insan denetimi, gerekli özeni gösterme ve geri bildirim mekanizmaları” uygulayacağını söylüyor.

Verilen bu yeni taahhütler, şirketin sadece bir ay öncesine kadar AI ilkelerinde verdiği net ve açık taahhütlere göre çok daha geniş kapsamlı ve daha belirsiz bir yapıya sahip. Örneğin şirket, silahlarla ilgili olarak, daha önce “temel amacı veya uygulaması insanlara zarar vermek veya doğrudan kolaylaştırmak olan silahlar veya diğer teknolojilerde” kullanılmak üzere AI tasarlamayacağını söylüyordu. AI gözetleme araçları tarafında ise “uluslararası kabul görmüş normları” ihlal eden teknoloji geliştirmeyeceğini söylemişti.

Google’ın yayınladığı bir blog yazısında, DeepMind CEO’su Demis Hassabis ve Google’da araştırma, laboratuvarlar, teknoloji ve toplum kıdemli başkan yardımcısı James Manyika, yapay zekanın “genel amaçlı bir teknoloji” olarak ortaya çıkmasının bir politika değişikliğini gerektirdiğini söylüyor. Yazıda belirtilene göre ikili, “demokrasilerin, özgürlük, eşitlik ve insan haklarına saygı gibi temel değerler tarafından yönlendirilen AI gelişiminde liderlik etmesi gerektiğine inanıyoruz. Ve bu değerleri paylaşan şirketlerin, hükümetlerin ve kuruluşların, insanları koruyan, küresel büyümeyi teşvik eden ve ulusal güvenliği destekleyen AI yaratmak için birlikte çalışmaları gerektiğine inanıyoruz” diyor ve ekliyor: “AI İlkelerimiz tarafından yönlendirilerek, misyonumuz, bilimsel odak noktamız ve uzmanlık alanlarımızla uyumlu AI araştırmalarına ve uygulamalarına odaklanmaya devam edeceğiz ve uluslararası hukuk ve insan hakları konusunda yaygın olarak kabul görmüş ilkelerle tutarlı kalacağız - her zaman belirli çalışmaları, faydaların potansiyel risklerden önemli ölçüde daha ağır basıp basmadığını dikkatlice değerlendirerek değerlendireceğiz.

Google, ilk olarak ABD Savunma Bakanlığı’na dron görüntülerini analiz edecek bir AI yazılımı geliştirmesini gerektiren tartışmalı bir sözleşme olan Project Raven’ın ardından 2018 yılında AI ilkelerini yayınlamıştı. Çok sayıda Google çalışanı, hükümetle yapılan bu sözleşmeye karşı protesto amacıyla şirketten istifa etti ve binlerce çalışanı da sözleşmeye karşı bir dilekçe imzaladı.