Yapay zekanın, Genel Yapay Zeka'ya dönüşmesi için beklenen süre yaklaşık 8 sene. Genel Yapay Zeka ortaya çıktığında, artık insan zekasıyla yapay zekayı ayırt etmenin mümkün olmayacağı düşünülüyor ve insanların yapabileceği pek çok işi yapay zekalı uygulamaların devralması bekleniyor.
Ancak yapay zeka bugünkü durumuyla hala güvenilmez bazı kararlar alabiliyor. Bunun son örneği ise Google'ın yapay zeka ile görsel oluşturma motoru Bard'da yaşandı.
Siyahi ve Çinli Nazi?
Bir kullanıcı Bard'dan Nazi askeri görselleri vermesini istedi ancak, Bard içinde Çinli ve siyahi Nazi askerlerinin de olduğu görüntüler verdi. Bu aslında basit bir hata gibi görünüyor olabilir. Ancak yapay zekanın, Nazilerin ırkçı bir organizasyon olduğu gibi temel bir bilgiyi bile ayırt edemediğini, aralarına Alman ırkı dışından kimseyi almadıkları bilgisinden yoksun olduğunu gösteriyor. O zaman da şu soru ortaya çıkıyor. Yapay zekaya sorduğumuz soruların cevaplarına ne kadar güvenebiliriz? Yapay zekanın bizim için kararlar alıp bizi asiste etmesi ne kadar mümkün olabilir?
Bu sorular elbette Google içinde de soruldu ve şirket hem bir özür diledi, hem de hatanın kaynağını araştırmak için şirket içinde soruşturma başlattı. Ayrıca hizmetin resim oluşturma yeteneğini şimdilik askıya aldığını duyurdu.
X'te yayınlanan Google açıklamasında "Gemini'nin bazı tarihsel görüntü oluşturma tasvirlerinde yanlışlıklar sunduğunun farkındayız. Bu tür tasvirleri derhal iyileştirmek için çalışıyoruz. Gemini'nin yapay zeka imaj üretimi geniş bir yelpazede insanlar üretiyor. Ve bu genellikle iyi bir şey çünkü dünyanın dört bir yanındaki insanlar bunu kullanıyor. Ancak bu örnekte hedefi ıskalamış" deniyor.