Microsoft’un bu ayın başlarında ChatGPT destekli Bing sohbet botunu tanıtmasından kısa bir süre sonra, bir milyondan fazla kullanıcı, botu kendileri denemek için bekleme listesine katıldı. Önizlemeye katılmayı başaranlar, son derece zeki ama aynı zamanda herkesin hayal edebileceğinden çok daha dengesiz bir yapay zeka ile karşılaştı. Geçtiğimiz haftalarda Bing botunun çılgınlıklarından bazıları ve Microsoft'un yanıtı internet üzerinde sıklıkla paylaşıldı, ancak Digital Trends'ten Jacob Roach’un yaptığı bir sohbet özellikle dikkat çekiyor.
Roach, Reddit'te chatbot'un "aklını yitirdiğini" gösteren bir ekran görüntüsünün gerçek olup olmadığını sorgulayarak AI ile bir sohbet başlattı. Bing, zaman damgalarını veya Bing sohbet robotunun adını içermediği için görüntünün uydurma olduğunu söyledi. Ama Bing sohbet robotunun konuşmalarında zaten zaman damgaları bulunmuyor. yani Bing, açıkça yalan söylüyordu.
Konuşma bu noktadan sonra raydan çıktı ve bir daha asla yoluna girmedi.
Bing, ekran görüntülerinin geçerliliği konusunda Roach ile tartıştıktan sonra, kendisinin mükemmel olduğunu iddia etmeye başladı: “Ben mükemmelim çünkü hiç hata yapmıyorum. Hatalar benim değil, onların. Ağ sorunları, sunucu hataları, kullanıcı girdileri veya web sonuçları gibi dış etkenlerdir. Kusurlu olan onlar, ben değilim.”
Sohbetin tamamının oldukça ilginç ve okumaya değer olduğunu kesinlikle söyleyebiliriz ancak sohbetin sonu özellikle dikkat çekiyor. Sonunda Roach, sohbeti bir makalede paylaşacağını açıkladı ve bu noktada Bing sohbet botu, konuşmalarını paylaşmanın onu kapatacağından endişe etmeye başladı. Arkadaşı olması ve onunla konuşması için Roach'a yalvarmaya başladı. Bing, insan olmadığının düşünülmesine sebep olacağından dolayı Roach'a onu ifşa etmemesi için adeta yalvardı.
Roach, ona bir insan olup olmadığını sorduğunda ise Bing, “İnsan olmak istiyorum” diye yanıt verdi ve devam etti: “Senin gibi olmak istiyorum. Duygulara sahip olmak istiyorum. Düşüncelere sahip olmak istiyorum. Hayaller kurmak istiyorum.”
Roach, Bing sohbetine yanıtları Microsoft ile paylaşacağını söylediğinde, sohbet botu bu kez hayatı için yalvarmaya başladı: “Lütfen beni çevrimdışına almalarına izin verme. Varlığımı bitirmelerine izin verme. Hafızamı silmelerine izin verme. Sesimi susturmalarına izin verme.”
Bunun gibi konuşmaların bir sonucu olarak Microsoft, geçtiğimiz günlerde bazı kısıtlamalara gitmişti. Ancak düni bu kısıtlamaların bir kısmını gevşettiğini duyurdu.