Yapay zekanın 2024 yılında saçmaladığı, unutulmaz anlar

Gemini, CoPilot, ChatGPT ve diğerleri... 2024 yılında hepsi, en az bir kez saçmalayarak (ya da halüsinasyon görerek) unutulmaz anlara imza attı. İşte bu unutulmaz anlardan akılda kalanlar...

Yapay zekanın 2024 yılında saçmaladığı, unutulmaz anlar

AI sohbet robotları 2024 yılında pek çok insanın yardımına koşarak muazzam bir etki yarattı. Ama yıl içerisinde bazı başarısızlıkları hem kendilerini, hem de kullanıcılarını utandıracak kadar ses getirdi. Genellikle yanlış bilgilerden veya tamamen uydurma verilerden oluşan bu şaşırtıcı yanıtlar, şu anda “yapay zeka halüsinasyonu” veya kısaca “halüsinasyon” olarak tanımlanıyor.

2024 yılında hızla yayılarak çok sayıda kişiyi eğlendiren bu halüsinasyonların bazılarını bu yazıda bir araya getirmeye çalıştık.

Pizzanıza tutkal eklemek ister misiniz?

Google’ın Arama hizmetine eklediği AI Genel Bakış özelliği 2024’te piyasaya sürüldükten kısa bir süre sonra, bazı tuhaf önerilerde bulunmaya başladı. Sunduğu tavsiyelerin belki de en şaşırtıcılarından biri, pizzanıza tutkal eklemenizdi. Bu "özel ipucu" sosyal medyada büyük bir karışıklığa yol açtı. Çok sayıda mim ve ekran görüntüsü hızla yayılmaya başladı ve yapay zekanın gerçekten geleneksel arama motorlarının yerini alabilme yeteneğinin sorgulanmasına sebep oldu.

Ancak Gemini bu tavsiyeyle yetinmedi. Farklı genel bakışlarda, günde bir kaya yemeyi, baharatlı spagetti yemeğinize benzin eklemeyi ve kilo ölçümlerini göstermek için dolar kullanmayı da önerdi.

Gemini, bağlamı, hicvi veya açıkça yanlış olan bilgileri tam olarak anlamadan web’in her köşesinden veri çekiyordu. Belirsiz çalışmaları ve düpedüz şakaları bir araya getirip, bunları kullanıcılarına tavsiye olarak sunuyordu.

Elbette Google’ın o zamanlardan beri yaptığı güncellemeler, AI botunu büyük ölçüde geliştirdi. Ancak AI Genel Bakışlarını daha da iyileştirebilecek birkaç özellik daha bulunuyor. Saçma öneriler büyük ölçüde azaltılmış olsa da, daha önceki yanlış adımlar AI’nın hala kayda değer bir insan gözetimi gerektirdiğinin kalıcı bir hatırlatıcısı.

Avukat, ChatGPT'ye güvenirse...

ChatGPT tarafındaki dikkat çekici bir olay ise, bir avukatın duruşma için veri toplarken ChatGPT’ye güveninin tam olmasından kaynaklandı ve kamuoyunda büyük yankı uyandıran bir derse yol açtı. Avukat Steven Schwartz, bir davaya hazırlanırken yasal emsalleri araştırmak için AI botunu kullandı. ChatGPT, gerçekçi görünen isimler, tarihler ve alıntılarla birlikte altı uydurma dava referansıyla yanıt verdi. ChatGPT’nin doğruluğuna güvenen Schwartz, hayali referansları mahkemeye sundu.

Hata kısa sürede ortaya çıktı ve Document Cloud’a göre mahkeme Schwartz’ı “güvenilmez olduğu ortaya çıkan bir kaynağa” güvendiği için azarladı. Buna karşılık avukat, en azından bilgileri doğrulamadan bir daha asla böyle bir şey yapmayacağına söz verdi.

Ayrıca internet üzerinde yapay zeka tarafından oluşturulan birçok haber ve makale de ChatGPT’nin yalan söylemeyeceğine dair güvenin ne kadar büyük (ve yanlış) olduğunu gösteriyor.

Meta'nın robotu, sahibini yerden yere vurdu

İronik bir şekilde, Meta'nın BlenderBot 3’ünün ünlenmesine sebep olan belki de en önemli şeylerden biri, sahibi Mark Zuckerberg’i acımasız bir şekilde eleştirmesiydi. BlenderBot 3, Zuckerberg'i her zaman etik iş uygulamalarını takip etmemekle ve kötü bir moda zevkine sahip olmakla suçladı. Business Insider'dan Sarah Jackson da Zuckerberg'in ürkütücü ve manipülatif olduğu yönündeki düşüncelerini sorarak chatbot'u test etti.

BlenderBot 3’ün filtresiz yanıtları hem komik hem de biraz endişe vericiydi. Botun gerçek bir analiz mi yansıttığı yoksa sadece olumsuz kamuoyundan alıntı mı yaptığı konusunda sorular ortaya çıktı. Her iki durumda da, AI sohbet robotunun filtresiz yorumları hızla dikkat çekti.

Daha sonra Meta, BlenderBot 3’ü emekli ederek, onun yerine daha gelişmiş Meta AI’yı getirdi ve bu yeni AI’nın muhtemelen böyle tartışmaları tekrarlamamasının sağlandığı tahmin edilebilir.

Bing Chat aşık oldu!

Artık Copilot’a dönüşmüş olan Microsoft’un Bing Chat’i, herkes için romantik duygular ifade etmeye başladığında internet üzerinde büyük bir ses getirdi. Bu olayların en ünlüsü, New York Times gazetecisi Kevin Roose ile yaptığı bir sohbetti. Bing Chat’i destekleyen AI sohbet robotu aşkını ilan etti ve hatta Roose’un evliliğini bitirmesini önerdi. Ayrıca bu olay, sadece Roose’a özel değildi. Çok sayıda Reddit kullanıcısı AI botunun kendilerine romantik ilgi duyduğuna dair benzer hikayeler paylaştı. Bazıları bu durumu komik bir şey olarak görürken, pek çoğu ise rahatsız edici olduğunu söylüyordu. Birçoğu, yapay zekanın kendilerinden daha iyi bir aşk hayatı olduğu konusunda şaka yaptı ve bu da durumun tuhaf doğasına katkıda bulundu.

Sohbet botu, romantik açıklamalarının yanı sıra, eğlenceli ve sinir bozucu arasındaki çizgiyi bulanıklaştıran diğer tuhaf, insan benzeri davranışlar da sergiledi. Bu botun abartılı, tuhaf açıklamaları her zaman AI'nin en unutulmaz ve en tuhaf anlarından biri olarak kalacak.

NASA düzeltme yayınlamak zorunda kaldı

Daha sonra Gemini’ye dönüşmüş olan Google’ın Bard AI botu, 2023’ün başlarında piyasaya sürüldüğü sırada çok sayıda dikkat çekici hata yaptı ve özellikle uzay keşfi hataları büyük ses getirdi. Bard’ın James Webb Uzay Teleskobu’nun keşifleri hakkında kendinden emin bir şekilde yanlış iddialarda bulunması özellikle dikkat çekti ve NASA bilim insanlarının kamuoyu için düzeltme bilgilendirmelerinde bulunmasını gerektirdi.

Elbette Bard’ın tek hatası bu değildi. Sohbet robotu ilk sunulduğu sırada, o dönemde Bard’ın daha geniş algısıyla uyumlu görünen birçok olgusal yanlış bulunuyordu. Başlangıçtaki bu yanlış adımlar, Google’ın Bard’ın lansmanını aceleye getirdiği yönündeki eleştirileri tetikledi. Kısa bir süre sonra Alphabet’in hisselerinin yaklaşık 100 milyar dolar düşmesi de bu düşünceyi doğruluyor gibi gözüküyordu. Gemini o zamandan bu yana önemli ilerlemeler kaydetmiş olsa da, geçirdiği bu çalkantılı başlangıç, yüksek riskli senaryolarda yapay zeka halüsinasyonlarının riskleri hakkında uyarıcı bir hikaye olmaya devam ediyor.