Google, yapay zekasının neden "saçmaladığını" böyle açıkladı

Google, arama hizmetine eklediği Yapay Zeka Genel Bakışları özelliğinin neden saçma yanıtlar verdiğini ve bu konuda neler yaptığını açıkladı.

Google, yapay zekasının neden "saçmaladığını" böyle açıkladı

Google, I/O 2024 geliştirici konferansında “Arama için Yapay Zeka Genel Bakışları” (AI Overviews for Search) özelliğini duyurdu. Bir kullanıcı Google Arama’da karmaşık bir sorgu arattığında, bu özellik birden fazla çevrimiçi kaynaktan bilgi alarak arama sonuçlarının üstünde bir özet görüntülüyor.

Ancak Yapay Zeka Genel Bakışları, sunduğu sonuçlarda bazen tuhaf ve hatta zararlı yanıtlar önermesiyle beraber eleştirilere yol açıyor. Paylaşılan bazı ekran görüntülerine göre Yapay Zeka Genel Bakışları, inanılmaz bir şekilde kullanıcıların pizzaya peynir yapıştırmak için tutkal eklemesi ve böbrek taşlarını düşürmek için idrar içmesi gerektiğini önerdi.

Şimdiyse Google, bir blog yazısında bu durumu düzeltmek için neler yaptığını, yapay zeka destekli özelliğin nasıl çalıştığını ve kullanıcı raporları gelmeye başladıktan sonra gerçekleştirdiği işlemleri açıkladı. Şirket, Yapay Zeka Genel Bakışlarının “basit bir şekilde eğitim verilerine dayalı bir çıktı üretmediğini” ve AI destekli sohbet robotlarından ve diğer LLM ürünlerinden farklı çalıştığını söyledi.

Yapay Zeka Genel Bakışları, çalışma şekli nedeniyle kendi başına bir şeyler uydurmuyor veya “halüsinasyon yaratmıyor.” Ancak Google, Yapay Zeka Genel Bakışlarının “sorguları yanlış yorumlayarak, web’deki dilin ince ayrıntılarını yanlış yorumlayarak veya çok sayıda iyi bilginin mevcut olmaması” nedeniyle karışık sonuçlar verebileceğini söylüyor.

Google, bu arama sonuçlarının normal Googla Arama dizinlerindeki en iyi web sitelerinden alındığını ve diğer Arama özelliklerinin de bu sorunlara sahip olduğunu belirtiyor. Şirket, Yapay Zeka Genel Bakışlarının doğruluk oranının, yine AI tarafından desteklenen öne çıkan bilgilerle “eşit” olduğunu söylüyor.

Ayrıca Google, internette ortaya çıkan tuhaf sonuçlardan bahsederken, bunların hepsinin doğru olmadığını ve “çok sayıda sahte ekran görüntüsünün geniş çapta paylaşıldığını” da iddia etti. Özellikle köpekleri araç içinde bırakmak, hamileyken sigara içmek veya depresyon gibi konuları örnek veren Google, Yapay Zeka Genel Bakışlarının asla paylaşılan bu sonuçları göstermediğini söyleyerek bu ekran görüntüleriyle karşılaşanları kontrol etmek için kendi aramalarını yapmaya çağırdı.

Yine de Google, Yapay Zeka Genel Bakışlarının tartışma forumlarından bilgi alarak “alaycı veya dalga geçen içerikleri öne çıkardığını” kabul ediyor. Şirket, “Forumlar genellikle orijinal, ilk elden bilgi için harika bir kaynaktır, ancak bazı durumlarda peynirin pizzaya yapışmasını sağlamak için yapıştırıcı kullanmak gibi pek de yararlı olmayan tavsiyelere yol açabilir” diyor.

Şirket, sisteminde bir düzineden fazla teknik iyileştirme yaptığını ve doğru olmayan kalıpları belirlediğini söylüyor.