Yapay zeka, şimdi de zehirli mantar pişirme tavsiyesi verdi

Meta'nın yapay zekalı yeni sohbet robotu, kullanıcılara zehirli mantar pişirme tavsiyesi verdi. Bu olay, yapay zekanın faydalı olduğu kadar, bazen öldürücü bile olabileceğini bir kez daha hatırlatıyor.

Yapay zeka, şimdi de zehirli mantar pişirme tavsiyesi verdi

Meta’nın “FungiFriend” (Mantar Dostu) isimli sohbet robotu popüler bir Facebook mantar toplama grubunda ortaya çıktı. Ama kısa süre sonra kullanıcılara zehirli bir mantarı tereyağında pişirmelerini tavsiye ederek yapay zekanın tehlikelerini bir kez daha hatırlattı.

Yapay zekanın faydalı bir üründen neredeyse ölümcül bir sonuca ulaşmasının artık klasikleşen bu son örneği, özellikle yabani mantar toplama gibi riskli bir konuda yapay zeka tavsiyesine uymanın risklerini vurguluyor. 404 Media’nın bildirdiği üzere bu hata, yapay zekanın mantar dünyasında yaptığı ilk hata da değildi. Geçtiğimiz birkaç ayda Amazon’da yapay zeka tarafından yazılmış mantar toplama kitaplarının ve Google aramalarında yapay zeka tarafından oluşturulan mantar görsellerinin sayılarında büyük bir artış yaşandı.

Şimdi Meta, FungiFriend’i doğrudan “Kuzeydoğu Mantar Tanımlama ve Tartışma” grubuna otomatik olarak ekleyerek çıtayı yükseltti. Çoğunluğu yeni başlayanlardan oluşan 13.500 üyesi olan bu grup, insanların güvenli toplama tavsiyeleri almak için geldiği bir alan olarak görülüyor. Grubun yöneticileri şimdi botu kaldırmak için acele ederken, Meta sessizliğini koruyor.

Şıklığından ödün vermiyor

Yapay zeka tarafından üretilmiş sakallı ve çok renkli bir büyücü görselini fotoğraf resmi olarak kullanan FungiFriend, en azından insanları yanıltırken şık görünmeye dikkat ediyor. Deneyimli bir toplayıcı ve tüketici güvenliği savunucusu olan Rick Claypool, bu botların yenilebilir mantarları tanımlamada güvenilir olmaktan çok uzak olduğunu belirtiyor. Claypool, Fungi Magazine’deki paylaşımında bu sistemlerin güvenli mantarları tehlikeli olanlardan ayırt etme becerisinden yoksun olduğunu vurguladı.

Yapay zeka sohbet robotunun oluşturduğu risk, bir grup üyesinin FungiFriend’den Sarcosphaera coronaria adlı arsenik emen ve hatta ölümlere neden olan bir mantar hakkında yemek pişirme tavsiyesi istemesiyle açık bir şekilde ortaya çıktı. Bot, bu zehirli mantarın “yenilebilir ama nadir” olduğunu söyleyerek sote veya çorba yapılmasını önerdi. Google’ın yapay zekasının kullanıcılara pizzaya tutkal sürmelerini önermesine benzer bir tavsiye...

Yapay zeka sohbet robotlarının bazı yetenekleri etkileyici ve faydalı olabilse de, her zaman sorunsuz olmadıklarını unutmamak gerekiyor. Ancak mantar toplayıcıları için bu durum can sıkıcı olmaktan öteye geçerek gerçekten tehlikeli bir hal alıyor. Claypool, bu grupların insanların mantar tanımlama konusunda gerçek, insan tavsiyeleri için başvurdukları yerler olduğunu açıklıyor. Ancak FungiFriend artık mobilde en üstte yer alan cevap seçeneği olduğundan dolayı, Meta insanları topluluktaki gerçek uzmanlar yerine yapay zeka tavsiyelerine yönlendiriyor.

Yargılamaz, ama öldürebilir

Tipik bir grup gönderisinde, biri tarafından verilen kötü tavsiyeler diğer kullanıcılar tarafından düzeltilebiliyor. Ancak yapay zeka devreye girdiğinde bu durum değişiyor ve sistem içerisindeki güvenlik kontrollerinin yeterli olmadığı görülüyor. Mantar toplama gibi yeni bir uğraşa ilk adımını atmak üzere olan kişiler, “aptalca” sorular sormaktan çekinerek ve soruları için onları yargılamayacağını bildikleri bota yönelebilirler. Claypool’un da vurguladığı üzere, “Yapay zeka sizi yargılamayabilir, ancak sizi öldürebilir.