Kendini Sürme Sisteminde Binlerce Hata!
Test sistemi kendini süren araba yazılımında ortaya çıkmayı bekleyen binlerce hata buldu!
Dünyada giderek daha fazla bilgisayar sistemi yapay sinir ağlarını kullanmaya başlıyor. Bu teknoloji, kimseye ihtiyacı olmadan kendi kendine bir şeyleri öğrenebilen bir yapay zekâ ortaya çıkarıyor.
Ama bu durum, özellikle güvenliğin çok önemli olduğu alanlarda endişe yarattı. Bu "kara kutu" sistemleri iç çalışmalarını göstermiyorlar, dolayısıyla ne zaman hatalar olduğunu bilmiyoruz, ancak gerçek dünyada fiziksel olarak gözlenebilir hataları görebiliyoruz. Ve bunlar normal testlerde ortaya çıkmayan, ancak çok nadir durumlarda meydana gelebilecek şeyler olabilir.
Bu hataları yakalasak bile, derin öğrenme sistemlerini düzeltmek zor bir şey çünkü hataya tam olarak neyin sebep olduğunu bilmiyor oluyoruz. Tek yapabileceğimiz şey olumsuz bir geri bildirim vermek ve sorunu gözlemlemek.
Ama bu durum şimdi değişiyor olabilir, çünkü Pensilvanya'daki Lehigh Üniversitesi ve New York'taki Kolombiya Üniversitesi, derin öğrenme sistemleri için bir test geliştirdi. DeepXplore denen yazılım, yapay sinir ağlarının mantığını ve davranışlarını inceliyor ve ne yaptığını anlıyor. Onlar, buna "beyaz kutu" diyorlar.
Sistemi test etmek için, bir sürü veri setini içine attılar ve ne olacağına baktılar, verilerin arasında kendini süren araba verisi, Android ve PDF zararlısı verisi ve görsel verisi bulunuyordu. Ayrıca sisteme seçtikleri bu veri setlerinde eğitimli olan bazı üretim-kalitesindeki yapay sinir ağlarını da attılar,bunların arasında kendini süren araba mücadelelerinde yüksek sıralamalarda yer alanlar da bulunuyor.
Sonuçlar binlerce yanlış davranış gösterdi, mesela kendini süren arabaların bazı şartlar altında yol kenarındaki koruma demirlerine çarpması gibi. Bu kötü haber. Ama iyi haberse sistemin bu verilerle şimdi otomatik olarak kendini geliştirebilecek ve hataları onarmak için kullanabilecek olması.