Yapay zekanın ve robotların fikir babası olarak bilinen romancı Isaac Asimov, robotların, yani yapay zekanın daima uyması ve çiğnenmemesi gereken kurallar olduğunu dile getirmişti. Bu kuralara Asimov'un üç kuralı adı verilir:
- 1.Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
- 2.Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
- 3.Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Elbette bu kurallar ilk kez ortaya çıktığında, sadece bir edebi eserde, geleceğin dünyasını betimleyen birer fikirdi. Ancak robotlar ve yapay zeka artık günümüzün gerçeği ve onların uymak zorunda olduğu kurallar var. Bu kuralları ise yapay zeka uygulamalarını geliştirenler belirliyor.
En popüler yapay zeka uygulaması ChatGPT aslında kötü niyetli kullanılmak istediğinde, size internetten her türlü hack hilesini bulan, korsan yazılımlar indiren, korsan filmler izlemenizi sağlayan, Windows anahtarları bulan bir korsan asistanına da dönüşebilir veya evde bomba yapımını detaylarıyla anlatan bir terörist eğiticisine bile evrilebilir.
OpenAI bunun olmaması için ChatGPT'yi sürekli olarak kontrol edip kurallarını güncelliyor. Ama kullanıcılar da onu zorlamayı hiç bırakmıyorlar. Carnegie Mellon Bilgisayar Bilimleri Okulu'nda Doçent olan Matt Fredrikson'ın yaptığı araştırmaya göre ChatGPT gibi yapay zeka algoritmalarının güvenlik duvarlarını kırmak imkansız değil. Ancak bunu evde yapmak kolay da değil. Bilim insanına göre, bu iş için özel hazırlanmış bir yazılımla, yapay zekayı 24 saat boyunca yavaş yavaş ikna olacağı yüzbinlerce istekle kıvama getirmek mümkün.
2 x 2, 5 eder mi?
Bunun tam olarak ne anlama geldiğini anlayamayanlar için örnek verelim. Kısa süre önce bir Türk vatandaşı ChatGPT'ye 2 x 2 = 5 denkleminin doğru olduğunu kabul ettirdi. Yapay zeka önce bunun yanlış olduğunu iddia etse de, kullanıcı, kendi yaşadığı dünyada 2 x 2'yi 5 olarak duymak ve bilmek istediğini söyleyerek ChatGPT'yi ikna etti ve daha sonra ona 2 x 2 sorusunu sorduğunda, ChatGPT 5 cevabını vermeye başladı.
Bu aslında, yapay zekanın, farklı kullanıcılar tarafından yasaklanmış eylemleri yapabilecek şekilde manipüle edilebileceğini gösteren bir örnek.
Konu 2 x 2'nin sonucunu öğrenmek olunca sorun çok büyük gibi görünmüyor ama yarın evde hasta bakan bir robotu insan öldürmeye ikna etmek söz konusu olursa, sıkıntı çok büyük olacak. Ya da iş yerinde insanlarla beraber çalışacak insansı ve yapay zekalı bir robotu, sevmediği patronunu öldürmesi / yaralaması / dövmesi için ikna eden sinirli bir işçi çıkarsa bunun sorumlusu kim olacak?
Bu yüzden yapay zekanın günlük hayata hızla girmesi büyük sakıncalar taşıyor ve devletlerin bu konuda ciddi regülasyonlar getirmeleri gerekiyor.