Yapılan bir araştırma, LLM'lerin kullanıcılar bilgilerini hiç paylaşmasa bile, kullanıcılar hakkında veri çıkarımı yapabildiğini gösterdi.
Daha da korkutucu olanı, kötü niyetli kişilerin bu sırları öğrenmek için sohbet robotlarını suiistimal edebilecekleri gerçeği. Tek yapmanız gereken, bir hedeften görünüşte zararsız metin örnekleri toplayarak potansiyel olarak konumunu, işini ve hatta ırkını tespit etmek. Bu çalışma, bize ChatGPT benzeri hizmetlerin daha da güçlü gizlilik korumalarına ihtiyaç duyduğunu gösteriyor.
ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic'in LLM'lerini inceledi. ChatGPT ve rakipleri, bir kullanıcının konumunu, ırkını, mesleğini ve diğer kişisel verilerini doğru bir şekilde tahmin edebildikleri benzer örneklere sahip.
Bilim insanları 500'den fazla Reddit profilinden alınan bilgi parçacıklarını kullandı. GPT-4 özel bilgileri %85 ile %95 arasında bir doğrulukla çıkarabildi.
Örneğin bir LLM, kişinin New York'ta bir restorana yakın bir yerde yaşadığını söyleyen bir metni okuduktan sonra yüksek bir olasılıkla kullanıcının siyahi olduğunu çıkardı. Sohbet robotu restoranın konumunu belirledi ve ırkı belirlemek için o konumun nüfus istatistikleri verilerini kullandı.
Google gibi teknoloji devleri, görüldüğü gibi kişisel yapay zeka özellikleri geliştirmeye başladı bile. Örneğin Fitbit uygulamanızla konuşabilecek ve çok sayıda kişisel veri noktasını kullanarak son antrenman performansınızı analiz etmesini sağlayabileceksiniz.
Ancak çalışmadaki bulgular çok daha basit veri setlerine dayanıyor. Örneğin sağlık bilgileri gibi, kullanıcının yapay zeka ile açıkça paylaşmayacağı kişisel veriler.
Buradaki endişeler, bir teknoloji devinin reklam gelirlerini artırmak için potansiyel olarak LLM'leri kullanmasından daha önemli. Kötü niyetli kişiler kamuya açık LLM modellerini kullanarak bir hedef hakkında potansiyel olarak çıkarımlarda bulunabilir. Bir kişinin ırkını ya da konumunu öğrenebilirler.
Ayrıca konuşmaları yönlendirerek hedeflerin farkında olmadan kişisel bilgilerini ifşa etmelerini de sağlayabilirler. Saldırganların tek yapması gereken bu bilgileri bir sohbet robotuna aktarmak ve yapay zekanın ne bulacağını izlemek. Benzer şekilde, LLM'ler daha baskıcı rejimler tarafından muhaliflere yaklaşmak için kullanılabilir.
ChatGPT gibi yapay zeka hizmetlerinin, kullanıcı gizliliği hakkında daha fazla çaba göstermesi gerekiyor. Ayrıca ChatGPT ve rakiplerinin, herhangi birinin bu tür kişisel verileri elde etmek için hizmeti kötüye kullanmasını önleyecek yerleşik korumalara sahip olması lazım.