Yapay zeka sohbet botları (Chatbot), teknoloji standartlarına göre nispeten eskidir. Ancak işin içine yapay zekayı tam anlamıyla sokan OpenAI'nin ChatGPT’si, Microsoft'un Bing'i ve Google'ın Bard’ı liderliğindeki en yeni ürünler, her zaman olumlu nedenlerle olmasa da daha önceki örneklere göre çok daha yetenekli olduklarını kanıtlıyor.
Yapay zeka gelişimindeki son atılımlar, şimdiden yanlış bilgilendirme, dezenformasyon, intihal ve makine tarafından üretilen kötü amaçlı yazılımlar hakkında endişeler yarattı. Üretken yapay zekanın ortalama bir internet kullanıcısının mahremiyeti için nasıl sorunlar oluşturabileceği sorunun cevabı ise, uzmanlara göre, büyük ölçüde bu botların nasıl eğitildiği ve onlarla ne kadar etkileşim kurmayı planladığımızla ilgili.
Yapay zeka sohbet botları ve Common Crawl
Yapay zeka sohbet botları, insan benzeri etkileşimleri taklit etmek için, önemli bir kısmı Common Crawl gibi depolardan türetilen büyük miktarda veri üzerinde eğitilir. Common Crawl, açık web'i gezerek yıllar boyunca petabaytlarca veri topladı. Stanford'un bilgisayar bilimi bölümünde doktora öğrencisi ve Microsoft Research'te eski yapay zeka asistanı olan Megha Srivastava, “Bu modeller, internetteki halka açık verilerin büyük veri kümeleri üzerinde eğitim veriyor” diyor. Srivastava'nın söylediğine göre ChatGPT ve Bard, Common Crawl'ın verilerinin “filtrelenmiş” bir kısmını kullansalar da, modelin devasa boyutu “birinin verileri tamamen inceleyip sterilize etmesini" imkansız kılıyor.
Ortalama bir kullanıcı için erişimi zor olan ve internetin uzak köşelerinde bulunan dikkatsizce oluşturulmuş veya düşük güvenliğe sahip verilerin bir eğitim setine fark edilmeden yerleştirilmiş olması ve sohbet robotu tarafından gelecekte tekrar edilmesi mümkün. Ve bir botun birinin gerçek iletişim bilgilerini vermesi, hiçbir şekilde olmayacak bir şey değil. Bloomberg köşe yazarı Dave Lee, Twitter'da birisi ChatGPT'den şifreli mesajlaşma platformu Signal'de sohbet etmesini istediğinde, gerçek telefon numarasını tam olarak verdiğini bildirdi. Bu tür bir etkileşim muhtemelen uç bir durum olsa da, bu öğrenme modellerinin erişebildiği bilgilerin dikkate değer olduğunu vurguluyor.
Ayrıca bu chatbot'lar, sizin onlara sunduğunuz verileri de öğrenme sürecine dahil edebiliyor. Yani siz bir veriyi onunla paylaştığınızda, o bu verileri başka birinin karşısına çıkartabiliyor. Aynı Samsung çalışanlarının başına geldiği gibi...
SANS Enstitüsü güvenlik organizasyonundan David Hoelzer, Engadget'e “OpenAI'nin sağlık verileri gibi belirli bilgileri toplamak ve modellerini eğitmek için bireylere atfetmek istemesi pek olası değil” dedi ve ekledi: “Ama yanlışlıkla orada olabilir mi? Kesinlikle...”
Kısacası yapay zeka sohbet botları hakkımızdaki açık bilgileri toplayabildiği gibi, onlarla paylaştığımız şeyleri de kendi eğitimleri için kullanabiliyor. Bu da, bu botları kullanan herhangi birinin, bize ait verilere rastlantı eseri ya da bilinçli olarak ulaşma ihtimali olduğunu gösteriyor.
Open AI, ChatGPT'ede veri gizliliğini korumak için hangi önlemleri aldığını veya eğitim setlerine yerleşmiş olabilecek kişisel olarak tanımlanabilir bilgileri nasıl ele aldığını açıklamamış olsa da, ChatGPT'nin kendisi “kullanıcıların gizliliğini ve kişisel bilgilerini koruyan etik ve yasal standartları takip edecek şekilde programlandığını” ve “(kendisine) sağlanmadığı sürece kişisel bilgilere erişimi olmadığını” söylüyor.
Google, kişisel olarak tanımlanabilir bilgilerin sohbetler sırasında paylaşılmasını önlemek için Bard'da benzer “korkuluklar” bulunduğunu söylüyor. Bard'ın özel bir gizlilik politikası bulunmuyor ve bunun yerine diğer Google ürünleri tarafından paylaşılan kapsamlı gizlilik belgesini kullanıyor.