ChatGPT, yüzeysel olarak bakıldığında bir dizi iş için faydalı olabilecek bir araç gibi görünebilir, ancak ondan önemli notları özetlemesini ya da çalışmanızda hata olup olmadığını kontrol etmesini istemeden önce, paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta belki de diğer kullanıcılara verdiği yanıtlar şeklinde geri dönebileceğini hatırlamakta fayda var. En azından bazı Samsung çalışanları, bunu en acı yoldan öğrendi.
The Economist Korea'ya göre, Samsung'un yarı iletken bölümü mühendisleri bir süredir ChatGPT'yi kullanıyorlar. Ancak bu süreçte çalışanların en az 3 kez gizli bilgileri ChatGPT'ye sızdırmış olduğu ortaya çıktı. Bir çalışanın ChatGPT'den hassas veritabanı kaynak kodunda hata olup olmadığını kontrol etmesini istediği, bir diğerinin kod optimizasyonu talep ettiği ve bir 3’üncüsünün de ChatGPT'ye kaydedilmiş bir toplantıyı aktararak tutanak oluşturmasını istediği bildirildi.
Raporlar, Samsung'un bu güvenlik hatalarını öğrendikten sonra, çalışanların ChatGPT istemlerinin uzunluğunu 1 kilobayt veya 1024 karakterlik metinle sınırlayarak gelecekteki olası sızıntıların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıca söz konusu 3 çalışan için soruşturma başlattığını ve benzer aksilikleri önlemek için kendi sohbet robotunu oluşturmak istediği söyleniyor.