Rusya, Çin, İsrail... Hepsi de dezenformasyon yaymak için ChatGPT kullanıyor!

ChatGPT'nin yaratıcısı OpenAI, Rusya, Çin, İran ve İsrail'in de aralarında bulunduğu ülkelerden dezenformasyon oluşturmak için yapay zeka araçlarını kullanan hesapları engelledi.

OpenAI, Rusya, Çin, İran ve İsrail bağlantılı operasyonların yapay zeka araçlarını dezenformasyon yaratmak ve yaymak için kullandığını ortaya çıkardı.

ChatGPT sohbet robotunun San Francisco merkezli geliştiricisi, yayınladığı raporda, beş gizli operasyonda yapay zeka modellerinin yüksek hacimde metin ve görseller üretmek için kullanıldığını ve bu yöntemle daha önce olduğundan daha az dil hatası yapıldığını, ayrıca kendi paylaşımlarına yorum ve yanıtlar üretildiğini belirtti. 

OpenAI raporunda, içeriklerin “Rusya'nın Ukrayna'yı işgali, Gazze'deki insanlık dramı, Hindistan seçimleri, Avrupa ve Amerika Birleşik Devletleri'ndeki siyaset ve Çinli muhalifler ve yabancı hükümetler tarafından Çin hükümetine yönelik eleştiriler” gibi konulara odaklandığı belirtildi.

Yapay zekaya dezenformasyon baskısı artıyor

OpenAI gibi hızla büyüyen yapay zeka şirketleri üzerindeki baskı artıyor zira teknolojilerindeki hızlı ilerlemeler, dezenformasyon yapanların gerçekçi deepfake'ler yaratmasının, medyayı manipüle etmesinin ve ardından bu içeriği otomatik bir şekilde yaymasının her zamankinden daha ucuz ve kolay olduğunu gösteriyor. Bu yıl yaklaşık 2 milyar insan sandık başına giderken, politikacılar şirketleri uygun koruma önlemleri almaya ve uygulamaya çağırdı.

Microsoft destekli OpenAI, bu tür dezenformasyon kampanyalarını ifşa etmeye kararlı olduğunu ve tespit ve analizi “daha etkili” hale getirmek için kendi yapay zeka destekli araçlarını geliştirdiğini söyledi. OpenAI, güvenlik sistemlerinin faillerin çalışmasını şimdiden zorlaştırdığını ve modellerinin istenen metin ya da görüntüleri üretmeyi birçok kez reddettiğini de sözlerine ekledi.

Raporda OpenAI, devlete bağlı birkaç tanınmış dezenformasyon aktörünün araçlarını kullandığını ortaya koydu. Bunlar arasında ilk kez 2022'de keşfedilen ve genellikle Ukrayna'ya verilen desteği baltalamaya çalışan Doppelganger adlı bir Rus operasyonu ve Pekin'in çıkarlarını yurtdışına taşıyan Spamouflage olarak bilinen bir Çin ağı da vardı. Her iki kampanya da X gibi platformlarda yayınlamadan önce birden fazla dilde metin veya yorum oluşturmak için modellerini kullandı.

Daha önce bildirilmeyen ve Bad Grammar olarak adlandırılan bir Rus operasyonunu da açığa çıkaran rapor, bu operasyonun OpenAI modellerini bir Telegram botunu çalıştırmak için kod hatalarını ayıklamak ve daha sonra mesajlaşma platformu Telegram'da yayınlanan Rusça ve İngilizce kısa, siyasi yorumlar oluşturmak için kullandığını belirtti.

Ayrıca şirket, Tel Aviv merkezli STOIC adlı bir siyasi kampanya yönetimi şirketi tarafından yürütüldüğü iddia edilen ve modellerini X, Instagram ve Facebook'da makaleler ve yorumlar oluşturmak için kullanan İsrail yanlısı bir dezenformasyon girişimini engellediğini söyledi.

Sonraki Haber

Forum