DeepSeek, kısa bir süre önce yaptığı hızlı çıkışla AI (yapay zeka) gündemini ele geçirmeyi başardı. Çinli girişim DeepSeek, OpenAI’nin muazzam donanım ve altyapı kaynaklarına sahip olmamasına rağmen, ChatGPT o1 kadar güçlü bir mantık modeli geliştirmeyi başardı. Ayrıca girişim, DeepSeek R1’i eğitmek için eski çipleri ve yazılım optimizasyonlarını kullandı.
DeepSeek projesinin muhtemelen pek çok alanda hedefine ulaştığı söylenebilir. Girişim, yapay zeka alanında çok ciddi bir rekabet imkanı yarattı ve tüm yaptırımlara rağmen Çin’e bir mücadele şansı verdi. Ayrıca DeepSeek, diğer yapay zeka donanım şirketlerinin büyük miktarlarda değer kaybetmesine sebep olarak ABD borsasında yaklaşık 1 milyar dolar kaybetmelerine sebep oldu. Son olarak DeepSeek, Çin’e TikTok’tan çok daha güçlü olabilecek bir yazılım silahı verdi. İsteyen herkes DeepSeek modelini bilgisayarına yükleyebiliyor ve başka modeller oluşturmak için kullanabiliyor.
Bütün bu haberlerin ve önemli gelişmelerin arasında, önemli bir OpenAI güvenlik araştırmacısının daha istifa ettiği haberleri çok dikkat çekmeyebilir. Ama şimdi, Steven Adler isimli mühendis, geçen yıl OpenAI’dan ayrılan mühendislerin arasında yer aldığını doğruladı.
Adler, X’te yaptığı paylaşımda, dört yılın sonunda şirketten ayrıldığını ve şirketteki çalışmalarının büyük bir kısmını özleyeceğini söyledi. Ancak sonrasında, “bugünlerde AI gelişiminin hızından oldukça korkuyorum” diyerek paylaşımını çok daha karamsar bir yöne taşıdı.
Adler’in açıklaması, AI’nin kaçınılmaz sonumuzu getireceğini düşünen diğer AI uzmanlarının korkularını yansıtıyor. Eski ChatGPT güvenlik araştırmacısı, gelecekten endişe duyduğunu açıkça söylüyor: “Gelecekte bir aileyi nerede büyüteceğimi veya emeklilik için ne kadar tasarruf edeceğimi düşündüğümde, şu soruyu sormadan edemiyorum: İnsanlık o noktaya gelebilecek mi?”
Çok riskli bir kumar
Adler, OpenAI’den ayrılmasının sebebi hakkında bir açıklama yapmadı veya onu tam olarak neyin bu kadar korkuttuğunu söylemedi. Ancak Adler, AGI (yapay genel zeka) yarışının çok riskli bir kumar olduğunu düşündüğünü belirtti. Henüz hiçbir laboratuvarın AGI’nin getirebileceği öngörülen sorunlara karşı bir çözümü olmadığını ve bu yarış ne kadar hızlanırsa, bir çözümün bulunma ihtimalinin de o kadar azaldığını söyledi.
AGI, herhangi bir sorunu çözmeye çalışırken bir insanın yaratıcılığı ve yeteneğiyle eşleşecek bir AI türü olarak tanımlanabilir. Ancak AGI ayrıca çok daha fazla bilgi tutacağından, herhangi bir görevi bir insandan çok daha etkili bir şekilde çözebilir. AI, AGI ve süper yapay zeka (ASI) ile ilgili en önemli güvenlik meselesi uyum. Geliştirilecek AI, insanlığın çıkarlarıyla her düzeyde uyumlu olmak zorunda. AI’nin insanlığın sonunu getirebilecek çözümler geliştirmesini engellemek için bundan emin olmamız gerekiyor.
Ancak, ChatGPT ve DeepSeek gibi gerçek yaşam ürünleri bize şimdiden iki farklı uyum türü sunuyor. ChatGPT, muhtemelen ABD ve Batı çıkarlarıyla daha uyumlu bir yol izlerken, DeepSeek, öncelikle Çin çıkarlarını gözetecek şekilde kuruldu ve bazı yanıtlarda uyguladığı sansürlerle bu uyumu gösteriyor.
Ayrıca Adler, direkt olarak adını vermemiş olsa da DeepSeek’in başarısından da endişeleniyor gibi gözüküyor. Mühendis, bazı geliştiriciler AI’nin uyumluğuna öncelik verse de, diğerlerinin bazı önlemleri uygulamadan geliştirme yapmaya devam edebileceğini ve çok daha tehlikeli sürümler oluşturabileceğini belirtti.
Adler’in kariyerinin geleceği şimdilik belirgin değil, ancak hala yapay zeka güvenliğiyle ilgileniyor gibi görünüyor. X’te insanlara yapay zeka güvenliği / politikasındaki “en önemli ve ihmal edilen fikirlerin” ne olduğunu sordu ve “kontrol yöntemleri, entrika tespiti ve güvenlik vakaları” konusunda heyecanlı olduğunu ekledi.