Geçtiğimiz günlerde Reddit ve GitHub platformlarında sızdırılan bir sistem komutunun, OpenAI’ın en yeni büyük dil modeli (LLM) olan GPT-5’e ait olduğu iddia edildi. Bu komut, ChatGPT’nin kullanıcılarla nasıl etkileşim kuracağı ve çeşitli görevleri nasıl yerine getireceği konusunda belirlenen kuralları içeriyor.
Sızıntı ilk olarak bir Reddit kullanıcısı tarafından “GPT-5 için kelime kelime sistem komutu ve araç bilgisi” olarak paylaşıldı. Aynı komutun tamamı, Reddit paylaşımından bir gün önce GitHub’da da ortaya çıkmıştı. Sızdırılan komut, “Siz ChatGPT’siniz, GPT-5 modeline dayanan ve OpenAI tarafından eğitilen büyük bir dil modelisiniz.” ifadeleriyle başlıyor.
Komutta ayrıca GPT-5’in bilgi kesme tarihinin 2024-06 olarak belirtildiği görülüyor. Modelin kişiliği ise “v2” olarak listelenmiş, bu da ChatGPT’nin zaman içinde bazı kişilik değişiklikleri geçirdiğini gösteriyor. Sızdırılan komutlar, ChatGPT’nin artık sunmasına izin verilen yanıt türleri hakkında önemli bilgiler sağlıyor ve şirketin modelin davranışını nasıl şekillendirmeye çalıştığını ortaya koyuyor.
Dikkate değer bir değişiklik, GPT-5’e “İster misiniz?”, “Yapmamı ister misiniz?”, “Eğer isterseniz yapabilirim”, “Yapmamı isterseniz bana bildirin”, “Yapmalı mıyım?” gibi ifadeleri kullanmaması talimatını veriyor. Bu değişikliklerin, GPT-5’i daha doğrudan ve kullanıcı dostu hale getirmeyi amaçladığı düşünülüyor.
Sızıntının kaynakları sistem komutunun %100 gerçek olduğunu iddia etse de, Hacker News kullanıcıları komutun doğruluğunu ve tekrarlanabilirliğini sorguluyor. Bazı kullanıcılar, yanıltıcı veya tuzak komutların da mümkün olabileceğine dikkat çekiyor. Sistem komutları, bir yapay zeka modelinin tonunu, güvenlik davranışlarını ve araç kullanımını şekillendirdiği için bu tür sızıntılar büyük önem taşıyor.
Eğer bu sızıntı gerçekse, ChatGPT’nin nasıl yönlendirildiğine dair nadir bir bakış açısı sunuyor. Sahte olması durumunda ise, ne kadar kolay bir şekilde güvenilir görünen “sızıntıların” yayılabileceğini gösteriyor. Bu tür sızıntılar, jailbreak girişimlerine bilgi sağlayabilir ve en önemlisi LLM’lerin iç işleyişine dair önemli bilgiler sunabilir.
Sızdırılan komutta yer alan değişiklikler, GPT-5’i daha kolay kullanılır hale getirebilir. Ayrıca, günlük görevler oluşturma gibi otomasyon araçlarından da bahsediliyor. Ancak OpenAI’ın lansman materyalleri, tek ve statik bir komut yerine GPT-5’in yönlendirici/akıl yürütme yığınına vurgu yapıyor, bu da tek bir kanonik komut fikrini zayıflatıyor.
Söylentilere konu olan sistem komutu, OpenAI tarafından GPT-5’in iletişim kurma biçimini etkileyen bazı değişiklikler olduğunu gösteriyor. Buna “Bir sonraki adım belliyse, onu yapın” ve “Başlangıçta en fazla bir gerekli açıklayıcı soru sorun, sonda değil” gibi talimatlar dahil. Ayrıca, görüntülerin, hatta kendisinin görüntülerinin oluşturulmasıyla ilgili uzun yönergeler de bulunuyor.
Sızdırılan komutun gerçekliği henüz kanıtlanmadı. İçeriğin kısmi, güncel olmayan veya kasıtlı olarak sızdırılmış olabileceği ihtimali de bulunuyor. Bu sistem komutu gerçek olsa bile, modelin her sürümünde ve LLM’ye yapılan her küçük güncellemede değişmesi muhtemel. OpenAI, herhangi bir sistem komutunu yayınlamadı veya doğrulamadı; resmi GPT-5 materyalleri, tek bir statik komut yerine yönlendirilmiş bir sistemi tanımlıyor.




