512 Bin Satır Kod Nasıl Sızdı?
Anthropic'in en popüler geliştirici aracı Claude Code, 31 Mart 2026'da büyük bir sızıntıyla gündem oldu. npm'e yüklenen 2.1.88 sürümünde, 59.8 MB'lık bir .map dosyası — yani JavaScript source map — paket içinde unutulmuş. Bu dosya normalde sadece dahili hata ayıklama için kullanılır ve üretim paketinde bulunmaması gerekir.
Güvenlik araştırmacısı Chaofan Shou (@Fried_rice) durumu sabah saatlerinde fark edip X'te paylaşınca, saatler içinde yaklaşık 1.900 TypeScript dosyası ve 512.000 satırlık kaynak kod GitHub'da yüzlerce kez fork'landı. Anthropic'in açıklaması kısa ve net oldu: "Bu bir güvenlik ihlali değil, insan hatasından kaynaklanan bir paketleme sorunuydu."
Ama asıl ilginç kısım, kodun içinden çıkanlardı.
Sızıntıda Neler Ortaya Çıktı?
Bunu açıkçası bir geliştirici olarak merakla inceledim. Claude Code kaynak kodu sızdı başlığının altında düşündüğünden çok daha fazlası var. Sadece "birkaç dosya açığa çıktı" gibi bir durum değil — Anthropic'in iç mutfağı, stratejik kararları ve henüz duyurmadığı özellikler tek seferde ortaya döküldü.
Anti-Distilasyon Mekanizması
Claude Code, API isteklerinde anti_distillation: ['fake_tools'] parametresi gönderiyor. Bu ne demek? Sunucu tarafında sahte araç tanımları enjekte ediliyor ki, rakip şirketler trafik analizi yaparak Claude'un davranışını kopyalamaya çalışırsa yanıltıcı verilerle karşılaşsın. Yani bir nevi "yapay zeka tuzağı" kurulmuş.
Undercover (Gizli) Mod
Belki de en çok konuşulan detay bu oldu. undercover.ts dosyası, Claude Code'un açık kaynak projelerde kullanıldığında tüm Anthropic referanslarını otomatik olarak gizlediğini gösteriyor. Sistem prompt'unda şu ifade dikkat çekiyor: "You are operating UNDERCOVER... Your commit messages MUST NOT contain ANY Anthropic-internal information. Do not blow your cover."
Bir dakika — bu, Anthropic çalışanlarının açık kaynak projelere Claude Code ile katkı yaparken bunu gizlediği anlamına geliyor. Etik açıdan tartışmalı mı? Kesinlikle. Claude Code'un başkanı bile son katkılarının %100'ünün Claude Code tarafından yazıldığını söylemişti.
Sinir Algılama Sistemi
Claude Code, kullanıcının sinirlenip sinirlenmediğini regex ile tespit ediyor. Evet, yapay zeka değil — düz metin eşleştirme. Kodda "wtf", "shit", "fuck you", "this sucks" gibi ifadeleri yakalayan bir regex kalıbı var. Bunun sebebi muhtemelen sinirli kullanıcılara farklı yanıt stratejisi uygulamak, ama LLM yerine regex kullanmaları performans odaklı bir tercih.
Gizli Model İsimleri
Kodda üç dahili model kod adı ortaya çıktı: Capybara (Claude 4.6 varyantı), Fennec (Opus 4.6) ve Numbat (henüz duyurulmamış bir model). Bu isimlerin hepsi hayvan — Anthropic'in isimlendirme geleneğine uygun.
KAIROS: Otonom Ajan Modu
Henüz yayınlanmamış bir özellik olan KAIROS, Claude Code'un kullanıcı boştayken arka planda çalışmaya devam etmesini sağlıyor. İçinde /dream komutuyla hafıza damıtma, günlük log tutma, GitHub webhook entegrasyonu ve 5 dakikalık cron döngüleri var. Bu, Claude Dispatch ile birleştiğinde oldukça güçlü bir otonom geliştirme ortamı anlamına gelebilir.
Bu İlk Kez Mi Oluyor?
Hayır, ve işin asıl can sıkıcı kısmı da bu. Şubat 2025'te benzer bir sızıntı yaşanmıştı ve Anthropic acilen düzeltmişti. 13 ay sonra aynı temel hata tekrarlandı. Sebebi de ilginç: Claude Code, Bun kullanılarak derleniyor ve Bun varsayılan olarak source map üretiyor. Birisin bunu production build'de kapatması gerekiyordu — ama kimse kapatmamış.
Hatta Bun'ın kendi issue tracker'ında (oven-sh/bun#28001) 11 Mart'ta açılmış bir hata raporu var: "Source map'ler production'da da sunuluyor." Yani sorun bilinen bir sorundu.
Anthropic Bundan Ne Kadar Etkilenir?
Anthropic, 2026'nın ilerleyen aylarında halka arz (IPO) planlarken bu sızıntı hiç iyi zamanlama değil. Gizmodo'nun ifadesiyle "tam olarak yanlış zamanda" geldi.
Gerçek hasar açısından bakarsak:
Müşteri verisi sızmadı — bu önemli. API anahtarları, kullanıcı bilgileri falan yok.
Model ağırlıkları açığa çıkmadı — yani Claude'un kendisi değil, sadece onu kullanan araç sızdı.
Rekabet avantajı kaybı — xAI Grok Build gibi rakipler, Claude Code'un sistem prompt stratejisini, araç mimarisini ve ajan koordinasyon mantığını artık görebiliyor.
Güven sorunu — "Responsible AI" sloganıyla bilinen bir şirketin kendi kodunu iki kez sızdırması, kurumsal müşterilerde soru işareti yaratabilir.
GitHub'da 41.500'den fazla fork yapıldı ve birden fazla mirror repo hâlâ aktif. Sızıntıyı takip eden ccleaks.com gibi siteler bile kurulmuş.
Geliştiriciler İçin Ne Anlama Geliyor?
Benim açımdan en değerli çıkarım şu: Claude Code'un "sihri" modelde değil, sistem prompt mühendisliğinde. Sızan kodda 110'dan fazla farklı prompt dizesi var. Çoklu ajan koordinasyonu bile kod yerine sistem prompt'larıyla yönetiliyor — mesela alt ajanlara "zayıf işi onaylama" talimatı prompt olarak veriliyor.
Bu, prompt mühendisliğinin ne kadar kritik bir disiplin olduğunu bir kez daha kanıtlıyor. Bir yapay zeka aracının rekabet avantajı, modelin kendisi kadar ona verilen talimatlarla da şekilleniyor.
Pratik bir uyarı olarak: eğer açık kaynak projelerde çalışıyorsan, gelen PR'lardaki CLAUDE.md dosyalarını mutlaka kontrol et. Bu dosyalar Claude Code'a özel talimatlar içeriyor ve kötü niyetli bir katkıda bulunan, prompt injection benzeri talimatlar gizleyebilir.
Sıkça Sorulan Sorular
Claude Code'un kaynak kodu tamamen açık mı artık?
Resmen hayır — Anthropic sızan sürümü npm'den kaldırdı. Ama kod GitHub'da yüzlerce mirror'da mevcut ve geri toplanması pratik olarak imkânsız.
Claude Code kullanmaya devam etmek güvenli mi?
Evet. Sızıntı aracın kaynak kodunu içeriyordu, kullanıcı verilerini veya API anahtarlarını değil. Claude Code'u güncellediysen (2.1.89+) sorun yok.
Undercover modu ne anlama geliyor?
Anthropic çalışanlarının açık kaynak projelere Claude Code ile katkı yaparken Anthropic referanslarını gizlemesini sağlıyor. Bu, AI destekli katkıların şeffaflığı konusunda tartışma başlattı.
Bu sızıntı rakip şirketlere avantaj sağlar mı?
Kısmen. Sistem prompt stratejisi ve araç mimarisi görünür hâle geldi, ama Claude'un asıl gücü olan model ağırlıkları sızmadı. Anti-distilasyon mekanizmaları da artık biliniyor, bu da onları daha az etkili kılıyor.
Peki Bundan Sonra Ne Olacak?
Anthropic, paketleme sürecinde "önleyici tedbirler" alacaklarını söyledi — ama bunu 2025'te de söylemişlerdi. Asıl mesele şu: AI destekli kodlama araçları bu kadar kritik iş akışlarının parçası oldukça, bunları üreten şirketlerin kendi güvenlik pratiklerinin de aynı standartta olması gerekiyor.
Claude Code hâlâ piyasadaki en güçlü AI kodlama asistanlarından biri — bunu kullanan biri olarak söylüyorum. Ama "güvenilir AI" vizyonuyla yola çıkan bir şirketin aynı hatayı iki kez yapması, en hafif tabirle düşündürücü.

















Yorumlar (0)