Herkese merhaba – buradaki birinin neler olduğunu anlamama yardımcı olabileceğini umuyoruz. Haftalardır endeksleme ve trafik dalgalanmalarıyla mücadele ediyorum ve daha derin bir şeyin yanlış olduğundan şüphelenmeye başlıyorum.
Bağlam
3 ay önce piyasaya sürülen CrossFit Sporcuları için bir yarışma keşif sitesi işletiyorum. İşte evrim:
• Başlangıçta aşağıdakilerle başlatıldı:
• WWW alt alan boşluğu
• Detay sayfalarında .html uzantıları
• Sonra Vercel’e göç ettim ve:
• WWW kaldırıldı
• URL’lerden .html kaldırıldı
• Daha sonra,/yarışmalar/sümüklü sayfaları yeniden yapılandırdım →/yarışmalar/detaylar/slug daha iyi organizasyon için
• Ayrıca ülke/bölge/şehir sayfaları gibi yollar altında
/Yarışmalar/CrossFit/United-Kingdom/İngiltere/Chesterfield
Ama bir hata yaptım:
Site haritamda, yanlışlıkla aşağıdakileri yönlendiren URL’leri ekledim:
{
source: '/competitions/:sport/:country/:region',
destination: '/competitions/:sport/region/:country/:region',
}
… Böylece Google hem kanonik hem de yönlendirme sürümünü sürdürdü. Ve daha da kötüsü, bir süredir ana sayfaya işaret ediyordu …
✅ Ne düzelttim
• Site haritası artık yalnızca kanonik URL’leri (yönlendirme sürümleri yok) içerir.
• Kanonik etiketler doğrudur.
• Site hızlı ve endekslenebilir (önceden hazırlanmış sayfalar, SSG ile next.js).
• Site haritası 200 döner, geçerli görünür ve Google (birkaç günde bir) tarafından düzenli olarak getirilir.
• robots.txt doğrudur: Tüm botlara izin verir, site haritası düzgün bildirilir.
🚨 Şimdi garip sorun
1 Google Trafik Deseni: Başak, sonra toplam düşüş
• İzlenimlerde sürekli olarak 3-5 günlük bir artış alıyorum (günde 1.000+ izlenim / 50+ tıklama)
• Ardından, 2-3 gün boyunca trafik sıfıra yakın düşüyor-hiçbir şey konuşlandırmadığımda bile
Bu model tekrarlanır ve haftalarca gerçekleşir.
2 Vercel Dağıtım = Anında Trafik Ölümü (Görünüşe göre)
• Bir site güncellemesine (küçük bir güncelleme bile) bastığımda, Google trafiği saat içinde sıfıra düşer
• Site haritası dağıtımda yeniden oluşturulur (UPZ ile
Kontrol ettim:
• Vercel düzgün bir şekilde oluşturulur.
• Site haritası taze LastMod tarihleriyle yeniden üretilir (yeni tarih (). ToisOstring ()).
• Sayfalar dizinden kaybolmaz – sadece tüm izlenimleri kaybederler.
⸻
Sorularım:
• Her dağıtımda güncellenen LastMod, Google’ı şüpheli hale getirebilir ve tarama/yeniden değerlendirmeyi önceliklendirebilir mi?
• Vercel, Google’ın siteye geçici olarak nasıl davrandığına dair davranış (tam yeniden inşa, önbellek geçersiz kılma?) Dağılıyor mu?
• Bu yeni siteler için normal mi yoksa daha derin güven/endeksleme sorunlarının bir işareti mi?
• URL yapısı değiştikten ve site haritası temizliğinden sonra Google’ın “yerleşmesi” ne kadar sürer?
⸻
Herhangi bir içgörü için şimdiden teşekkürler. Geri bildirime tamamen açıkım ve gerekirse daha fazla ayrıntı paylaşmaktan mutluluk duyuyorum!
I will come back with a more detailed answer but starting here:
>
>• Could the lastmod being updated on every deploy make Google suspicious and reduce crawl/prioritize re-evaluation?
• Does Vercel deploy behavior (full rebuild, cache invalidation?) mess with how Google treats the site temporarily?
• Is this normal for newer sites, or a sign of deeper trust/indexing issues?
• How long does it take for Google to “settle” after URL structure changes and sitemap cleanups?
No – Google deosnt evaluate whole domains – its a page-by-page system. Your site “settles” when the majority of large variables settles. If Google doesnt trust your lastmod, it will just use its own data and filesize check. Ahrefs does this too – they track the file size at each crawl. But Google will index your pages jsut fine even if it doesnt trust lastmod (Gary Ylles)
I think people would need to see a redacted graph
Start with this:
`// BAD`
`lastmod: new Date().toISOString()`
`// BETTER`
`lastmod: lastContentChangeDate.toISOString()`
Then do NOT rebuild the entire site, only what you have updated, you can add hashes to pages.
Keep in mind that in this short time you had
* Multiple URL restructures
* Canonical tag pointing to homepage (which Google hates)
* Redirects indexed
* Sitemap errors (early on)
* And now: constant “fake” freshness signals
And last (not sure if you’re using the default ISR): the default for Vercel (actually Next.js) is `blocking`
It’s a bit too much. Just chill down. I know Vercel is not the best tool for new websites (and I fully support Vercel, Guillermo Rauch worked for me as a freelancer when he was 14 years old!) , but you should use staging environments before playing with things in productions.
Anyway, it seems like you’re on the right track. Now you need to stop publishing noise and only publish when things actually change, **absolutely nothing else**. Once Google sees that your site has stabilized, the spikes will become less frequent. Adding a few high-quality backlinks can help strengthen your position, and everything should work fine assuming the rest is in order.