Perakende alanında yaklaşık 160.000 URL’ye sahip bir müşterim var. Çığlık atan kurbağa bana bunların %48’inin 405 hata olduğunu söylüyor. Bu, sayfaların 200 olarak yüklenmesine neden olmaz.
Bu durum yalnızca sunucuların bot tarzı istekleri engellemesinden mi kaynaklanıyor? Ve gerçek kullanıcılar ve Google yine de sayfalara sorunsuz bir şekilde erişebilir.
Ayrıca masaüstü sitenin JavaScript ağırlıklı olması veya botun engellenmesi nedeniyle masaüstündeki PageSpeed Insights bazen NO_FCP gösteriyor. Mobil, muhtemelen daha çok sunucu tarafında olduğundan veya mobil botun engellenmediği için iyi işleniyor.
Sem Rush aynı zamanda trafikte de büyük bir düşüş olduğunu gösteriyor ve bunun yanlış 405 hatalarını tespit etmesinden kaynaklandığını varsayıyorum.
Siz böyle bir şeyle karşılaştınız mı? Ayrıca çıkarımlarımda haklı mıyım?
Her türlü yardımı takdir ediyorum

405 wouldnt be due to a blocked crawler, you’d get a 403 or something like that. Also blocked screaming frog or semrush would have no impact on your traffic if they were false positives as neither acts like Google and if googles seeing them as 405s then they’re not false positives. I’d check search console and have to dig deeper into the urls to figure out what’s going on but with 405s they’re probably doing something server side you’d need to dig into what’s not getting allowed here.
Good luck
Whats in the URLs? Are they real or do they have parameters?
Like:
primaryposition . com/blog/ = real
primaryposition . com/blog/?=2_this_is_for_hubspot = tracking/ghost urls