E -ticaret arama için sorgu dizeleri kullanan sitelerle büyük tarama bütçesi hatalarıyla karşılaşan var mı?
Google, sitemin 2.000.000 URL’si olduğunu ve bunların sıralamasında geçen yıl tanklandığını söylüyor. Robots.txt’de endeks, kanonik ve engellemeyi denedim ama şans yok. Bu tür siteler için tarama bütçesini düzeltmek için en iyi uygulamalar var mı?
Bağlam için, bu sitenin site haritasında 537 sayfa vardır.
>Google says my site has 2,000,000 URLs and their ranking has tanked in the last year.
Are these ghost URLs – maybe urls with parameters in them? do you have screenshots?
What CMS are you using?
With 2m pages, I would try to find whats building them and kill that asap?
Then you can create wildcard 301s to terminate them to a single page – e.g. your HTML sitemap