Yönettiğim bir ecom mağazası için seçildiğinde URL’lere sorgu ekleyen çok sayıda filtrem var.
Örneğin /?filter=blue Bu tür sayfaların dizine eklenmesine veya hatta taranmasına (?) ihtiyacım yok, eğer yanılıyorsam beni düzeltin. Robots.txt dosyasında belirli sorgu parametrelerini engelledim ancak GSC bunları hâlâ buluyor. Kısacası, ~ 900 bin dizine eklenmemiş sayfam ve sorgu parametrelerine sahip ~ 140 bin dizine eklenmiş sayfam var. Bu pisliği temizlemeye nasıl başlanır?
Teşekkürler!
