merhaba arkadaşlar, birkaç K URL’si olan web sitesi için bir indeksleme denetimi yapmam gerekiyor.
Tam olarak doğru aracı bulamıyorum Google’ı ziyaret ediyor ve bana URL’lerimin durumlarını geri veriyor. Tek gördüğüm, VARSAYIMLARI paylaşabilen araçların listesi (örneğin, durumları buna göre paylaşmak için robot etiketlerinizi kontrol etmek, bu doğru değil).

Google Search Console does this and its the only tool I know of. It use d to give a % indexed per sitemap but doesnt do this anymore.
In GSC – it will tell you how many pages are indexed, how many are not and why.
If there’s any technical error, the URLs that are in that group, are listed together. Any pages that can be crawled but are not indexed are listed as Crawled, Not indexed. This is not an error – there is nothing technically wrong. In these cases you simply do not have enough authority to be indexed – either at all or in the target indices your pages are aimed (via the slug/page/document name)
The second part of the screen shows why pages **aren’t** indexed