SaaS’ımın ön yüzü olarak programatik bir SEO açılış sayfası çalıştırıyorum. Yüksek finans konusu, 20.000’den fazla açılış sayfası (ideal olarak büyütmek istiyorum). Crunchbase, Pitchbook vb.’yi düşünün.

DR’m 54.

Kimse içeriğimin kötü olduğunu söylemeden önce, bunlar değerleme verileri, finansallar, değerleme çarpanları, şirket bilgileri, anlaşma faaliyetleri vb. içeren yüksek kaliteli şirket profilleridir. Diğer sayfalarda piyasa özetleri, sektör değerleme verileri, endeksler ve açıkçası başka hiçbir yerde bulunmayan her türlü süper yüksek kaliteli finansal içerik bulunur.

Tüm sayfalar birbirinden çok farklıdır. Otomatik olarak günlük olarak güncellenir, grafikler, metinler, kesinlikle hiçbir yapay zeka dahil değildir. Hepsi birbirine bağlı, hepsi doğru meta, site haritası vb.

Allah aşkına bu sayfaların yarısından fazlasını indeksleyemiyorum. Herhangi bir kural yoktur ve indeksleme tamamen rastgeledir. Bir şirket profili indekslenebilirken diğeri indekslenmeyebilir. Bir sektör özeti indekslenecek, diğeri indekslenmeyecek. "Düzeltme doğrulanıyor" hiçbir şey yapmaz.

Ayrıca eski 404 ve diğer hata sayfaları çağlardan beri GSC’de duruyor. Artık site haritamda olmasalar bile yeniden taramanın onları tekrar GSC’ye koyduğunu görüyorum, her şey temiz ve doğru. Peki neden oradalar?

Ne yapılacağı hakkında fikri olan var mı? Bu sayfaların sayısını 10 katına çıkarmak istedim çünkü o kadar inanılmaz bir içeriğe sahibim ki ücretsiz olarak vazgeçebilirim (platforma gitmeyi teşvik etmek için bazı CTA’larla), ancak bir şeyler çok yanlışsa site haritasına binlerce sayfa daha bırakamam.

Bu neden oluyor? Eşyalarını Google’da bulunduran, çok düşük kaliteli, eski ya da tamamen yanlış olan çok sayıda büyük platform görüyorum, bu yüzden bir yolu olmalı.

Ayrıca robots.txt dosyasında bloke edip toplu olarak yayınlamayı da düşünüyordum ama bu gerçekten bir fark yaratır mı? Biraz rahatsız edici ve sistemle oyun oynuyormuş gibi hissettiriyor, bazı sayfaların daha kötü ya da daha iyi olması gibi bir durum söz konusu değil.