Çevre sektörü sektöründe, replatform yapmak istedikleri büyük bir web özelliği (2 milyon sayfadan fazla) işleten potansiyel bir müşterim var. Mevcut site ölü bir yığın üzerine oluşturulmuştur ve güvenlik, istemci tarafı performansı ve ölçeklendirme sorunları nedeniyle tepki/sonraki/grafikle hareket etmek istiyorlar.
Kâr amacı gütmeyen bir kuruluş oldukları için bütçe sıkıdır ve veriler düğüm konumları için sürekli değişmektedir; Yani ön hazırlama masanın dışında. SSR, iyileştirmek için sınırlı bütçenin olduğu mevcut donanımları nedeniyle sorunludur (bu yüzden tahminim olmayacaktır).
CTO sadece CSR yapmak istiyor, ardından her şeyi CDN üzerinden ön plana çıkarmak istiyor. Bu araştırmacılar için iyi olsa da, bunun SEO’larını tanklayacağından eminim.
Sözleşmemde bunların çoğunu çağırabiliyorum, ancak CYA’nın büyük bir hayranı olarak, ilk DOM yapısının Google tarafından endekslendiği zaman zaman delta’yı bilen var mı, daha sonra JS render trawnering sayfayı ayrıştıracak, sonra işlenen veriler puanlanıyor ve SERP’de ortaya çıkıyor, böylece bunu çağırabiliyorum? Ayrıca işleme akışında bir bağırsak kontrolü yardımcı olacaktır.
>. While this should be fine for researchers I’m fairly certain this will tank their SEO.
You didn’t say why though – what is it in the documents
At least the backlinks don’t need to be rendered, right? 🙂
>does anyone know the time delta from when the initial DOM structure gets indexed by Google, then JS rendering crawlers will parse the page ,
Depends on how much text needs to be fetched. And how much do you need to bve fetched for indexing/ranking?
For me the most important data is
1. Slug, Title and H1
2. …..text
3. Links inside the content
With large sites – shaping authority out to the tiers is always a difficult job – why not just use super fast pages or HTML?