Başlıca AI tarayıcılarında (GPTBot, ClaudeBot, PerplexityBot) yönlendirme davranışı üzerine biraz araştırma yaptım ve şunu düşündüm: [r/seo](r/seo) bulguları yararlı bulacaktır. Buradaki geleneksel inanışın çoğu hala Google merkezlidir ve AI tarayıcı davranışı anlamlı derecede farklıdır.

JavaScript ve meta yenileme yönlendirmeleri çıkmaz sokaklardır

Büyük LLM tarayıcılarının hiçbiri JavaScript çalıştırmaz veya meta yenileme etiketlerini işlemez. Vercel’in 1.3B getirme analizi, ChatGPT ve Claude’un JS dosyalarını getirse de (isteklerin sırasıyla %11,5 ve %23,8’i) bunları yürütmediklerini doğruladı. Kaynak sayfa dizine eklenir; hedef tamamen göz ardı edilir. Benson SEO’nun 14 günlük sunucu günlüğü analizi bunu doğruluyor: AI botları, bir tarayıcının veya Googlebot’un yaptığı gibi herhangi bir ön uç komut dosyasını yürütmez. Google’ın Gemini’si tek istisnadır ve Googlebot’un tüm oluşturma hattını devralır.

404 oranları şok edici derecede yüksek

∙ GPTBot: Getirmelerin %34,82’si 404’lere ulaştı (Vercel)

∙ ClaudeBot: %34,16 (Vercel)

∙ Googlebot: %8,22 (Vercel)

Ahrefs, önde gelen AI asistanlarının alıntı yaptığı 16 milyon benzersiz URL’yi analiz etti ve bunların, kullanıcıları Google Arama’ya kıyasla 2,87 kat daha sık ölü sayfalara yönlendirdiğini buldu. ChatGPT en kötü suçluydu: 404 döndüren tüm alıntı yapılan URL’lerin %2,38’i, Google’ın ise %0,84’ü.

Tarama sıklığı aralıklıdır, sürekli değildir

Googlebot’un istikrarlı uyarlanabilir taramasından farklı olarak, AI eğitim tarayıcıları seyrek aralıklarla çalışır. 48 günlük bir sunucu günlüğü çalışmasında, GPTBot’un 3 dakikalık bir pencerede 152 istek başlattığı ve ardından büyük ölçüde sessiz kaldığı kaydedildi. Cloudflare’in tarama trafiği analizi, bunu yapay zeka taramasının ~%80’inin model eğitimi için yapılmasına bağlar ve bu da doğası gereği epizodiktir. Pratik sonuç: endeksleri hızla bayatlıyor.

Yönlendirme zinciri atlama/gecikme sınırları belgelenmemiş

OpenAI, Anthropic veya Perplexity’den hiçbiri bir yönlendirme zinciri limiti yayınlamadı. Hiçbir üçüncü taraf araştırması da (benim bulabildiğim) boşluğu doldurmadı. Google için genel tavsiye zincirleri 5-10 atlamanın altında tutmaktır. Yapay zeka tarayıcılarının genellikle daha az olgun altyapıya sahip olduğu göz önüne alındığında, bunların daha muhafazakar olduğu yönünde güvenli bir varsayım vardır. Zincirleri maksimum 1-2 atlamada tutun.

Uygulayıcılar için çıkarımlar

  1. Yalnızca sunucu tarafı 301/302. Yapay zeka görünürlüğü önemliyse JS veya meta yenileme yönlendirmesi yoktur. Bunlar her zaman SEO için önerilmez.

  2. Eski yönlendirmeleri Google’da olduğundan daha uzun süre aktif tutun; eski dizinler, bu tarayıcıların hâlâ aylar önce kullanımdan kaldırdığınız URL’lere ulaştığı anlamına gelir.

  3. 404’leri agresif bir şekilde yönlendirin (halüsinasyon görmüş 404’ler dahil). 404’ler ve 410’lar, Google’da olduğu gibi dizinlerini güncellemek için kullanılmıyor. Bu trafiği en alakalı içeriğe yönlendirin.

  4. Yönlendirme zincirlerini kısaltın! Bu zaten iyi bir tavsiye, ancak daha kolay pes eden ve daha az sıklıkta yeniden deneyen, daha az sabırlı AI tarayıcılarında görünür olmak istiyorsanız bu tavsiyeyi iki katına çıkarın.

Ne gördün?

Yönlendirmeye özgü araştırma şaşırtıcı derecede zayıftır. Sunucu günlük verileriniz veya başka örnek olay çalışmalarınız varsa bunları aşağıya gönderin. Uygulayıcı gözlemleri burada yayınlanan araştırmaların çok ilerisindedir.​​​​​​ Daha fazla gerçek veri görmeyi çok isterim.

(Son olarak: Kaynaklara bağlantı vermekten mutluyum ancak “geri bağlantı yok” kuralını görüyorum ve “bağlantılı gönderiler kaldırılacak.” Bir mod, yukarıda belirtilen kaynaklara bağlantı vermenin uygun olup olmadığını açıklayabilir mi lütfen?)