Aleyda Solís, LinkedIn’de Dan Petrovic’in (Dejan’ın sahibi) orijinal içerik uzunluğu ile yapay zeka incelemelerinde en çok öne çıkan içerikleri karşılaştırdığı bir çalışmadan bir makale paylaşmıştı.
"2.000 kelimeyi aşan sayfaların getirisi azalıyor; daha fazla içerik eklemek, seçilenleri artırmadan kapsam yüzdenizi sulandırır."
Bu, araştırmadaki bir sonuçtu.
Harika bir çalışma. Genel olarak nihai sonuca katılıyorum (yukarıda belirttiğim sonuca değil), ancak raporun sonundaki sonuca:
"…yoğunluk uzunluğu yener. Bir sorgu için en uzun kaynak değil, en alakalı kaynak olmaya odaklanın."
Bu her zaman doğruydu.
Ancak bu, büyük içerik parçalarına (sütun içeriği) yer olmadığı anlamına gelmez. Bu çalışmanın genel içerik stratejisini ve hiyerarşiyi göz ardı ettiğini düşünüyorum.
Çalışma, içeriğinizin ne kadar uzun olduğunun bir önemi olmadığını, AI genel bakışlarında kabaca aynı miktarda kapsama alacağınızı gösteren büyük bir vurgu yapıyor.
Pek çok insan bunu görecek ve zamanlarını odaklayarak içeriklerini 1.500 kelimeden daha az olacak şekilde değiştirecek. 4000 kelime parçasını çağırmaya başlayacaklar "kullanışsız" Ve "müsrif" SEO açısından.
Uzun içerik parçaları da şunlarla birleştirilecektir: "daha az etkili" içerik parçaları.
Bu insanlar yanlış yerdeler ve kanalizasyona doğru dönmeye devam edecekler.
Bu şekilde düşünmek, Google’ın bazı keyfi konulara daha fazla önem verdiğini varsayar "darbe" tek bir sayfanın puanı ile o sayfanın içeriğinin, bağlantı ve ilgili kaynaklar nedeniyle sahip olabileceği güncel otoriteye karşı.
Daha kısa içerik parçalarının sindirimi daha kolaydır ve AI genel bakışının başarmayı amaçladığı şey de budur. Ancak içeriğin görüntülenmesine ilişkin kararlarında içeriğin otoritesi, topikal otorite ve bağlantı içeriği tarafından temsil edilmelidir ve temsil edilmelidir.
Sütun içeriğinin asıl amacı budur ve artık yapay zekanın sahaya çıkmasıyla bu durum değişmiyor.
Bunun gibi çalışmalar güzel ama seçtikleri kelimelere dikkat etmeleri gerektiğini düşünüyorum.
Üçüncü paket şu başlığı taşıyordu:
"Azalan İadeler: 1.500 kelimenin üzerindeki sayfalar daha fazla seçilmez."
Şöyle olmalıydı:
"İlginç Bilgi: 1.500’ün üzerindeki sayfalar daha fazla seçilmez."
Bu küçük bir nüans ama ilki, bunun üzerindeki içerik parçalarının buna değmeyeceğini ima ediyor.
bu ne yapmalı Bunun anlamı, hedefiniz Google AI genel bakışlarında görünmekse, daha uzun içerik yazmanın şansınızı artırmadığıdır.

I dont know that you can statistically prove this – or that changing methodology wont show substantial disagreement in rates.
But – in SEO short vs long seems to have always been a content industry slant.
I will always rely on Microsoft Clarity to tell me if readers are reading, what they’re reading and how much.
I will also continue to note that despite the claims that “dwell time” is real, nothing has ever been punished for allowing users to convert in seconds and dwell time would be disastrously bad for Google.
Secondly, as I’ve psoted around the web today, Google’s Search Team’s continued insistence “We will always show the most relevant page regardless of user experience” – shows that they dont care.
Long form is an argument made, it appears, by people who charge by the word. That ahs never been a good reason for anyone to buy into it as far as I care =)
This debate is so old despite nobody ever proving that in 2020, 2021, 2022, 2023….2026 people “want to read more and more”
=================
THE END
=================
Maybe they should publish the methodology, because as someone who has spent decades crunching data and doing research, I cannot even imagine how they reached this conclusion with a reasonably acceptable level of reliability. There are many arguments against it, and again, I have NO IDEA what methodology was used. Perhaps it’s a valid one that I simply cannot imagine.
But let’s start with the obvious. If I write a short, crappy article about cancer cells, will it really outperform a scientific paper? (Let’s assume all other conditions are equal, which is almost impossible, but for the sake of the argument.) Add to that the fact that current LLMs are basically glorified surfers that run the same searches everyone else does and then condense the results into an answer. In that context, content length is far less relevant than SERP position.
And these are just a couple of the most obvious, easy to see problems. Perhaps with a bit of explanation these issues can be addressed, but I honestly doubt it, the only thing I read here is short_length>density>entity and all AI models (all of them, no exception) work the exact opposite way.