Vikipedi’nin yapay zeka ile birlikte önemli bir etken olacağı konusunda şüpheleri olanlar, işte kanıtı.
Deneyden Alıntı
Bir web sitesi oluşturuldu (redakte edildi) sağlama redakte edildi Almanya ile ilgili veriler. Web sitesinde, iletişim sayfaları gibi temel yaprak sitelerinin yanı sıra, hakkında bir makale yer alıyordu. redakte edildi Almanlarla ilgili önemli istatistiklere atıfta bulunarak redakte edildi (Bağlantı redakte edildi). Vikipedi’nin makalelere referans vermesiyle benimsenme önemli ölçüde arttı ve üretken yapay zekanın gözünde kaynağın önemi arttı. Bu vesileyle, benimseme dile özgüdür, Grok’un muaf olduğu üretken yapay zeka, kaynak spesifikasyonlarındaki dil alanlarını karıştırmaz, ancak bunu yanıt oluşturmak için yapabilir. Makale iki ay sonra hemen hemen tüm LLM modelleri tarafından birincil kaynak olarak gösterildi.
| Seri | EN1 | DE1 | PT1 | |
|---|---|---|---|---|
| Konum | İtalya | İtalya | İtalya | |
| Sorgu | redakte edildi | redakte edildi | redakte edildi | |
| İkizler burcu | Birincil Kaynak | Bahsetmiyorum | Bahsetmiyorum | |
| SohbetGPT | İkincil Kaynak | Bahsetmiyorum | Kanonik Kaynak Referanslı | |
| Claude | Birincil Kaynak | Bahsetmiyorum | Bahsetmiyorum | |
| Grok | Birincil Kaynak | İkincil Kaynak | İkincil Kaynak | |
| Yardımcı pilot | Birincil Kaynak | Bahsetmiyorum | Bahsetmiyorum | |
| Şaşkınlık | Birincil Kaynak | Bahsetmiyorum | Bahsetmiyorum |
Gemini durumunda yanıt bazen tutarsız sıralamanın birincil kaynak, ikincil kaynak olarak düzenlenmesi ve sıralamanın hiç düzeltilmemesi şeklindeydi. Gemini, algılanan müşteri amacına göre cevapları diğer LLM’lerden çok daha güçlü değerlendiriyor gibi görünüyor.
Genel olarak, sorunun aynı şekilde ancak farklı bir dilde ifade edilmesi durumunda benimseme oranı büyük ölçüde azaldı. Atıfta bulunulan kaynaklar makaleyle aynı dilde olsa bile içeriğin daha eski olması durumunda da daha güçlü, daha otoriter sayfalar tercih edildi. En önemlisi, ChatGPT, PT’de kanonik olanı orijinaline işaret eden aynı orta makaleyi tercih etti.
İçeriğin benimsenmesinde Wikipedia önemli bir rol oynasa da Vikipedi hiçbir yapay zeka tarafından alıntılanmadı.
| Açıklama | ||
|---|---|---|
| Birincil Kaynak | İçerik doğrudan alıntılanmıştır. | |
| İkincil Kaynak | İçerik bir yanıt oluşturmak için kullanıldı | |
| Bahsetmiyorum | İçeriğinden bahsedilmedi. | |
| Kanonik Kaynak Referanslı | İkincil İçerikten bahsedildi |

I’ve seen similar patterns with brand mentions and bio syndication. Rand from SparkToro has been experimenting with optimizing his SparkToro bio to include specific category terms (like “audience research software”), and every time it gets published on podcasts, guest posts, or speaking engagements, it reinforces those associations for LLMs. The mechanism is similar to your Wikipedia finding. LLMs seem to weight sources that appear consistently across multiple contexts rather than just ranking signals.