
Yazan: Ryan Law
İçerik Pazarlama Direktörü, Ahrefs
ChatGPT’den spor yaparken kullanmak için en iyi kulak üstü kulaklıkları önermesini istediğinizde aslında ne oluyor?
Yapay zekâ arama motorları yanıtlarını nasıl üretir ve ürün önerilerini nasıl seçer? Google gibi geleneksel arama motorlarından nasıl farklıdırlar (ve nerelerde örtüşürler)?
Ve asıl önemli soru: sizin web sitenizin, markanızın ve ürünlerinizin görünmesini nasıl sağlayabilirsiniz?
Bu bölümü gözden geçirip katkıda bulundukları için Gianluca Fiorelli ve Mark Williams-Cook’a teşekkürler.
Yapay zekâ arama motorları, büyük dil modellerini (LLM’ler) kullanarak bilgi bulan ve yanıt üreten soru-yanıt sistemleridir.
Geleneksel arama motorları ile yapay zekâ arama motorları arasında bazı temel farklar vardır (ancak geleneksel arama motorları daha fazla yapay zekâ özelliği ekledikçe bu farklar giderek azalıyor):
ChatGPT, Claude veya AI Mode’da görebileceğinize benzer tipik bir yapay zekâ arayüzü şöyle görünür:

Böyle yanıtların içinde yer almanıza yardımcı olmak için önce yapay zekâ arama motorlarını çalıştıran temel süreçleri anlamanız gerekir.
LLM'ler devasa miktarda içerikle eğitilir. Pratikte Wikipedia'nın tamamını, Common Crawl veri setinin tamamını, Google Books'un tamamını ve webdeki milyonlarca, hatta yüz milyonlarca sayfayı "okumuş" gibidirler.
Bu eğitim verisi, LLM’in dünyayı “anlamasına” yardımcı olur. Kulaklık şirketiniz eğitim verilerinde ilgili bağlamlarda ve olumlu nitelemelerle (“fiyat/performans”, “spor salonu için harika” vb.) birlikte birçok kez geçiyorsa, kulaklıklarla ilgili istemlere LLM’in verdiği yanıtlarda şirketinizin anılma olasılığı yüksektir.
Biliyor muydunuz?
Bu eğitim süreci, burada anlatılandan daha kapsamlıdır. HTML’yi ayıklamak, kişisel olarak tanımlanabilir bilgileri kaldırmak, engel listesi sözcüklerini hariç tutmak ve verileri belirli dillere göre filtrelemek için ön eğitim aşamaları vardır. Ayrıca dil modelini, yararlı bir sohbet asistanı gibi davranacak şekilde (yalnızca bir sonraki belirteci tahmin eden bir sistem gibi değil) eğitmek için eğitim sonrası aşamalar da bulunur. Daha fazla bilgi için Andrej Karpathy’nin ChatGPT gibi LLM’lere Derinlemesine Bakış videosunu izleyin.

İşte bu noktada varlık tabanlı SEO kritik hâle gelir. Markanız Knowledge Graph’larda tutarlı biçimde görünüyorsa, şema işaretlemesiyle doğru şekilde yapılandırılmışsa ve web genelinde yüksek kaliteli içeriklerde ilgili varlıklarla birlikte anılıyorsa, eğitim verilerinde daha güçlü bir “varlık sinyali” oluşturuyorsunuz demektir.

Gianluca Fiorelli, Stratejik ve Uluslararası SEO/Yapay Zekâ Arama Danışmanı
En önemlisi, LLM’lerin pek çok tuhaflığı vardır:
Yaygın bir yanlış kanı, LLM’lerin yazılım yamaları gibi “bilgi güncellemeleri” aldığıdır. Gerçekte her model, sabit bir veri kümesiyle bir kez eğitilir. Daha yeni bir bilgi kesim tarihine sahip yeni bir model sürümü gördüğünüzde, bu mevcut modele yapılan bir güncelleme değil; sıfırdan eğitilmiş tamamen yeni bir modeldir.

Gianluca Fiorelli, Stratejik ve Uluslararası SEO/Yapay Zekâ Arama Danışmanı
Halüsinasyon gören ve eski bilgileri paylaşan bir arama motoru pek faydalı görünmez. Bu nedenle LLM’ler, temellendirme olarak bilinen bir süreçle bu sınırlamaların bir kısmını aşar.
LLM'ler yanıtlarını iki şekilde doğrulayabilir ve iyileştirebilir: araçları (hesap makineleri veya diğer veri API'leri gibi) kullanarak ya da harici kaynaklardan ek bilgi alarak. Bu ikinci süreç, teknik olarak Bilgi Getirimi ile Zenginleştirilmiş Üretim (RAG) olarak bilinir.
Bir kullanıcı bir soru girdiğinde, LLM kendi kendine şunu sorar: “Yanıtı zaten biliyor muyum, yoksa ek bilgi mi getirmeliyim?” LLM bir sonraki belirteci yüksek bir kesinlikle tahmin edebiliyorsa (örneğin “kırmızı kan hücreleri ne işe yarar?” gibi pek değişmeyen sorularda), büyük olasılıkla temel bilgisinden yanıt verir. Kesinlik düşükse (örneğin “en iyi bütçe kahve öğütücüsü hangisi?” gibi daha çok değişebilen sorularda), internet üzerindeki diğer kaynaklardan ilgili bilgileri bulmak için arama aracını kullanabilir.
LLM’ler, ek bilgilerden fayda görebilecek sorgu türlerini tanıyacak şekilde ince ayarlanır; örneğin:
Bazı LLM modelleri ek aramaları tetiklemeye de oldukça yatkındır (örneğin “deep research” modelleri, özellikle birden fazla RAG aramasını tetikleyecek şekilde yapılandırılmıştır).

RAG aracılığıyla gerçekliğe dayalı doğruları bulma süreci (sıkça "grounding" olarak anılır) çeşitli faydalar sunar. LLM, yanıtlarını üçüncü taraf kaynaklara karşı kontrol ederek olgusal doğruluğu artırabilir ve halüsinasyonları azaltabilir. Eğitim verileri nispeten eski olsa bile güncel bilgileri bulup paylaşabilir. Paylaştığı her şey için daha ayrıntılı, kapsamlı yanıtlar sunabilir ve daha iyi şeffaflık ile kaynak gösterimi sağlayabilir.
Yapay zekâ arama motorları bu grounding işlemini, “query fan-out” olarak bilinen bir süreçle gerçekleştirir.
Önemli olan şu ki sorgu dallanması, geleneksel SEO'nun yapay zekâ görünürlüğü için neden bu denli kritik olduğunu açıklar.
ChatGPT, Gemini ve Perplexity gibi yapay zekâ asistanları, güncel bilgileri almak için Google, Bing ve Brave gibi arama indekslerini kullanır.
Arama sağlayıcısı önemlidir; çünkü her birinin farklı sıralama algoritmaları, dizinleri ve kapsama alanı vardır: markanızı Google Arama'da görünür kılmak, Bing'e çok daha fazla dayanan ChatGPT'ye kıyasla yapay zekâ modundaki görünürlüğünüze daha fazla katkı sağlayabilir.
| Yapay zekâ arama motoru | Temellendirme için kullanılan arama dizinleri |
|---|---|
Bir web araması tetiklendiğinde, LLM arama dizininden ilgili sonuçları ister. Arama dizini bir sonuç listesi döndürür ve LLM; sayfa başlığı, döndürülen sayfa özetinin içeriği ve güncelliği (ne kadar yakın zamanda yayımlandığı) gibi bilgileri değerlendirerek taramak için en ilgili sayfaları seçer.
SEO'nun Yapay Zekâ Araması için Neden Kritik Olduğu
Bunu tekrar etmekte fayda var: Google ve Bing gibi geleneksel arama motorları, yapay zekâ arama motorlarının yanıtlarında hangi içerikten bahsedeceklerine ve hangisine atıf yapacaklarına karar vermelerine yardımcı olmada kritik bir rol oynar.
Başka bir deyişle, geleneksel aramada üst sıralarda yer almak, yapay zekâ aramasındaki görünürlüğünüzü artırır.
Peki LLM tam olarak neyi arar?
LLM’ler sorgu yayılımı adı verilen bir süreç kullanır. ChatGPT’ye ve diğer yapay zekâ arama motorlarına girilen pek çok istem son derece uzun, sohbet tarzında ve çoğu zaman tamamen benzersizdir. Bu istemleri birebir Google’lamak her zaman işe yarar içerikler döndürmez.
Yani kullanıcının tam sorgusunu alıp bir web araması çalıştırmak yerine…
"E-ticaret markalarına analitik ürünü satan orta ölçekli bir B2B SaaS şirketi için 6 aylık bir içerik stratejisi planlıyorum. Şirket…"

…LLM’ler ilgili bilgileri getirmeye yardımcı olmak için bu ilk istemi kullanarak bir dizi daha kısa, ilişkili sorgu üretir.
Bu dallanan sorgular da büyük dil modeli tarafından üretilir ve bu nedenle deterministik değildir: aynı arama için bile düzenli olarak değişebilirler.

Mark Williams-Cook, Kurucu, AlsoAsked
Bu süreç SEO uzmanlarına tanıdık gelecektir: Bu ilgili sorgular, uzun kuyruklu anahtar kelimelere, alt niyetlere ve “People Also Ask” sorularına çok benzer:
Hatta ChatGPT, Gemini ve Copilot tarafından alıntılanan bağlantıların yalnızca %12’si, kullanıcının orijinal istemi için Google’ın ilk 10 sonucunda yer alıyor. Ancak bu, geleneksel sıralamanın önemsiz olduğu anlamına gelmez. Yapay zekâ arama motorları, birden çok arama sorgusu üreterek içerik getirir—ve bu dallanan sorgular çoğu zaman daha geleneksel, anahtar kelime odaklı aramalardır; bu noktada mevcut SEO çalışmalarınız son derece önemlidir.

Sorgu dallanması özgürleştiricidir: insanların hangi sohbet istemlerini kullanacağını tahmin etmenize gerek yoktur. Bunun yerine, LLM'lerin doğal olarak üreteceği ayrıştırılmış sorgulara, yani anlamsal bileşenlere göre optimize edin. Bunlar geleneksel anahtar kelime araştırmasına çok benzer: [konu] + [niteleyici], karşılaştırma sorguları, tanımsal sorgular ve "en iyi uygulamalar" içerikleri. Mevcut SEO araştırmanız muhtemelen dallanma alanını zaten kapsıyordur.

Gianluca Fiorelli, Stratejik ve Uluslararası SEO/Yapay Zekâ Arama Danışmanı
Bir LLM, arama dizininden ilgili sayfaları getirdiğinde onları baştan sona okumaz. Bunun yerine sayfalar küçük metin “parçalarına” bölünür; model de sorguyla en alakalı görünen metin bölümlerini önceliklendirir (ve bazen genişletir).
Bu parçalar genellikle her biri birkaç yüz ile birkaç bin kelime arasında olur; çoğu web sayfasının küçük bir bölümüne denk gelir. LLM ayrıca sıkı bağlam penceresi sınırlarıyla çalışır: kullanıcının istemi, getirilen tüm parçalar ve kendi yanıtı dâhil olmak üzere sınırlı miktarda metni işleyebilir. Bu da hangi içeriği alıp dâhil edeceği konusunda son derece seçici olması gerektiği anlamına gelir.
İşte bir örnek:
| Tam sayfa içeriği | “Grounding, modelin harici kaynakları getirdiği, ilgili gerçekleri çıkardığı ve halüsinasyonları azaltıp güncelliği artırmak için bu alıntıları kullandığı bir iş akışıdır.… Ardından birden fazla kaynağı tarar, bilgileri karşılaştırır ve metni kelimesi kelimesine kopyalamak yerine bir yanıt sentezler. Bu sentez adımı, herhangi bir tek kaynağa aşırı bağımlılığı önlemeye yardımcı olur.” |
| Özet | “Asistanların web aramasını kullanarak harici kaynakları nasıl getirdiğini ve yanıtları getirilen gerçeklere dayandırarak halüsinasyonları nasıl azalttığını açıklar.” |
| Genişletme (satır 1–2) | “Grounding, modelin harici kaynakları getirdiği, ilgili gerçekleri çıkardığı ve halüsinasyonları azaltıp güncelliği artırmak için bu alıntıları kullandığı bir iş akışıdır. Model, web araması başlatmadan önce bir sorgunun güncel ya da doğrulanabilir bilgi gerektirip gerektirmediğini değerlendirir.” |
| Genişletme (satır 33–34) | “Ardından birden fazla kaynağı tarar, bilgileri karşılaştırır ve metni kelimesi kelimesine kopyalamak yerine bir yanıt sentezler. Bu sentez adımı, herhangi bir tek kaynağa aşırı bağımlılığı önlemeye yardımcı olur.” |
LLM’lerin içeriğinizi anlamasını kolaylaştırın
Bu önemli: Yapay zekâ arama motorları içeriğinizi internetten aldığında, yalnızca kısmi alıntı parçalarını görebilir, sayfanın tamamını değil. LLM’nin yanıtında kaynak olarak gösterilme olasılığını en üst düzeye çıkarmak için, sayfanızın alakası ve değeri, sayfanın tamamına erişim olmadan bile LLM’ler tarafından kolayca anlaşılabilir olmalıdır.
Yapay zekâ arama motoru daha sonra bu metni yanıt üretim sürecine entegre eder.
Ham web içeriği modelin yanıtına temellendirilir: bir önceki adımda çıkarılan metin veya veri parçacıkları modelin bağlamına eklenir; bu da özünde şunu söyler: “Web’den işine yarayabilecek bir bağlam burada; şimdi bu bilgiyi kullanarak kullanıcının sorusunu yanıtla.”
Buradan sonra model, kendi içsel bilgisiyle getirilen içeriği birleştirerek bir yanıt üretir ve kullanıcıyla paylaşır. Yanıt genellikle kaynak gösterimleri içerir: grounding sürecinde kullanılan kaynaklara bağlantı veren tıklanabilir URL’ler.
Yapay zekâ arama motorunun getirdiği her sayfa, nihai yanıtta mutlaka kaynak gösterimi almayacaktır. Model, hangi kaynakların alıntılanacağını birkaç faktöre göre seçer:
Bu, içeriğiniz alınsa ve okunsa bile görünür bir atıf almanın garanti olmadığı anlamına gelir; içeriğin, yanıttaki belirli bir iddiayla doğrudan ilgili olduğuna karar verilmelidir.
Bu, yapay zekâ arama motorlarının çalışma biçiminin temelidir; ancak ekstra bir karmaşıklık düzeyi daha var: kişiselleştirme.
ChatGPT ve diğer yapay zekâ arama motorları, sonuçlarını tek tek kullanıcılara göre kişiselleştirebilir; yani aynı istem, farklı kişiler için farklı sonuçlar üretebilir. Kişiselleştirme, aşağıdakiler dâhil olmak üzere çeşitli şekillerde etkilenebilir:
Sistem istemlerini anlamak için bir benzetme: Diyelim ki futbol oynuyorsunuz; "eğitim verisi", yıllar boyunca yaptığınız tüm antrenman, yani uzun vadeli kas hafızasıdır. Sistem istemi ise sahaya çıkmadan hemen önce antrenörünüzün size söyledikleridir. Çıktıyı etkileme olasılığı daha yüksek olan güçlü, kısa vadeli bir hafızadır.

Mark Williams-Cook, Kurucu, AlsoAsked

Bu nedenle, tek bir istem yanıtına takılıp kalmak yerine, markanızın ve web sitenizin ortalama görünürlüğünü zaman içinde ve birçok istem genelinde takip etmek daha iyi bir fikirdir.
Her yapay zekâ arama motoru (ChatGPT’den Perplexity’ye, Google AI Mode’a kadar) biraz farklıdır; ancak temel süreçler aynıdır. SEO uzmanları ve pazarlamacılar için önemli olan şu: Google ve Bing gibi geleneksel arama motorları, yapay zekâ arama motorlarının çalışması için gereken altyapının büyük bir kısmını sağlar. Yapay zekâ araması için optimizasyon, büyük ölçüde geleneksel SEO en iyi uygulamalarına dayanır.

Ryan Law, Ahrefs'te İçerik Pazarlama Direktörü olarak görev yapmaktadır. Ryan'ın yazar, içerik stratejisi uzmanı, ekip lideri, pazarlama direktörü, VP, CMO ve ajans kurucusu olarak 13 yıllık deneyimi vardır. Google, Zapier, GoDaddy, Clearbit ve Algolia dâhil olmak üzere onlarca şirketin içerik pazarlaması ve SEO'sunu geliştirmesine yardımcı olmuştur. Aynı zamanda roman yazarı ve iki içerik pazarlama kursunun da yaratıcısıdır.
SEO öğrenmeye başlamadan önce arama motorlarının nasıl çalıştığını anlamanız gerekir.
Web sitenizde nasıl SEO başarısı elde edeceğinizi ve SEO'nun dört ana yönünü öğrenin.
SEO'nun başlangıç noktası, hedef müşterilerin ne arattığını anlamaktır.
Arama motorlarında üst sıralarda yer alan içeriği nasıl oluşturacağınızı öğrenin.
Böylece arama motorlarının onları anlamasına yardımcı olmak için sayfalarınızı optimize edersiniz.
Bağlantılar, arama motorlarının yeni sayfaları nasıl keşfettiği ve "yetkilerini" nasıl değerlendirdiğiyle alakalıdır. Bağlantılar olmadan rekabetçi terimlerde sıralamaya girmek zordur.
Google'ın web sitenize erişmesini ve onu anlamasını engelleyen hiçbir teknik hata olmadığından emin olmak önemlidir.
Yerel arama sonuçlarında görünürlüğünüzü nasıl artıracağınızı öğrenin ve bölgenizden daha fazla müşteri kazanın.
Bugün üretken yapay zekâdan bahsetmeden SEO hakkında konuşamazsınız.
ChatGPT gibi yapay zekâ arama motorlarının yanıtlarını tam olarak nasıl ürettiğini ve hangi markalardan ve ürünlerden bahsedeceğini nasıl seçtiğini öğrenin.