Teknik SEO İçin AI Analizi: Site Tarama ve Hata Önceliklendirme Rehberi
Yapay Zeka ile SEO Taktikleri

Teknik SEO İçin AI Analizi: Site Tarama ve Hata Önceliklendirme Rehberi

Yapay Zeka ile SEO Taktikleri

9 dk okuma süresi
Bu rehber, Yapay Zeka ile SEO Taktikleri yaklaşımını kullanarak teknik SEO denetimini hızlandırmayı ve hataları “etki × görünürlük × düzeltme maliyeti” çerçevesiyle önceliklendirmeyi anlatır. Google’ın tarama bütçesi önerileri ve Core Web Vitals ölçüm mantığı üzerinden, site taraması çıktılarınızı daha eyleme dönük bir plana dönüştürmeniz için pratik adımlar sunar.
Teknik SEO İçin AI Analizi: Site Tarama ve Hata Önceliklendirme Rehberi

Teknik SEO denetimleri genellikle aynı döngüye takılır: tarama aracı yüzlerce “issue” üretir, ekip hangisini önce düzelteceğini tartışır ve iş kritik hatalar bazen “yüksek ama önemsiz” uyarıların arasında kaybolur. Yapay zekâ (AI) burada iki şeye yardımcı olabilir: (1) farklı kaynaklardan gelen verileri hızlıca bir araya getirip anlamlandırmak ve (2) belirlediğiniz iş hedeflerine göre bir öncelik sıralaması önermek.

Bu rehber, Yapay Zeka ile SEO Taktikleri bakışını teknik SEO’ya uyarlayarak, site taraması çıktılarınızı daha iyi bir “hata önceliklendirme” sistemine dönüştürmeyi amaçlar. Odak noktamız bilerek pratiktir: veriyi nasıl toplayacağınız, AI’ya nasıl çerçeve vereceğiniz, ve önerileri nasıl doğrulayacağınız.


AI teknik SEO’da neyi iyi yapar, neyi yapamaz?

AI’nın güçlü olduğu alanlar:

  • Etiketleme ve gruplayarak sadeleştirme: “404”, “noindex”, “canonical çakışması”, “yavaş LCP” gibi bulguları URL tipine göre (kategori, ürün, blog, vs.) sınıflandırmak.
  • Önceliklendirme için taslak üretme: Trafik, indekslenebilirlik ve performans sinyallerini bir araya getirip bir “ilk 20 iş” listesi çıkarmak.
  • Tekrarlı raporlama: Haftalık/aylık teknik SEO özetlerini aynı formatta üretmek.

AI’nın sınırlı olduğu alanlar (insan doğrulaması gerekir):

  • Nedensellik: Bir hatanın düzeltilmesiyle sıralama artışı arasında doğrudan ve garantili bağ kurmak çoğu zaman mümkün değildir.
  • Araç skorlarını “mutlak doğru” sanmak: Denetim araçlarının risk/önem etiketleri araçtan araca değişebilir; aynı hataya farklı ağırlıklar verilebilir.
  • Eksik bağlam: Ürün stok yapısı, sezonluk trafik, içerik stratejisi gibi iş bağlamı olmadan en doğru sıra belirlenemez.

Bu yüzden en iyi yaklaşım: AI’yı hızlandırıcı olarak konumlamak, karar mekanizmasını ise ölçümler ve ekip onayıyla tamamlamak.


Başlamadan: AI’ya “yakıt” olacak veri setleri

AI ile önceliklendirme yapmak için tek bir tarama raporu yetmez. Aşağıdaki veri setlerini mümkün olduğunca standart bir formatta hazırlayın (CSV/Google Sheets gibi):

  • Site taraması çıktısı: URL, status code, indexability, canonical, meta robots, hreflang, redirect chain, duplicate title, vb.
  • Google Search Console verisi: İndeksleme/URL durumları, tespit edilen hatalar, performans (tıklama/gösterim), önemli sayfa grupları.
  • Core Web Vitals (alan verisi): URL grupları, LCP/INP/CLS durumları. Core Web Vitals’ın değerlendirilmesinde saha verisi mantığı ve metrikler için web.dev rehberini referans alın.
  • Sunucu tarafı sinyaller (varsa): Loglar, 5xx oranı, zaman aşımı, çok yavaş yanıt veren endpoint’ler.
  • İş öncelikleri: Para kazandıran sayfa tipleri (ör. kategori/ürün), hedeflenen landing page listesi, kampanya takvimi.

Not: Core Web Vitals tarafında laboratuvar ölçümleri (Lighthouse) ile saha verisi arasında farklar görülebilir. Bu nedenle “iyileştirme yaptık” demeden önce saha verisiyle doğrulamayı planlayın. web.dev’in Core Web Vitals iyileştirme rehberi bu ayrımı ve pratik öncelikleri açıklar: https://web.dev/top-cwv-2023/.


1) Tarama bütçesi ve taranabilirliği temel alın (özellikle büyük sitelerde)

Önceliklendirmeye başlamadan önce sitenizin “Google tarafından verimli taranma ve indekslenme” şartlarını kontrol edin. Google’ın büyük siteler için tarama bütçesi yönetimi dokümantasyonu; sitemap yönetimi, robots.txt kullanımı ve sunucu kapasitesi/yanıtları gibi konuları doğrudan ele alır: https://developers.google.com/search/docs/crawling-indexing/large-site-managing-crawl-budget.

Tarama bütçesi odağında hızlı kontrol listesi

  • 5xx ve zaman aşımı: Sunucu hataları tarama verimliliğini düşürebilir. Önce altyapı istikrarını ele alın.
  • Sitemap doğruluğu: Sitemap’te gerçekten indekslenmesini istediğiniz, 200 dönen, canonical’ı tutarlı URL’ler olsun.
  • Parametre/filtre URL’leri: Gereksiz kombinasyonlar tarama kaynaklarını tüketebilir; URL stratejisi ve canonical politikası net olmalı.
  • Robots.txt ile bloklama: Google dokümanında vurgulanan önemli nüanslardan biri: yalnızca robots.txt ile engellemek, tarama bütçesinin otomatik olarak “yararlı sayfalara” aktarılacağı anlamına gelmeyebilir. (Kaynak: Google Search Central) Bu yüzden bloklama kararlarını ölçümleyerek alın.

AI burada nasıl yardımcı olur? Tarama + GSC + log verisini birleştirip “Googlebot en çok nereye gidiyor?” ve “taranan ama değer üretmeyen URL kümeleri hangileri?” gibi sorulara ilk analiz taslağını hızlıca çıkarabilir.


2) Site taraması çıktısını “URL tipi” ve “arama değeri” ile zenginleştirin

Teknik SEO’da aynı hata her URL’de aynı değere sahip değildir. Örneğin blog etiket sayfalarındaki küçük bir meta sorununu düzeltmek ile gelir getiren ürün sayfalarındaki indekslenebilirlik hatasını düzeltmek aynı kefeye konmamalı.

Pratik yöntem: URL sınıfları oluşturun

Aşağıdaki gibi basit bir sınıflandırma bile önceliklendirmeyi dramatik biçimde iyileştirir:

  • Para sayfaları: /product/, /category/, /pricing/, /checkout/ (örnek kalıplar)
  • Bilgilendirici içerik: /blog/, /guides/
  • Yardım/kurumsal: /help/, /about/
  • Arama/filtre/parametre: ?sort=, ?color=, /search/

Sonra her URL’ye en az şu alanları ekleyin:

  • GSC tıklama/gösterim (son 28/90 gün gibi)
  • İndekslenebilirlik durumu (index/noindex, canonical, robots)
  • Önemli şablon mu? (binlerce URL’yi etkileyen şablon hatası mı?)

AI’ya verdiğiniz veri ne kadar yapılandırılmış olursa, çıkan öncelik önerileri o kadar tutarlı olur.


3) Core Web Vitals’ı “öncelik puanı”na doğru bağlayın

Core Web Vitals tarafında üç metrik öne çıkar: LCP, INP, CLS. web.dev, bu metriklerin değerlendirilmesinde saha verisinin (gerçek kullanıcı verisi) ve özellikle 75. yüzdelik dilim (p75) yaklaşımının önemini açıklar; ayrıca INP’nin FID’nin yerine geçtiğini belirtir: https://web.dev/top-cwv-2023/.

Önceliklendirmeye nasıl dahil edilir?

  • “Fail” grupları: CWV raporunda “kötü” durumda olan URL gruplarını, para sayfalarıyla kesiştirin.
  • Şablon odaklı düşünün: Tek URL yerine, aynı şablonu paylaşan URL gruplarını hedeflemek daha maliyet-etkin olabilir.
  • Lab + saha: Lab verisi tanı koymak için iyi bir başlangıçtır; başarı kriterini saha verisiyle doğrulayın.

AI, CWV iyileştirmesi için doğrudan kod yazmaktan çok, “hangi metrik, hangi sayfa tipi, hangi olası kök neden” eşleştirmesinde ekibe zaman kazandırır. Örneğin “INP sorunu olan şablonlarda ağır üçüncü taraf script’ler var mı?” gibi hipotez listeleri çıkarabilirsiniz.


4) Araç skorlarını tek başına kullanmayın: proje bazlı önem ayarı yapın

Denetim araçları genellikle otomatik bir “sağlık skoru” ve önem seviyeleri üretir. Bu skorlar faydalı bir başlangıçtır; ancak iş modelinize göre uyarlamak gerekebilir.

Örneğin Ahrefs Site Audit, bazı “preset issue” önem seviyelerinin proje bazında yapılandırılabildiğini ve bunun raporlamayı etkileyebileceğini açıklar: https://help.ahrefs.com/using-ahrefs/site-audit-new/how-to-configure-pre-set-issues-within-ahrefs-site-audit/.

Öneri: “takım sözlüğü” oluşturun

  • Kritik: İndekslenebilirliği engelliyor, ciddi performans sorunu yaratıyor veya önemli şablonları bozuyor.
  • Yüksek: Ölçekli etki var ama geçici workaround mümkün.
  • Orta: Kalite ve bakım borcu; iş hedeflerine göre planlanır.
  • Düşük: İzlenir; yalnızca fırsat olduğunda ele alınır.

AI’ya bu sözlüğü verip, her bulguyu bu tanımlara göre yeniden etiketlemesini isteyebilirsiniz.


5) Önceliklendirme matrisi: Etki × Görünürlük × Düzeltme maliyeti

Aşağıdaki pratik çerçeve, araçtan bağımsız şekilde karar almanıza yardımcı olur. Buradaki amaç “mükemmel puanlama” değil, herkesin aynı mantıkla konuşmasını sağlamaktır.

Boyut Nasıl puanlanır? Örnek sinyaller
Etki 1–5 (5 en yüksek) İndekslenememe, yanlış canonical, yaygın 5xx, CWV “kötü” grubu
Görünürlük 1–5 GSC tıklama/gösterim, hedeflenen landing page, para sayfası tipi
Düzeltme maliyeti 1–5 (5 en pahalı) Şablon değişikliği, deploy riski, ekip bağımlılıkları, QA süresi

Basit öncelik puanı örneği: (Etki × Görünürlük) − Maliyet. AI’nın görevi, her bulgu için bu üç boyuta dair “gerekçeli” bir ilk puan önerisi üretmek olabilir; nihai karar ekipte kalır.


6) AI ile hata önceliklendirme: uygulanabilir bir iş akışı

Adım A: Veriyi birleştirin ve normalize edin

  • Tarama aracından URL bazlı issue listesini dışa aktarın.
  • GSC’den performans metriklerini URL ile eşleştirin (mümkünse canonical düzeyinde).
  • CWV raporundaki URL gruplarını URL tipiyle eşleştirin.

Adım B: AI’ya net bir çıktı formatı verin

Aşağıdaki gibi bir şablon, AI’nın “fikir” yerine “iş listesi” üretmesine yardımcı olur:

Görev: Aşağıdaki URL sorunlarını (1) Etki, (2) Görünürlük, (3) Düzeltme maliyeti boyutlarında 1–5 puanla. Ardından ilk 15 öneriyi sırala.
Kısıtlar: Araç önem etiketlerini mutlak doğru kabul etme; GSC tıklaması olan para sayfalarını önceliklendir; indekslenebilirliği etkileyen sorunları performans ve meta sorunlarının önüne koy; gerekçeyi 1–2 cümleyle yaz.
Çıktı formatı: CSV kolonları: issue_type, url_or_template, impact_score, visibility_score, cost_score, priority_score, rationale, owner_team.

Adım C: İnsan doğrulaması ve küçük çaplı test

  • Örnekleme: AI’nın “ilk 15” listesinden 3–5 maddeyi manuel kontrol edin (GSC URL inceleme, tarama tekrarları).
  • Ölçekli değişikliklerde dikkat: Canonical/robots/sitemap değişiklikleri gibi geniş etki alanı olan işleri staged şekilde yayınlamayı planlayın.
  • Ölçüm planı: İndeksleme durumu, tarama istatistikleri ve CWV raporu gibi metriklerde hangi yönde değişim beklediğinizi önceden yazın.

Bu yaklaşım, AI’yı “otomatik karar verici” değil “hızlı analiz asistanı” olarak konumlandırır.


7) Örnek önceliklendirme senaryoları (pratik düşünme)

Senaryo 1: Büyük e-ticaret sitesi

  • Önce: 5xx / timeout kümeleri, yanlış canonical ile indeks dışına itilen kategori sayfaları, hatalı redirect zincirleri, sitemap tutarsızlıkları.
  • Sonra: CWV “kötü” olan ürün şablonları (özellikle LCP/INP), görsellerin yüklenme stratejileri, üçüncü taraf script’lerin etkisi.
  • En sona: Düşük trafikli filtre sayfalarında küçük meta başlık tekrarları.

Bu yaklaşım, Google’ın tarama bütçesi ve tarama verimliliğine dair önerileriyle uyumludur; önce taranabilirlik ve indekslenebilirlik risklerini azaltmak mantıklıdır. İlgili doküman: https://developers.google.com/search/docs/crawling-indexing/large-site-managing-crawl-budget.

Senaryo 2: İçerik ağırlıklı blog / eğitim sitesi

  • Önce: Yanlış noindex uygulamaları, canonical çakışmaları, 404’e giden iç linkler (özellikle yüksek trafik alan içeriklerde).
  • Sonra: CWV iyileştirmeleri (INP sorunları, ağır script’ler, reklam/analitik yükü).
  • En sona: Düşük öneme sahip “nice-to-have” yapılandırma uyarıları.

8) “AI Search” kontrolleri ve llms.txt: nasıl yaklaşmalı?

Denetim araçları AI odaklı yeni kontrol kategorileri eklemeye başladı. Örneğin Semrush, Site Audit içinde “AI Search” kategorisini duyurduğunu ve bazı kontroller eklediğini belirtir (ör. llms.txt kontrolü): https://www.semrush.com/news/411622-optimize-for-ai-search-with-site-audit/.

Önemli bağlam: llms.txt, bugün için genel olarak standartlaşmış ve arama motorları tarafından resmi bir gereklilik olarak tanımlanmış bir dosya değildir; Semrush’taki kontrol, araç odaklı bir denetim yaklaşımıdır. Bu nedenle var/yok kontrolünü tek başına “performans sinyali” gibi değil, izlenecek bir madde olarak ele almak daha sağlıklıdır.

Burada temkinli bir çerçeve önerilir:

  • Bu kontrolleri “erken uyarı listesi” olarak görün: Varlığı/yokluğu tek başına sonuç anlamına gelmeyebilir.
  • Önce temel SEO hijyeni: İndeksleme, tarama verimliliği ve CWV gibi temel alanlar çoğu site için daha yüksek öncelik taşır.
  • Politika ve risk değerlendirmesi: Yeni dosyalar/kurallar eklemeden önce hukuk, güvenlik ve ürün ekipleriyle uyumu kontrol edin.

9) Yayına alma sonrası izleme: “düzeltildi” demeden önce bakılacaklar

  • Tarama davranışı: Önemli URL kümeleri daha düzenli taranıyor mu? Gereksiz parametre URL’lerine tarama azalıyor mu?
  • İndeksleme: GSC’de ilgili şablonların URL durumları iyileşiyor mu?
  • Core Web Vitals: Saha verisinde (p75 mantığıyla) iyileşme yönü var mı? (Not: veri gecikmeli gelebilir.)
  • İş metrikleri: Organik oturumlar, dönüşüm oranı, gelir gibi KPI’larda anlamlı bir trend var mı?

AI otomasyonunun uzun vadeli sonuçlarına dair bağımsız kanıtlar her zaman net olmayabilir; bu nedenle değişiklikleri kontrollü şekilde yayınlamak ve ölçümlemek en güvenli yaklaşımdır.


Uygulama kontrol listesi (kopyala-yapıştır)

  • Veri: Tarama + GSC + CWV (alan verisi) + (varsa) loglar tek tabloda birleştirildi.
  • Sınıflandırma: URL’ler sayfa tipine göre etiketlendi (para sayfaları, içerik, filtre/parametre).
  • Temel riskler: 5xx, zaman aşımı, sitemap hataları, indekslenebilirlik blokajları önce ele alındı.
  • CWV: LCP/INP/CLS sorunları para sayfalarıyla kesiştirilerek hedeflendi.
  • Matriks: Etki × Görünürlük × Maliyet puanlamasıyla backlog sıralandı.
  • AI kullanımı: Net çıktı formatı ve gerekçe zorunluluğu ile ilk öncelik listesi üretildi.
  • Doğrulama: İlk 3–5 madde manuel kontrol edildi; yayından sonra metrikler izleniyor.

Bu çerçeveyi oturttuğunuzda, teknik SEO denetimi “bir rapor yığını” olmaktan çıkar; ekipler arası planlanabilen, ölçülebilen ve tekrar edilebilen bir sürece dönüşür.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu sen yaz.