SEO dünyasında birçok ücretli analiz aracı olsa da, Google’ın bir web sitesini tam olarak nasıl algıladığını, hangi engellere takıldığını ve içeriği nasıl yorumladığını gösteren en yetkili kaynak Google Search Console (GSC)’dur. “Googlebot Gözünden Denetim”, sitenize dışarıdan bir gözle bakmak yerine, doğrudan sistemin içindeki veriyi (insider data) okuma sürecidir. Bu süreç, teorik varsayımları somut verilere dönüştürerek teknik SEO stratejinizi bir mühendislik hassasiyetiyle şekillendirmenizi sağlar.
Bu kapsamlı analiz rehberinde, Search Console üzerindeki kritik raporları nasıl okuyacağınızı, Googlebot’un ayak izlerini nasıl takip edeceğinizi ve dizinleme (indexing) hatalarını nasıl teşhis edeceğinizi derinlemesine inceleyeceğiz.
1. Dizin Oluşturma (Indexing) Raporu: Temel Teşhis Merkezi
Search Console’un kalbi “Sayfalar” raporudur. Googlebot sitenizi taradıktan sonra her sayfa için bir karar verir: “Bu sayfayı dizine ekledim” veya “Bu sayfayı şu sebeple hariç tuttum.”
A. “Neden Sayfalar Dizine Eklenmiyor?” Analizi
Raporun alt kısmında yer alan hata türleri, sistemik bir teknik sorunun en net habercisidir:
-
Noindex Etiketi Tarafından Hariç Tutuldu: Bu bir hata olmayabilir, ancak dizinde olması gereken sayfalar burada listeleniyorsa acil müdahale gerekir.
-
Robots.txt Tarafından Engellendi: Googlebot sayfaya ulaşmak istemiş ancak kapı yüzüne kapatılmıştır.
-
Bulunamadı (404): Botun sitenizde bir “çıkmaz sokakla” karşılaştığını gösterir. Bu sayfalar değerliyse yönlendirilmeli, değilse iç linkleri temizlenmelidir.
-
Tarandı – Şu Anda Dizine Eklenmiş Değil: Google sayfayı görmüş, içeriğini okumuş ancak dizine eklemeye (şimdilik) değer bulmamıştır. Bu genellikle “ince içerik” (thin content) veya kalite sorununa işarettir.
B. “Keşfedildi – Şu Anda Dizine Eklenmiş Değil” Durumu
Bu teknik SEO’nun en kritik uyarılarından biridir. Googlebot URL’yi biliyor (belki site haritasından, belki bir linkten öğrendi) ancak sayfayı taramaya tenezzül etmemiştir. * Teşhis: Bu durum genellikle bir tarama bütçesi (crawl budget) sorunudur. Sunucunuz yavaş olabilir veya Googlebot sitenizin o kadar çok önemsiz sayfasıyla uğraşmıştır ki, asıl sayfaya vakit ayıramamıştır.
2. URL Denetimi (URL Inspection): Bireysel Hücre Analizi
Belirli bir sayfanın neden performans göstermediğini anlamak için “URL Denetimi” aracı kullanılır. Bu araç, canlı bir test yaparak Googlebot’un o an sayfayı nasıl gördüğünü simüle eder.
-
Kullanıcı Tarafından Seçilen Kanonik vs. Google Tarafından Seçilen: Eğer Google sizin seçtiğiniz canonical etiketini reddedip başka bir sayfayı “asıl” kabul ediyorsa, içerik benzerliği veya linkleme yapınızda bir sorun var demektir.
-
Geliştirilmiş Özellikler: Sayfadaki şema işaretlemelerinin (Schema) Googlebot tarafından doğru “parse” edilip edilmediğini buradan görebilirsiniz.
-
Taranan Sayfayı Görüntüle: Botun sayfadaki HTML kodunu nasıl okuduğunu kontrol edin. Bazı JavaScript içerikleri bot tarafından görülemiyor olabilir; bu da içeriğin indekslenmemesine yol açar.
3. Tarama İstatistikleri (Crawl Stats): Sunucu Performans Röntgeni
Ayarlar sekmesinin altında gizli olan “Tarama İstatistikleri” raporu, Googlebot’un sunucunuzla olan ilişkisini milisaniye bazında gösterir.
-
Ana Bilgisayar Durumu: Sunucunuzun Googlebot’un isteklerine ne kadar sürede yanıt verdiği (TTFB) ve bağlantı hataları burada yer alır. %100 başarı oranı hedeflenmelidir.
-
Dosya Türüne Göre Tarama: Botun zamanını neye harcadığını görün. Eğer vaktinin çoğunu resim veya CSS taramaya harcıyorsa ve HTML sayfalarınıza sıra gelmiyorsa, tarama bütçesi optimizasyonu şarttır.
-
Amaca Göre Tarama: “Yenileme” (mevcut sayfaları kontrol) ve “Keşif” (yeni sayfaları bulma) oranlarını analiz edin. Yeni bir siteyseniz “Keşif” oranının yüksek olması gerekir.
4. Önemli Web Verileri (Core Web Vitals) Analizi
Googlebot artık sadece metni değil, hızı ve kullanıcı deneyimini de bir sıralama kriteri olarak “okuyor”.
-
LCP, INP, CLS: Search Console, gerçek kullanıcı verilerini (CrUX) kullanarak hangi sayfaların yavaş (Poor) veya iyileştirilmesi gerektiğini raporlar.
-
Kritik Eşik: Bir sayfa teknik olarak kusursuz olsa bile, CLS (düzen kayması) değeri yüksekse Googlebot bu sayfayı düşük kaliteli deneyim olarak sınıflandırabilir.
5. Manuel İşlemler ve Güvenlik Sorunları
Googlebot gözünden yapılan denetimin en sert aşaması budur. Eğer siteniz bir algoritma filtresine takıldıysa veya saldırıya uğradıysa (hack), Googlebot bunu “Güvenlik Sorunları” sekmesinde açıkça belirtir.
-
Sitede spam içerik, gizli metin veya aldatıcı yönlendirme varsa bot bunu tespit eder ve manuel işlem uygulayarak siteyi dizinden tamamen silebilir.
6. Search Console Verileriyle Teknik Yol Haritası Oluşturma
Analizden elde edilen veriler şu aksiyon planına dönüştürülmelidir:
-
Hatalı 404’leri Düzelt: Site dışı link alan 404 sayfalarını 301 ile kurtar.
-
Tarama Bütçesini Yönet: Googlebot’un vaktini çalan “Keşfedildi ama dizine eklenmedi” sayfalarını analiz et ve gerekirse
noindexveyarobots.txtile engelle. -
Kanonik Karmaşasını Çöz: Google’ın seçtiği kanonik URL’ler sizinkinden farklıysa, iç linkleme yapınızı revize edin.
-
Zengin Sonuçları Takip Et: Şema hatalarını düzelterek tıklama oranını (CTR) artırın.
Sonuç
Search Console, Googlebot’un sitenizle olan diyaloğunun kayıt defteridir. Bu kayıtları doğru okuyan bir SEO uzmanı, karanlıkta yürümek yerine elindeki net verilerle sitenin altyapısını mükemmelleştirir. Unutmayın; Googlebot sitenizi ne kadar kolay tarar ve ne kadar net anlarsa, sıralama başarınız o kadar sürdürülebilir olacaktır.
Dijital röntgeninizin en şeffaf çıktısı olan bu veriler, sadece birer istatistik değil, organik büyüme yolundaki en güvenilir rehberinizdir.
