Blog'a Dön
Teknik SEOCore Web VitalsSite HızıSchema

Teknik SEO Rehberi: Web Sitenizi Arama Motorları İçin Optimize Edin (2026)

SEOctopus12 dk okuma süresi

Teknik SEO altyapisi — sunucu, kod ve arama motoru baglantisi

Teknik SEO, web sitenizin arama motorları tarafından sorunsuz şekilde taranmasını, dizine alınmasını ve sıralanmasını sağlayan altyapı optimizasyonlarının tamamıdır. İçeriğiniz ne kadar değerli olursa olsun, teknik altyapınız sağlam değilse arama motorları bu içeriği göremez, anlayamaz veya kullanıcılara sunamaz.

2026'da teknik SEO sadece Google için değil, AI arama motorları (ChatGPT, Perplexity, Gemini) için de kritik öneme sahiptir. Bu rehberde teknik SEO'nun ne olduğunu, temel bileşenlerini, uygulama adımlarını ve araçlarını kapsamlı şekilde ele alıyoruz.

Teknik SEO Nedir?

Teknik SEO, bir web sitesinin arama motoru botları tarafından verimli şekilde taranabilmesi ve dizine alınabilmesi için yapılan sunucu tarafı ve site geneli optimizasyonlardır. İçerik ve bağlantı optimizasyonundan farklı olarak, teknik SEO altyapıya odaklanır.

Teknik SEO'yu bir binanın temeline benzetebilirsiniz. Dışarıdan görünmez ama her şeyi ayakta tutar. Temel zayıfsa üzerine ne kadar güzel bir bina yaparsanız yapın, yapı sağlam olmaz.

Teknik SEO Neden Kritik?

  • Taranabilirlik: Googlebot sitenizi tarayamazsa, içeriğiniz dizine alınamaz
  • Dizine alınabilirlik: Dizine alınmayan sayfalar arama sonuçlarında görünemez
  • Sayfa hızı: Yavaş siteler hem sıralamada hem kullanıcı deneyiminde kaybeder
  • Mobil uyumluluk: Google mobile-first indexing kullanır; mobil deneyim sıralamayı belirler
  • Güvenlik: HTTPS olmayan siteler tarayıcı uyarısı alır ve kullanıcı güvenini kaybeder
  • AI motorlarında görünürlük: Yapısal veri ve temiz altyapı AI motorlarının içeriğinizi anlamasını kolaylaştırır

Teknik SEO'nun Temel Bileşenleri

1. Crawlability (Taranabilirlik)

Taranabilirlik, arama motoru botlarının sitenizi keşfedip tüm sayfalarınıza erişebilme yeteneğidir.

Robots.txt Dosyası

Robots.txt, arama motoru botlarına hangi sayfaları tarayabileceklerini ve hangilerini atlayabileceklerini söyleyen bir yönerge dosyasıdır.

En iyi uygulamalar:

  • Önemli sayfaları asla engellemeyin
  • CSS ve JavaScript dosyalarını engellemeyin (Googlebot render edebilmeli)
  • Sitemap URL'sini robots.txt'e ekleyin
  • Farklı botlar için farklı kurallar tanımlayabilirsiniz

Crawl Budget Yönetimi

Googlebot'un sitenizi ziyaret ettiğinde tarayabileceği sayfa sayısı sınırlıdır. Bu sınıra crawl budget denir. Büyük sitelerde crawl budget yönetimi kritiktir.

Crawl budget'i verimli kullanmak için:

  • Değersiz sayfaları (filtre kombinasyonları, session ID'li URL'ler) noindex veya robots.txt ile engelleyin
  • Sayfa hızını artırın (daha hızlı tarama, daha fazla sayfa)
  • Kırık linkleri düzeltin (bot kırık sayfalarda zaman kaybetmesin)
  • Flat site mimarisi kullanın (önemli sayfalar az tıkla erişilebilir olsun)

SEOctopus'un Crawl Analysis modülü, sitenizi Googlebot gibi tarayarak taranabilirlik sorunlarını otomatik tespit eder. Hangi sayfaların engellediğini, hangi sayfalara ulaşılamadığını ve crawl budget'in nasıl kullanıldığını görsel olarak raporlar.

2. Indexability (Dizine Alınabilirlik)

Bir sayfanın taranması, dizine alınacağı anlamına gelmez. Dizine alınabilirlik, sayfanızın Google'ın dizinine eklenmesini sağlayan faktörleri kapsar.

Kontrol noktaları:

  • Noindex etiketi: Dizine alınmasını istemediğiniz sayfalar (giriş sayfaları, teşekkür sayfaları) noindex ile işaretlenmiş mi?
  • Canonical URL: Aynı içeriğin birden fazla URL'de bulunması durumunda, tercih edilen versiyon canonical etiketle belirtilmiş mi?
  • HTTP durum kodları: Sayfalar 200 (başarılı) döndürüyor mu? 404, 500 hataları var mı?
  • Redirect zincirleri: Birden fazla yönlendirme sıralı mı? (A → B → C → D gibi zincirler tarama verimliliğini düşürür)

Google Search Console Kullanımı

Google Search Console'un Dizin Kapsamı raporu, hangi sayfalarınızın dizine alındığını ve hangilerinin neden dışlandığını gösterir. Bu raporu düzenli kontrol etmek teknik SEO'nun temelidir.

3. Site Mimarisi ve URL Yapısı

Site mimarisi hem kullanıcıların hem de arama motorlarının sitenizi anlamasını belirler.

İdeal site mimarisi özellikleri:

  • Düz hiyerarşi: Her sayfa ana sayfadan en fazla 3 tıkla erişilebilir olmalı
  • Mantıklı kategorilendirme: İçerikler anlamlı kategoriler altında gruplandırılmalı
  • Breadcrumb navigasyonu: Kullanıcıya ve arama motorlarına sayfa konumunu gösterir
  • Temiz URL yapısı: URL'ler kısa, açıklayıcı ve keyword içerici olmalı

URL Yapısı En İyi Uygulamaları:

  • Küçük harf kullanın
  • Kelime ayıracı olarak tire (-) kullanın
  • Gereksiz parametrelerden kaçının
  • Türkçe karakter yerine Latin karakter tercih edin (ö → o, ü → u, ş → s)
  • Tarih veya ID bazlı URL'lerden kaçının

4. XML Sitemap Optimizasyonu

XML sitemap, arama motorlarına sitenizin yapısını ve tüm önemli sayfaları bildiren bir haritadır.

Sitemap en iyi uygulamaları:

  • Sadece dizine alınmasını istediğiniz sayfaları ekleyin
  • 404, noindex ve redirect sayfaları sitemap'ten çıkarın
  • lastmod tarihini doğru kullanın (gerçek güncelleme tarihini yansıtsın)
  • Büyük sitelerde sitemap'i bölün (her sitemap en fazla 50.000 URL)
  • Sitemap'i robots.txt'e ve Google Search Console'a kaydedin
  • Görsel ve video sitemap'leri ayrıca oluşturun

5. HTTPS ve Site Güvenliği

HTTPS, Google'ın doğrudan sıralama faktörlerinden biridir ve kullanıcı güveninin temelidir.

Kontrol edilmesi gerekenler:

  • Tüm sayfalar HTTPS üzerinden sunuluyor mu?
  • HTTP'den HTTPS'e 301 yönlendirmesi yapılmış mı?
  • SSL sertifikası güncel mi?
  • Mixed content (HTTP kaynakların HTTPS sayfada yüklenmesi) sorunu var mı?
  • HSTS (HTTP Strict Transport Security) header'ı aktif mi?

6. Core Web Vitals ve Sayfa Hızı

Google'ın performans metrikleri doğrudan sıralamayı etkiler. 2026'da Core Web Vitals her zamankinden önemlidir.

LCP (Largest Contentful Paint) — Yükleme Hızı

Ana içerik 2.5 saniye içinde yüklenmeli. LCP'yi iyileştirmek için:

  • Görselleri optimize edin (WebP/AVIF, boyut küçültme, lazy loading)
  • Sunucu yanıt süresini azaltın (CDN, önbellekleme)
  • Render-blocking kaynakları kaldırın (kritik CSS inline, JS defer)
  • Preload ile kritik kaynakları önceden yükleyin

INP (Interaction to Next Paint) — Etkileşim Hızı

Kullanıcı etkileşimine yanıt süresi 200ms altında olmalı. INP'yi iyileştirmek için:

  • Uzun JavaScript görevlerini bölün (50ms kuralı)
  • Main thread'i bloklamaktan kaçının
  • Web Worker'lar kullanın
  • Input handler'ları optimize edin

CLS (Cumulative Layout Shift) — Görsel Kararlılık

Sayfa yüklenirken elementlerin kayma miktarı 0.1 altında olmalı. CLS'yi iyileştirmek için:

  • Görsellere width ve height öznitelikleri ekleyin
  • Dinamik içeriklere yer tutucu (placeholder) ekleyin
  • Font yükleme stratejisi belirleyin (font-display: swap)
  • Reklam ve embed alanları için boyut ayırın

SEOctopus'un Technical Health Score, Core Web Vitals metriklerini de kapsayan genel bir teknik sağlık puanı sunar. Sorunlu metrikleri tespit eder ve öncelikli iyileştirme önerileri verir.

7. Yapısal Veri (Schema Markup)

Yapısal veri, arama motorlarının sayfanızın ne hakkında olduğunu daha iyi anlamasını sağlayan kodlanmış bilgidir.

Temel schema türleri:

  • Organization: Şirket bilgileri (ad, logo, iletişim)
  • Article: Blog yazıları ve haber makaleleri
  • FAQ: Sık sorulan sorular
  • HowTo: Adım adım rehberler
  • Product: Ürün bilgileri (fiyat, stok durumu, değerlendirme)
  • BreadcrumbList: Breadcrumb navigasyonu
  • LocalBusiness: Yerel işletme bilgileri

Yapısal veri ekleme yöntemleri:

  • JSON-LD (Google'ın önerdiği format)
  • Microdata (HTML içine gömülü)
  • RDFa (HTML öznitelikleri olarak)

2026'da JSON-LD en iyi uygulama olarak kabul edilmektedir. Head bölümüne eklenir ve HTML yapısından bağımsızdır.

8. Hreflang ve Uluslararası SEO

Çok dilli veya çok bölgeli siteler için hreflang etiketleri kritiktir.

Hreflang kuralları:

  • Her dil/bölge kombinasyonu için hreflang etiketi ekleyin
  • x-default ile varsayılan sayfayı belirleyin
  • Hreflang etiketleri çift yönlü olmalı (A → B ise B → A da olmalı)
  • Hreflang URL'leri canonical URL'lerle tutarlı olmalı

Uygulama yöntemleri:

  • HTML head bölümünde link etiketi
  • HTTP header (PDF'ler ve diğer HTML dışı kaynaklar için)
  • XML sitemap (en ölçeklenebilir yöntem)

9. Log Dosyası Analizi

Sunucu log dosyaları, arama motoru botlarının sitenizi gerçekte nasıl taradığını gösterir. Bu, crawl simülasyonundan daha güvenilir veri sağlar.

Log analizinde bakılacaklar:

  • Googlebot'un en çok ziyaret ettiği sayfalar hangileri?
  • Hangi sayfalar hiç taranmıyor?
  • Tarama sıklığı değişiyor mu?
  • Sunucu hataları (5xx) ne zaman ve nerede oluşuyor?
  • Crawl budget nasıl dağılıyor?

10. JavaScript SEO

Modern web siteleri JavaScript ağırlıklıdır. Google JavaScript'i render edebilir, ancak bu süreç maliyetli ve gecikmeli olabilir.

JavaScript SEO en iyi uygulamaları:

  • Kritik içerik sunucu tarafında render edilmeli (SSR veya SSG)
  • Lazy-loaded içerik Googlebot'un erişebileceği şekilde yapılandırılmalı
  • JavaScript hataları düzeltilmeli (render'ı engelleyen hatalar içeriği görünmez yapar)
  • Dynamic rendering gerekiyorsa doğru konfigürasyon yapılmalı
  • Internal link'ler standart HTML anchor etiketi ile olmalı (JavaScript router'lar sorun yaratabilir)

Teknik SEO Kontrol Listesi (2026)

Düzenli olarak kontrol etmeniz gereken kapsamlı bir teknik SEO kontrol listesi:

Taranabilirlik:

  • [ ] Robots.txt doğru yapılandırılmış
  • [ ] XML sitemap güncel ve hatasız
  • [ ] Kırık linkler düzeltilmiş
  • [ ] Redirect zincirleri temizlenmiş
  • [ ] Crawl budget verimli kullanılıyor

Dizine Alınabilirlik:

  • [ ] Canonical etiketler doğru
  • [ ] Noindex etiketleri doğru sayfalarda
  • [ ] Dizin kapsamı raporu temiz
  • [ ] Orphan page'ler (bağsız sayfalar) yok

Performans:

  • [ ] LCP 2.5 saniye altında
  • [ ] INP 200ms altında
  • [ ] CLS 0.1 altında
  • [ ] Görseller optimize (WebP/AVIF)

Güvenlik ve Altyapı:

  • [ ] HTTPS aktif, mixed content yok
  • [ ] SSL sertifikası güncel
  • [ ] Hreflang etiketleri doğru (çok dilli siteler)
  • [ ] Yapısal veri hatasız

SEOctopus'un Technical Health Score bu kontrol listesinin büyük bölümünü otomatik olarak çalıştırır. Crawl Analysis ile derinlemesine teknik tarama yapabilir, On-Page Checker ile sayfa bazında optimizasyon durumunu takip edebilirsiniz.

Teknik SEO Araçları

AraçAna Güçlü YönüFiyat
SEOctopusTechnical Health Score, Crawl Analysis, entegre platformUygun fiyatlı
Google Search ConsoleDizin kapsamı, performans verileriÜcretsiz
Screaming FrogDetaylı teknik tarama259 GBP/yıl
PageSpeed InsightsCore Web Vitals analiziÜcretsiz
Chrome DevToolsJavaScript debug, performans profiliÜcretsiz

Teknik SEO'da Sık Yapılan Hatalar

1. Robots.txt ile Önemli İçeriği Engellemek

Robots.txt yanlış yapılandırıldığında, önemli sayfalar veya kaynaklar (CSS, JS) engellenir. Bu, Google'ın sayfalarınızı doğru render edememesine neden olur.

2. Canonical Etiket Tutarsızlıkları

Farklı URL varyasyonları (www/www olmayan, HTTP/HTTPS, trailing slash) arasında canonical etiket tutarsızlıkları duplicate content sorununa yol açar.

3. Yavaş Sunucu Yanıt Süresi (TTFB)

Time to First Byte 600ms'nin üzerindeyse, tüm sayfa performansı olumsuz etkilenir. Kaliteli hosting, CDN ve önbellekleme ile TTFB'yi 200ms altına indirmek hedeflenmelidir.

4. JavaScript'e Aşırı Bağımlılık

Tüm içeriği JavaScript ile render etmek, Googlebot'un içeriğinizi görmesini zorlaştırır. Kritik içerik sunucu tarafında render edilmelidir.

5. Mobil Deneyimi İhmal Etmek

Google mobile-first indexing kullandığına göre, mobil site aslında ana sitenizdir. Masaüstü mükemmel olsa bile mobilde sorunlar sıralamayı doğrudan etkiler.

2026'da Teknik SEO Trendleri

AI Tarama ve Anlama

AI arama motorları web'i farklı şekilde tarar. ChatGPT ve Perplexity'nin botları (GPTBot, PerplexityBot) kendi tarama kurallarına sahiptir. 2026'da robots.txt yapılandırmanız bu botları da kapsamalıdır.

HTTP/3 ve QUIC Protokolü

HTTP/3 protokolü sayfa yükleme hızını önemli ölçüde artırır. Özellikle mobil kullanıcılar için gecikmeyi azaltır. CDN sağlayıcıların çoğu HTTP/3 desteği sunar.

Edge Computing ve SSR

Edge computing, sunucu tarafı render'ı kullanıcıya en yakın noktada gerçekleştirir. Bu hem TTFB'yi hem LCP'yi dramatik şekilde iyileştirir. Next.js, Nuxt ve benzeri framework'ler edge SSR desteği sunar.

Yapısal Veri Genişlemesi

Google sürekli yeni schema türleri ekliyor. 2026'da özellikle AI-friendly yapısal veri (kaynak güvenilirliği, yazar bilgisi, yayın tarihi) daha da önemli hale geldi.

Sık Sorulan Sorular (FAQ)

Teknik SEO ile on-page SEO arasındaki fark nedir?

Teknik SEO, sitenin altyapısı ile ilgilenir: taranabilirlik, dizine alınabilirlik, hız, güvenlik. On-page SEO ise sayfa bazında içerik optimizasyonuna odaklanır: title tag, meta description, heading yapısı, keyword kullanımı. Her ikisi de SEO'nun ayrılmaz parçalarıdır ve birlikte çalışır.

Teknik SEO ne kadar sürede sonuç verir?

Teknik iyileştirmeler genellikle 2-4 hafta içinde etkisini gösterir. Taranabilirlik ve dizine alınabilirlik düzeltmeleri en hızlı sonuç veren alanlardır. Sayfa hızı iyileştirmeleri de birkaç hafta içinde sıralama değişiklikleri yaratabilir.

Teknik SEO için kodlama bilmek gerekir mi?

Temel teknik SEO kontrolleri araçlarla yapılabilir. Ancak ileri düzey iyileştirmeler (JavaScript SEO, server konfigürasyonu, schema markup ekleme) için en azından HTML, CSS ve temel sunucu bilgisi gerekir. SEOctopus gibi araçlar teknik kontrolleri otomatikleştirerek kodlama ihtiyacını azaltır.

En önemli teknik SEO faktörleri hangileri?

Öncelik sırasıyla: 1) Taranabilirlik ve dizine alınabilirlik (siteniz taranamıyorsa hiçbir şey işe yaramaz), 2) Sayfa hızı ve Core Web Vitals, 3) HTTPS güvenliği, 4) Mobil uyumluluk, 5) Yapısal veri. SEOctopus'un Technical Health Score tüm bu faktörleri tek bir puan altında toplar.

Teknik SEO audit'i nasıl yapılır?

SEOctopus'un Crawl Analysis modülünü veya Screaming Frog gibi bir araçla site genelinde tarama başlatın. Google Search Console'un Dizin Kapsamı raporunu kontrol edin. PageSpeed Insights ile Core Web Vitals'ı ölçün. Robots.txt ve sitemap'i manuel olarak gözden geçirin. Tüm bulguları öncelik sırasına göre bir aksiyon planına dönüştürün.

JavaScript ağırlıklı sitelerde teknik SEO nasıl yapılır?

JavaScript ağırlıklı sitelerde SSR (Server-Side Rendering) veya SSG (Static Site Generation) kullanmak en iyi yaklaşımdır. Google JavaScript'i render edebilir ancak bu gecikmelidir. Kritik içerik HTML'de bulunmalı, internal link'ler standart anchor etiketi ile olmalı ve JavaScript hatalarının render'ı engellemediğinden emin olunmalıdır.


İlgili Yazılar

Markanızın AI Görünürlüğünü Takip Edin

ChatGPT, Perplexity ve diğer AI arama motorlarında markanızın nasıl göründüğünü keşfedin.