Teknik SEO Rehberi: Web Sitenizi Arama Motorları İçin Optimize Edin (2026)

Teknik SEO, web sitenizin arama motorları tarafından sorunsuz şekilde taranmasını, dizine alınmasını ve sıralanmasını sağlayan altyapı optimizasyonlarının tamamıdır. İçeriğiniz ne kadar değerli olursa olsun, teknik altyapınız sağlam değilse arama motorları bu içeriği göremez, anlayamaz veya kullanıcılara sunamaz.
2026'da teknik SEO sadece Google için değil, AI arama motorları (ChatGPT, Perplexity, Gemini) için de kritik öneme sahiptir. Bu rehberde teknik SEO'nun ne olduğunu, temel bileşenlerini, uygulama adımlarını ve araçlarını kapsamlı şekilde ele alıyoruz.
Teknik SEO Nedir?
Teknik SEO, bir web sitesinin arama motoru botları tarafından verimli şekilde taranabilmesi ve dizine alınabilmesi için yapılan sunucu tarafı ve site geneli optimizasyonlardır. İçerik ve bağlantı optimizasyonundan farklı olarak, teknik SEO altyapıya odaklanır.
Teknik SEO'yu bir binanın temeline benzetebilirsiniz. Dışarıdan görünmez ama her şeyi ayakta tutar. Temel zayıfsa üzerine ne kadar güzel bir bina yaparsanız yapın, yapı sağlam olmaz.
Teknik SEO Neden Kritik?
- Taranabilirlik: Googlebot sitenizi tarayamazsa, içeriğiniz dizine alınamaz
- Dizine alınabilirlik: Dizine alınmayan sayfalar arama sonuçlarında görünemez
- Sayfa hızı: Yavaş siteler hem sıralamada hem kullanıcı deneyiminde kaybeder
- Mobil uyumluluk: Google mobile-first indexing kullanır; mobil deneyim sıralamayı belirler
- Güvenlik: HTTPS olmayan siteler tarayıcı uyarısı alır ve kullanıcı güvenini kaybeder
- AI motorlarında görünürlük: Yapısal veri ve temiz altyapı AI motorlarının içeriğinizi anlamasını kolaylaştırır
Teknik SEO'nun Temel Bileşenleri
1. Crawlability (Taranabilirlik)
Taranabilirlik, arama motoru botlarının sitenizi keşfedip tüm sayfalarınıza erişebilme yeteneğidir.
Robots.txt Dosyası
Robots.txt, arama motoru botlarına hangi sayfaları tarayabileceklerini ve hangilerini atlayabileceklerini söyleyen bir yönerge dosyasıdır.
En iyi uygulamalar:
- Önemli sayfaları asla engellemeyin
- CSS ve JavaScript dosyalarını engellemeyin (Googlebot render edebilmeli)
- Sitemap URL'sini robots.txt'e ekleyin
- Farklı botlar için farklı kurallar tanımlayabilirsiniz
Crawl Budget Yönetimi
Googlebot'un sitenizi ziyaret ettiğinde tarayabileceği sayfa sayısı sınırlıdır. Bu sınıra crawl budget denir. Büyük sitelerde crawl budget yönetimi kritiktir.
Crawl budget'i verimli kullanmak için:
- Değersiz sayfaları (filtre kombinasyonları, session ID'li URL'ler) noindex veya robots.txt ile engelleyin
- Sayfa hızını artırın (daha hızlı tarama, daha fazla sayfa)
- Kırık linkleri düzeltin (bot kırık sayfalarda zaman kaybetmesin)
- Flat site mimarisi kullanın (önemli sayfalar az tıkla erişilebilir olsun)
SEOctopus'un Crawl Analysis modülü, sitenizi Googlebot gibi tarayarak taranabilirlik sorunlarını otomatik tespit eder. Hangi sayfaların engellediğini, hangi sayfalara ulaşılamadığını ve crawl budget'in nasıl kullanıldığını görsel olarak raporlar.
2. Indexability (Dizine Alınabilirlik)
Bir sayfanın taranması, dizine alınacağı anlamına gelmez. Dizine alınabilirlik, sayfanızın Google'ın dizinine eklenmesini sağlayan faktörleri kapsar.
Kontrol noktaları:
- Noindex etiketi: Dizine alınmasını istemediğiniz sayfalar (giriş sayfaları, teşekkür sayfaları) noindex ile işaretlenmiş mi?
- Canonical URL: Aynı içeriğin birden fazla URL'de bulunması durumunda, tercih edilen versiyon canonical etiketle belirtilmiş mi?
- HTTP durum kodları: Sayfalar 200 (başarılı) döndürüyor mu? 404, 500 hataları var mı?
- Redirect zincirleri: Birden fazla yönlendirme sıralı mı? (A → B → C → D gibi zincirler tarama verimliliğini düşürür)
Google Search Console Kullanımı
Google Search Console'un Dizin Kapsamı raporu, hangi sayfalarınızın dizine alındığını ve hangilerinin neden dışlandığını gösterir. Bu raporu düzenli kontrol etmek teknik SEO'nun temelidir.
3. Site Mimarisi ve URL Yapısı
Site mimarisi hem kullanıcıların hem de arama motorlarının sitenizi anlamasını belirler.
İdeal site mimarisi özellikleri:
- Düz hiyerarşi: Her sayfa ana sayfadan en fazla 3 tıkla erişilebilir olmalı
- Mantıklı kategorilendirme: İçerikler anlamlı kategoriler altında gruplandırılmalı
- Breadcrumb navigasyonu: Kullanıcıya ve arama motorlarına sayfa konumunu gösterir
- Temiz URL yapısı: URL'ler kısa, açıklayıcı ve keyword içerici olmalı
URL Yapısı En İyi Uygulamaları:
- Küçük harf kullanın
- Kelime ayıracı olarak tire (-) kullanın
- Gereksiz parametrelerden kaçının
- Türkçe karakter yerine Latin karakter tercih edin (ö → o, ü → u, ş → s)
- Tarih veya ID bazlı URL'lerden kaçının
4. XML Sitemap Optimizasyonu
XML sitemap, arama motorlarına sitenizin yapısını ve tüm önemli sayfaları bildiren bir haritadır.
Sitemap en iyi uygulamaları:
- Sadece dizine alınmasını istediğiniz sayfaları ekleyin
- 404, noindex ve redirect sayfaları sitemap'ten çıkarın
- lastmod tarihini doğru kullanın (gerçek güncelleme tarihini yansıtsın)
- Büyük sitelerde sitemap'i bölün (her sitemap en fazla 50.000 URL)
- Sitemap'i robots.txt'e ve Google Search Console'a kaydedin
- Görsel ve video sitemap'leri ayrıca oluşturun
5. HTTPS ve Site Güvenliği
HTTPS, Google'ın doğrudan sıralama faktörlerinden biridir ve kullanıcı güveninin temelidir.
Kontrol edilmesi gerekenler:
- Tüm sayfalar HTTPS üzerinden sunuluyor mu?
- HTTP'den HTTPS'e 301 yönlendirmesi yapılmış mı?
- SSL sertifikası güncel mi?
- Mixed content (HTTP kaynakların HTTPS sayfada yüklenmesi) sorunu var mı?
- HSTS (HTTP Strict Transport Security) header'ı aktif mi?
6. Core Web Vitals ve Sayfa Hızı
Google'ın performans metrikleri doğrudan sıralamayı etkiler. 2026'da Core Web Vitals her zamankinden önemlidir.
LCP (Largest Contentful Paint) — Yükleme Hızı
Ana içerik 2.5 saniye içinde yüklenmeli. LCP'yi iyileştirmek için:
- Görselleri optimize edin (WebP/AVIF, boyut küçültme, lazy loading)
- Sunucu yanıt süresini azaltın (CDN, önbellekleme)
- Render-blocking kaynakları kaldırın (kritik CSS inline, JS defer)
- Preload ile kritik kaynakları önceden yükleyin
INP (Interaction to Next Paint) — Etkileşim Hızı
Kullanıcı etkileşimine yanıt süresi 200ms altında olmalı. INP'yi iyileştirmek için:
- Uzun JavaScript görevlerini bölün (50ms kuralı)
- Main thread'i bloklamaktan kaçının
- Web Worker'lar kullanın
- Input handler'ları optimize edin
CLS (Cumulative Layout Shift) — Görsel Kararlılık
Sayfa yüklenirken elementlerin kayma miktarı 0.1 altında olmalı. CLS'yi iyileştirmek için:
- Görsellere width ve height öznitelikleri ekleyin
- Dinamik içeriklere yer tutucu (placeholder) ekleyin
- Font yükleme stratejisi belirleyin (font-display: swap)
- Reklam ve embed alanları için boyut ayırın
SEOctopus'un Technical Health Score, Core Web Vitals metriklerini de kapsayan genel bir teknik sağlık puanı sunar. Sorunlu metrikleri tespit eder ve öncelikli iyileştirme önerileri verir.
7. Yapısal Veri (Schema Markup)
Yapısal veri, arama motorlarının sayfanızın ne hakkında olduğunu daha iyi anlamasını sağlayan kodlanmış bilgidir.
Temel schema türleri:
- Organization: Şirket bilgileri (ad, logo, iletişim)
- Article: Blog yazıları ve haber makaleleri
- FAQ: Sık sorulan sorular
- HowTo: Adım adım rehberler
- Product: Ürün bilgileri (fiyat, stok durumu, değerlendirme)
- BreadcrumbList: Breadcrumb navigasyonu
- LocalBusiness: Yerel işletme bilgileri
Yapısal veri ekleme yöntemleri:
- JSON-LD (Google'ın önerdiği format)
- Microdata (HTML içine gömülü)
- RDFa (HTML öznitelikleri olarak)
2026'da JSON-LD en iyi uygulama olarak kabul edilmektedir. Head bölümüne eklenir ve HTML yapısından bağımsızdır.
8. Hreflang ve Uluslararası SEO
Çok dilli veya çok bölgeli siteler için hreflang etiketleri kritiktir.
Hreflang kuralları:
- Her dil/bölge kombinasyonu için hreflang etiketi ekleyin
- x-default ile varsayılan sayfayı belirleyin
- Hreflang etiketleri çift yönlü olmalı (A → B ise B → A da olmalı)
- Hreflang URL'leri canonical URL'lerle tutarlı olmalı
Uygulama yöntemleri:
- HTML head bölümünde link etiketi
- HTTP header (PDF'ler ve diğer HTML dışı kaynaklar için)
- XML sitemap (en ölçeklenebilir yöntem)
9. Log Dosyası Analizi
Sunucu log dosyaları, arama motoru botlarının sitenizi gerçekte nasıl taradığını gösterir. Bu, crawl simülasyonundan daha güvenilir veri sağlar.
Log analizinde bakılacaklar:
- Googlebot'un en çok ziyaret ettiği sayfalar hangileri?
- Hangi sayfalar hiç taranmıyor?
- Tarama sıklığı değişiyor mu?
- Sunucu hataları (5xx) ne zaman ve nerede oluşuyor?
- Crawl budget nasıl dağılıyor?
10. JavaScript SEO
Modern web siteleri JavaScript ağırlıklıdır. Google JavaScript'i render edebilir, ancak bu süreç maliyetli ve gecikmeli olabilir.
JavaScript SEO en iyi uygulamaları:
- Kritik içerik sunucu tarafında render edilmeli (SSR veya SSG)
- Lazy-loaded içerik Googlebot'un erişebileceği şekilde yapılandırılmalı
- JavaScript hataları düzeltilmeli (render'ı engelleyen hatalar içeriği görünmez yapar)
- Dynamic rendering gerekiyorsa doğru konfigürasyon yapılmalı
- Internal link'ler standart HTML anchor etiketi ile olmalı (JavaScript router'lar sorun yaratabilir)
Teknik SEO Kontrol Listesi (2026)
Düzenli olarak kontrol etmeniz gereken kapsamlı bir teknik SEO kontrol listesi:
Taranabilirlik:
- [ ] Robots.txt doğru yapılandırılmış
- [ ] XML sitemap güncel ve hatasız
- [ ] Kırık linkler düzeltilmiş
- [ ] Redirect zincirleri temizlenmiş
- [ ] Crawl budget verimli kullanılıyor
Dizine Alınabilirlik:
- [ ] Canonical etiketler doğru
- [ ] Noindex etiketleri doğru sayfalarda
- [ ] Dizin kapsamı raporu temiz
- [ ] Orphan page'ler (bağsız sayfalar) yok
Performans:
- [ ] LCP 2.5 saniye altında
- [ ] INP 200ms altında
- [ ] CLS 0.1 altında
- [ ] Görseller optimize (WebP/AVIF)
Güvenlik ve Altyapı:
- [ ] HTTPS aktif, mixed content yok
- [ ] SSL sertifikası güncel
- [ ] Hreflang etiketleri doğru (çok dilli siteler)
- [ ] Yapısal veri hatasız
SEOctopus'un Technical Health Score bu kontrol listesinin büyük bölümünü otomatik olarak çalıştırır. Crawl Analysis ile derinlemesine teknik tarama yapabilir, On-Page Checker ile sayfa bazında optimizasyon durumunu takip edebilirsiniz.
Teknik SEO Araçları
| Araç | Ana Güçlü Yönü | Fiyat |
|---|---|---|
| SEOctopus | Technical Health Score, Crawl Analysis, entegre platform | Uygun fiyatlı |
| Google Search Console | Dizin kapsamı, performans verileri | Ücretsiz |
| Screaming Frog | Detaylı teknik tarama | 259 GBP/yıl |
| PageSpeed Insights | Core Web Vitals analizi | Ücretsiz |
| Chrome DevTools | JavaScript debug, performans profili | Ücretsiz |
Teknik SEO'da Sık Yapılan Hatalar
1. Robots.txt ile Önemli İçeriği Engellemek
Robots.txt yanlış yapılandırıldığında, önemli sayfalar veya kaynaklar (CSS, JS) engellenir. Bu, Google'ın sayfalarınızı doğru render edememesine neden olur.
2. Canonical Etiket Tutarsızlıkları
Farklı URL varyasyonları (www/www olmayan, HTTP/HTTPS, trailing slash) arasında canonical etiket tutarsızlıkları duplicate content sorununa yol açar.
3. Yavaş Sunucu Yanıt Süresi (TTFB)
Time to First Byte 600ms'nin üzerindeyse, tüm sayfa performansı olumsuz etkilenir. Kaliteli hosting, CDN ve önbellekleme ile TTFB'yi 200ms altına indirmek hedeflenmelidir.
4. JavaScript'e Aşırı Bağımlılık
Tüm içeriği JavaScript ile render etmek, Googlebot'un içeriğinizi görmesini zorlaştırır. Kritik içerik sunucu tarafında render edilmelidir.
5. Mobil Deneyimi İhmal Etmek
Google mobile-first indexing kullandığına göre, mobil site aslında ana sitenizdir. Masaüstü mükemmel olsa bile mobilde sorunlar sıralamayı doğrudan etkiler.
2026'da Teknik SEO Trendleri
AI Tarama ve Anlama
AI arama motorları web'i farklı şekilde tarar. ChatGPT ve Perplexity'nin botları (GPTBot, PerplexityBot) kendi tarama kurallarına sahiptir. 2026'da robots.txt yapılandırmanız bu botları da kapsamalıdır.
HTTP/3 ve QUIC Protokolü
HTTP/3 protokolü sayfa yükleme hızını önemli ölçüde artırır. Özellikle mobil kullanıcılar için gecikmeyi azaltır. CDN sağlayıcıların çoğu HTTP/3 desteği sunar.
Edge Computing ve SSR
Edge computing, sunucu tarafı render'ı kullanıcıya en yakın noktada gerçekleştirir. Bu hem TTFB'yi hem LCP'yi dramatik şekilde iyileştirir. Next.js, Nuxt ve benzeri framework'ler edge SSR desteği sunar.
Yapısal Veri Genişlemesi
Google sürekli yeni schema türleri ekliyor. 2026'da özellikle AI-friendly yapısal veri (kaynak güvenilirliği, yazar bilgisi, yayın tarihi) daha da önemli hale geldi.
Sık Sorulan Sorular (FAQ)
Teknik SEO ile on-page SEO arasındaki fark nedir?
Teknik SEO, sitenin altyapısı ile ilgilenir: taranabilirlik, dizine alınabilirlik, hız, güvenlik. On-page SEO ise sayfa bazında içerik optimizasyonuna odaklanır: title tag, meta description, heading yapısı, keyword kullanımı. Her ikisi de SEO'nun ayrılmaz parçalarıdır ve birlikte çalışır.
Teknik SEO ne kadar sürede sonuç verir?
Teknik iyileştirmeler genellikle 2-4 hafta içinde etkisini gösterir. Taranabilirlik ve dizine alınabilirlik düzeltmeleri en hızlı sonuç veren alanlardır. Sayfa hızı iyileştirmeleri de birkaç hafta içinde sıralama değişiklikleri yaratabilir.
Teknik SEO için kodlama bilmek gerekir mi?
Temel teknik SEO kontrolleri araçlarla yapılabilir. Ancak ileri düzey iyileştirmeler (JavaScript SEO, server konfigürasyonu, schema markup ekleme) için en azından HTML, CSS ve temel sunucu bilgisi gerekir. SEOctopus gibi araçlar teknik kontrolleri otomatikleştirerek kodlama ihtiyacını azaltır.
En önemli teknik SEO faktörleri hangileri?
Öncelik sırasıyla: 1) Taranabilirlik ve dizine alınabilirlik (siteniz taranamıyorsa hiçbir şey işe yaramaz), 2) Sayfa hızı ve Core Web Vitals, 3) HTTPS güvenliği, 4) Mobil uyumluluk, 5) Yapısal veri. SEOctopus'un Technical Health Score tüm bu faktörleri tek bir puan altında toplar.
Teknik SEO audit'i nasıl yapılır?
SEOctopus'un Crawl Analysis modülünü veya Screaming Frog gibi bir araçla site genelinde tarama başlatın. Google Search Console'un Dizin Kapsamı raporunu kontrol edin. PageSpeed Insights ile Core Web Vitals'ı ölçün. Robots.txt ve sitemap'i manuel olarak gözden geçirin. Tüm bulguları öncelik sırasına göre bir aksiyon planına dönüştürün.
JavaScript ağırlıklı sitelerde teknik SEO nasıl yapılır?
JavaScript ağırlıklı sitelerde SSR (Server-Side Rendering) veya SSG (Static Site Generation) kullanmak en iyi yaklaşımdır. Google JavaScript'i render edebilir ancak bu gecikmelidir. Kritik içerik HTML'de bulunmalı, internal link'ler standart anchor etiketi ile olmalı ve JavaScript hatalarının render'ı engellemediğinden emin olunmalıdır.