Robots.txt, arama motoru botlarına bir web sitesinde hangi sayfaların taranabileceğini veya taranmaması gerektiğini söyleyen ve HTTP Robots Protocol kapsamında çalışan bir metin dosyasıdır; Googlebot, Bingbot ve diğer search engine bot’larının siteyi nasıl tarayacağını belirleyen crawl directive ve bot access rules içerir. Bir arama motoru crawler’ı siteyi ziyaret ettiğinde ilk olarak kök dizindeki robots.txt dosyasını kontrol eder, burada yer alan User-agent, Allow, Disallow ve Sitemap direktiflerine göre hangi URL’leri tarayacağına karar verir. Doğru yapılandırılmış bir robots.txt dosyası arama motoru botlarının erişebileceği sayfaları belirler, admin paneli veya özel klasörleri gizler, gereksiz veya parametreli URL’lerin taranmasını engelleyerek crawl budget kullanımını optimize eder ve XML sitemap konumunu arama motorlarına bildirir. Teknik SEO açısından kritik olan bu yapı yanlış yapılandırıldığında önemli sayfaların taranmasını engelleyebilir veya tüm sitenin Disallow ile kapatılması gibi ciddi indeksleme sorunlarına yol açabilir; bu nedenle robots.txt dosyası Google Search Console robots.txt test araçları veya validator araçları ile kontrol edilerek doğru şekilde optimize edilmelidir.

Robots.txt Ne İşe Yarar?
Robots.txt dosyasının temel amacı arama motoru botlarının web sitesini nasıl tarayacağını kontrol etmektir. Bir search engine crawler siteyi ziyaret ettiğinde ilk olarak kök dizindeki robots.txt dosyasını kontrol eder ve burada tanımlanan kurallara göre hareket eder.
Robots.txt dosyasının başlıca kullanım amaçları şunlardır:
- Arama motoru botlarının erişebileceği sayfaları belirlemek
- Admin paneli veya özel klasörleri gizlemek
- Crawl budget kullanımını optimize etmek
- Gereksiz sayfa veya parametreli URL’lerin taranmasını engellemek
- XML sitemap konumunu arama motorlarına bildirmek
Bu sayede indexing control sağlanır ve arama motorları siteyi daha verimli bir şekilde tarayabilir.
Robots.txt Nasıl Çalışır?
Bir arama motoru botu bir siteyi ziyaret ettiğinde şu adımlar gerçekleşir:
- Bot ilk olarak
siteadi.com/robots.txtadresini kontrol eder. - Robots.txt içinde bulunan kuralları okur.
- Allow ve Disallow direktiflerine göre hangi URL’leri tarayacağına karar verir.
Örneğin aşağıdaki robots.txt kuralı admin klasörünün taranmasını engeller:
User-agent: *
Disallow: /admin/
Burada:
- User-agent hangi bot için kural yazıldığını belirtir
- Disallow botların erişmemesi gereken dizini tanımlar
Bu yapı sayesinde web sitelerinde bot access rules kolayca yönetilebilir.

Robots.txt Komutları (Allow, Disallow ve Sitemap)
Robots.txt dosyasında kullanılan bazı temel direktifler vardır. Bu direktifler botların hangi içerikleri tarayabileceğini belirler.
User-agent
Hangi bot için kural yazıldığını belirtir.
User-agent: Googlebot
Disallow
Belirtilen klasör veya sayfanın taranmasını engeller.
Disallow: /admin/
Allow
Engellenmiş bir klasör içinde belirli sayfaların taranmasına izin verir.
Allow: /blog/
Sitemap Directive
Arama motorlarına XML Sitemap konumunu bildirir.
Sitemap: https://siteadi.com/sitemap.xml
Bu yapı arama motorlarının siteyi daha hızlı anlamasına yardımcı olur.
SEO İçin Robots.txt Nasıl Optimize Edilir?
SEO açısından robots.txt dosyasının doğru yapılandırılması oldukça önemlidir. Yanlış yapılandırılmış bir robots.txt dosyası önemli sayfaların taranmasını engelleyebilir ve bu durum indexing sorunlarına yol açabilir.
SEO için robots.txt optimizasyonunda dikkat edilmesi gereken noktalar:
- Önemli sayfaları yanlışlıkla Disallow ile engellememek
- Gereksiz filtre veya parametre URL’lerini engellemek
- Crawl budget tüketen sayfaları kontrol etmek
- Sitemap directive kullanarak XML sitemap eklemek
Doğru yapılandırılmış bir robots.txt dosyası crawl budget optimizasyonu sağlar ve arama motorlarının siteyi daha verimli taramasına yardımcı olur.
İlgili blog yazım ilginizi çekebilir : AI SEO Nedir ?
Robots.txt Hataları ve Test Araçları
Robots.txt dosyasında yapılan hatalar SEO açısından ciddi sorunlara yol açabilir. Örneğin tüm siteyi yanlışlıkla engellemek en sık yapılan teknik SEO hatalarından biridir.
Yaygın robots.txt hataları:
- Tüm siteyi Disallow ile engellemek
- Yanlış wildcard kullanımı
- Sitemap eklememek
- Kritik sayfaları taramaya kapatmak
Bu hataları kontrol etmek için Google Search Console içerisindeki robots.txt test araçları kullanılabilir. Robots.txt test araçları sayesinde arama motoru botlarının hangi sayfaları tarayabildiği kolayca analiz edilebilir.
Ayrıca robots.txt validator veya robots.txt generator araçları kullanılarak dosyanın doğru yapılandırıldığı doğrulanabilir.
Robots.txt dosyası teknik SEO’nun temel bileşenlerinden biridir. Doğru kullanıldığında arama motorlarının siteyi daha verimli taramasını sağlar, crawl budget kullanımını optimize eder ve gereksiz sayfaların indekslenmesini engelleyerek sitenin genel SEO performansını iyileştirir.



