Robots.txt Tester
Test din robots.txt og kontrollér om søgemaskiner kan crawle dine vigtigste sider. Indsæt din robots.txt og test URL'er mod specifikke user-agents.
Hvad er robots.txt?
Robots.txt er en tekstfil, der ligger i roden af din hjemmeside (fx eksempel.dk/robots.txt). Den fortæller søgemaskiner som Google og Bing, hvilke sider de må og ikke må crawle. En korrekt konfigureret robots.txt er et vigtigt element i din tekniske SEO.
Vigtige direktiver
- User-agent: Angiver hvilken crawler reglen gælder for. "*" betyder alle crawlere.
- Disallow: Blokerer crawling af den angivne sti.
- Allow: Tillader crawling af den angivne sti (overskriver Disallow).
- Sitemap: Peger crawlere mod dit sitemap for bedre opdagelse af sider.
Almindelige fejl med robots.txt
En forkert robots.txt kan have store konsekvenser for din synlighed i søgeresultaterne:
- Blokering af vigtige sider: Hvis du ved et uheld blokerer dine hovedsider, kan Google ikke indexere dem.
- Blokering af CSS/JS: Google skal kunne se dine stylesheets og scripts for at rendere din side korrekt.
- For bred Disallow: "Disallow: /" blokerer hele dit site for den angivne crawler.
- Manglende Sitemap-reference: Tilføj altid en Sitemap-linje for at hjælpe crawlere med at finde dine sider.
AI-crawlere og robots.txt
Med fremkomsten af AI-søgemaskiner og sprogmodeller er det blevet relevant at styre adgangen for crawlere som GPTBot (OpenAI), ClaudeBot (Anthropic) og Google-Extended. Du kan bruge robots.txt til at tillade eller blokere disse crawlere individuelt, så du har kontrol over, om dit indhold bruges til AI-træning.
Har du brug for hjælp med teknisk SEO?
En korrekt robots.txt er kun én del af den tekniske SEO-opsætning. For en komplet gennemgang af hastighed, schema markup, redirects og crawling, kan du bestille en gratis SEO-analyse eller kontakte os direkte.