Technické SEO
Technické SEO je soubor praktik, které zajišťují, aby vyhledávače dokázaly efektivně procházet, interpretovat a indexovat váš web. Tři nejčastěji podceňované oblasti jsou rychlost načítání (Core Web Vitals), sitemapy a robots.txt. Tento článek poskytuje ucelený návod, jak je navrhnout a spravovat s ohledem na škálování, crawl budget a dlouhodobou udržitelnost.
Rychlost a Core Web Vitals
- LCP (Largest Contentful Paint): cílit ≤ 2,5 s. Optimalizujte render kritického obsahu (nad ohybem), eliminujte render-blocking CSS/JS, používejte
preloadpro klíčové fonty a hero obrázek. - CLS (Cumulative Layout Shift): cílit ≤ 0,1. Rezervujte rozměry pro média (atributy
width/height,aspect-ratio), vyhněte se vsuvkám nad již vykresleným obsahem. - INP (Interaction to Next Paint): cílit ≤ 200 ms. Minimalizujte hlavní vlákno JS, používejte code-splitting, defer/async, islands architecture a web worker pro náročné úlohy.
Audit výkonu: metodika
- Field vs. lab data: kombinujte reálná data (CrUX, RUM) s laboratorními (Lighthouse). Pole (RUM) rozhoduje pro hodnocení.
- Identifikace „slow paths“: sledujte per-šablonu a per-route metriky; dlouhé TTFB často indikuje problém v databázi nebo šablonách.
- Prioritizace: řaďte úkoly podle vlivu na LCP > INP > CLS; zlepšení TTFB a critical request chain má obvykle nejvyšší návratnost.
TTFB a serverová optimalizace
- Cache vrstvy: CDN edge cache, full-page cache (FPC), micro-cache (1–10 s) pro burst traffic, aplikace s ESI/SSI.
- HTTP/2 a HTTP/3: multiplexing a nižší latence; nahraďte domain sharding moderními protokoly.
- Komprese: aktivujte Brotli pro textové typy (
text/html,text/css,application/javascript,application/json). - TLS a síť: 0-RTT jen po zvážení bezpečnosti; optimalizujte TLS handshakes a udržujte se na moderních šifrách.
Front-end výkon: praktiky
- Obrázky: responsive images (
srcset,sizes), formáty AVIF/WebP,loading="lazy",fetchpriority="high"pro LCP. - Fonty:
preloadklíčových fontů,font-display: swap, proměnné fonty (single file), subsetování. - CSS/JS: kritický CSS inline, zbytek
mediaadefer; odstraňte nepoužitý kód (tree-shaking, purge CSS). - Prioritizace zdrojů:
preconnectna klíčové domény (CDN, API),prefetchpro další navigace.
Renderování a JavaScript SEO
- SSR/SSG/ISR: server-side render, statické generování nebo inkrementální revalidace zlepší LCP a indexovatelnost.
- Hydratace na vyžádání: islands nebo partial hydration výrazně snižují JS nároky na klientovi.
- SPA a indexace: zajistěte, že HTML obsahuje kanonický obsah. Vyhněte se zastaralému „prerendering only for bots“; preferujte univerzální render.
Crawl budget a struktura webu
- Zkraťte hloubku kliků k důležitému obsahu (≤ 3), interní linking s descriptive anchors.
- Odstraňte parametrové duplicity; konsolidujte filtry pomocí kanonizace a noindex u nekatalogizovatelných kombinací.
- Stabilní status kódy: důležité stránky → 200; migrující → 301; dočasně mimo → 302/307; odstraněné → 410.
XML sitemap: účel a zásady
XML sitemap je signál pro objevování a prioritu procházení, nikoli garance indexace. Pomáhá zejména velkým webům, e-shopům a dynamickému obsahu.
- Max 50 000 URL nebo 50 MB uncompressed na jednu sitemap. Při větším rozsahu použijte sitemap index.
- Uvádějte pouze kanonické URL vracející 200; bez duplicit, bez parametrů s jiným kanonickým cílem.
- <lastmod> udržujte věrohodně (čas poslední významné změny obsahu). Nepoužívejte <priority> a <changefreq> – vyhledávače je ignorují.
- Oddělte typy obsahu: sitemap_pages.xml, sitemap_products.xml, sitemap_categories.xml. Pro velké weby shlukujte logicky (podle sekcí či data).
Rozšířené sitemapy
- Image sitemap: pro galerie a e-commerce, uvádějte
<image:image>s<image:loc>,<image:title>,<image:caption>. - Video sitemap: pro stránky s videem; doplňte
thumbnail_loc,title,description,duration, příznaky pro rodinnou vhodnost. - News sitemap: pro zpravodajské weby – pouze obsah z posledních 48 hodin a max 1 000 URL v souboru.
- Hreflang a sitemapy: alternativní jazykové verze lze párovat přes
<xhtml:link rel="alternate" hreflang="..." href="..." />přímo v sitemapách.
Generování a aktualizace sitemap
- Generujte ze stejných kanonizačních pravidel jako HTML (single source of truth). Automatizujte v CI/CD.
- Aktualizujte incrementálně: dynamické části častěji, archivní sekce méně. Udržujte realistické
<lastmod>. - Validujte proti XSD a kontrolujte coverage nástroji pro webmastery (indexace vs. hlášené URL).
Robots.txt: pravidla a strategie
robots.txt řídí procházení (crawl), nikoli indexaci. „noindex v robots.txt“ se nepodporuje – pro odindexování použijte meta robots nebo hlavičku X-Robots-Tag.
- Základní direktivy:
User-agent,Disallow,Allow(pro jemné výjimky),Sitemap(absolutní URL), volitelněClean-param(některé vyhledávače). - Crawl-delay: není všeobecně podporováno; raději řiďte rychlost v nástrojích pro webmastery a přes serverové limity.
- Bezpečnost: neodhalujte citlivé cesty (admin rozhraní).
Disallowobsah nechrání – jen ho doporučuje neprocházet. - Parametry a filtry: blokujte procházení „nekonečných“ kombinací (např.
/search,?sort=) a ponechte indexovatelné kanonické listy.
Příklady pravidel robots.txt (ilustrativní)
User-agent: *Disallow: /searchDisallow: /cartAllow: /media/*.cssAllow: /media/*.jsSitemap: https://www.example.com/sitemap_index.xml- Jemnější výjimka:
Disallow: /category/*?page=a současněAllow: /category/*?page=1(pokud chcete crawlit pouze první stranu). - Nedělat:
Disallow: /na produkci;Disallowpro stránky, které chcete indexovat (použijte spíšenoindexa přístupnost pro crawl).
Meta robots a X-Robots-Tag
- Meta tag:
<meta name="robots" content="noindex,follow">– odindexuje, ale zachová signál odkazů dál. - HTTP hlavička:
X-Robots-Tag: noindex, max-snippet:0, max-image-preview:none– vhodné pro soubory (PDF, obrázky) bez HTML. - Dejte pozor na konflikty:
noindex+canonicalna indexovatelnou stránku je protichůdné; preferujte konzistentní záměr.
Kanonizace a duplicitní obsah
- U všech variant (http/https, www/non-www, trailing slash, parametry) definujte jednoznačný canonical.
- Faceted navigace: indexujte pouze užitečné kombinace; ostatní noindex,follow a/nebo blok v robots.txt (pro procházení, ne indexaci).
- Pro stránkování použijte stabilní kanonický odkaz na sebe sama; nepoužívejte zastaralé
rel="prev/next"jako faktor indexace.
Log analýza a řízení crawlu
- Sledujte server access logy a identifikujte, které sekce vyhledávače navštěvují a s jakým kódem.
- Omezte crawl trappy (nekonečné kalendáře, parametry). Nasazujte rate limiting či crawl-budget guards na aplikační vrstvě.
- Z metrik vyvozujte: „málo crawlu“ (přidejte interní linky/sitemap), „mnoho crawlu na low-value“ (upravit robots/kanonizaci).
Strukturovaná data a „discoverability”
- Schema.org (JSON-LD) neurychluje crawl, ale zvyšuje kvalitu pochopení obsahu a potenciál pro bohaté výsledky.
- Udržujte konzistenci mezi structured data a viditelným obsahem; vyhněte se nesouladu (může vést k ignorování).
Edge SEO a CDN
- Přepisování hlaviček (
Link: rel=preload,Cache-Control,Early Hints) na hraně pro klíčové zdroje. - Selektivní stale-while-revalidate a stale-if-error zlepšují dostupnost a vnímání rychlosti.
- U velkých webů automatizujte generování sitemap a publikaci přes edge workers.
Kontrolní seznam: rychlost
- CDN + HTTP/2/3 aktivní; Brotli zapnuto.
- TTFB < 200–400 ms pro klíčové šablony; aplikujte full-page cache.
- Hero obrázek: AVIF/WebP,
preload,fetchpriority="high". - Kritický CSS inline; zbytek
medianebodefer. Minimální JS na above-the-fold. - INP ≤ 200 ms: redukce JS, code-splitting, web workers.
- CLS ≤ 0,1: pevné rozměry médií, žádné dynamické vsuvky nad obsahem.
Kontrolní seznam: sitemap
- Pouze kanonické URL s kódem 200; žádné 3xx/4xx/5xx.
- Realistické
<lastmod>; logické dělení do indexu. - Hreflang párování přes
xhtml:link(volitelně). - Image/Video/News sitemapy dle potřeby; validace XSD.
- Odkaz na sitemapu v robots.txt a nahrání v nástrojích pro webmastery.
Kontrolní seznam: robots a indexace
- Nezakazujte crawl stránek, které chcete indexovat.
- Pro odindexování používejte
noindex(meta/hlavička), ne robots.txt. - Blokujte procházení „low-value“ filtrů a interních vyhledávání.
- Ověřte pravidla pro specifické boty (např. obrázkoví/ads boti) jen pokud je to nutné.
- Pravidelná revize po nasazení nových sekcí; testujte s nástroji „URL Inspection“ a robots testerem.
Časté chyby a jak se jim vyhnout
- Globální blok v robots.txt na produkci po migraci z testu.
- „Noindex“ na stránkách v sitemaps bez jasného záměru – posíláte protichůdné signály.
- Nerealistické
<lastmod>(všude dnešní datum) → degradace důvěryhodnosti signálu. - Těžký JS a hydration na každé stránce → špatné INP a LCP; přitom obsah by šel doručit staticky.
- Parametrové duplicity bez kanonizace a blokace crawlu.
Souhrn
Technické SEO stojí na třech pilířích: rychlá a stabilní uživatelská zkušenost (LCP/INP/CLS), spolehlivá navigace pro crawlery (smysluplné sitemapy) a kontrola procházení (robots.txt a správná indexační politika). Zvolte metrikami řízený přístup: pravidelně měřte pole i laboratoř, automatizujte generování sitemap a validujte je, a průběžně auditujte robots.txt. Tak zajistíte, že vyhledávače objeví to, co má být objeveno, a uživatelé uvidí rychlý a stabilní web.