Technické SEO

Technické SEO

Technické SEO

Technické SEO je soubor praktik, které zajišťují, aby vyhledávače dokázaly efektivně procházet, interpretovat a indexovat váš web. Tři nejčastěji podceňované oblasti jsou rychlost načítání (Core Web Vitals), sitemapy a robots.txt. Tento článek poskytuje ucelený návod, jak je navrhnout a spravovat s ohledem na škálování, crawl budget a dlouhodobou udržitelnost.

Rychlost a Core Web Vitals

  • LCP (Largest Contentful Paint): cílit ≤ 2,5 s. Optimalizujte render kritického obsahu (nad ohybem), eliminujte render-blocking CSS/JS, používejte preload pro klíčové fonty a hero obrázek.
  • CLS (Cumulative Layout Shift): cílit ≤ 0,1. Rezervujte rozměry pro média (atributy width/height, aspect-ratio), vyhněte se vsuvkám nad již vykresleným obsahem.
  • INP (Interaction to Next Paint): cílit ≤ 200 ms. Minimalizujte hlavní vlákno JS, používejte code-splitting, defer/async, islands architecture a web worker pro náročné úlohy.

Audit výkonu: metodika

  1. Field vs. lab data: kombinujte reálná data (CrUX, RUM) s laboratorními (Lighthouse). Pole (RUM) rozhoduje pro hodnocení.
  2. Identifikace „slow paths“: sledujte per-šablonu a per-route metriky; dlouhé TTFB často indikuje problém v databázi nebo šablonách.
  3. Prioritizace: řaďte úkoly podle vlivu na LCP > INP > CLS; zlepšení TTFB a critical request chain má obvykle nejvyšší návratnost.

TTFB a serverová optimalizace

  • Cache vrstvy: CDN edge cache, full-page cache (FPC), micro-cache (1–10 s) pro burst traffic, aplikace s ESI/SSI.
  • HTTP/2 a HTTP/3: multiplexing a nižší latence; nahraďte domain sharding moderními protokoly.
  • Komprese: aktivujte Brotli pro textové typy (text/html, text/css, application/javascript, application/json).
  • TLS a síť: 0-RTT jen po zvážení bezpečnosti; optimalizujte TLS handshakes a udržujte se na moderních šifrách.

Front-end výkon: praktiky

  • Obrázky: responsive images (srcset, sizes), formáty AVIF/WebP, loading="lazy", fetchpriority="high" pro LCP.
  • Fonty: preload klíčových fontů, font-display: swap, proměnné fonty (single file), subsetování.
  • CSS/JS: kritický CSS inline, zbytek media a defer; odstraňte nepoužitý kód (tree-shaking, purge CSS).
  • Prioritizace zdrojů: preconnect na klíčové domény (CDN, API), prefetch pro další navigace.

Renderování a JavaScript SEO

  • SSR/SSG/ISR: server-side render, statické generování nebo inkrementální revalidace zlepší LCP a indexovatelnost.
  • Hydratace na vyžádání: islands nebo partial hydration výrazně snižují JS nároky na klientovi.
  • SPA a indexace: zajistěte, že HTML obsahuje kanonický obsah. Vyhněte se zastaralému „prerendering only for bots“; preferujte univerzální render.

Crawl budget a struktura webu

  • Zkraťte hloubku kliků k důležitému obsahu (≤ 3), interní linking s descriptive anchors.
  • Odstraňte parametrové duplicity; konsolidujte filtry pomocí kanonizace a noindex u nekatalogizovatelných kombinací.
  • Stabilní status kódy: důležité stránky → 200; migrující → 301; dočasně mimo → 302/307; odstraněné → 410.

XML sitemap: účel a zásady

XML sitemap je signál pro objevování a prioritu procházení, nikoli garance indexace. Pomáhá zejména velkým webům, e-shopům a dynamickému obsahu.

  • Max 50 000 URL nebo 50 MB uncompressed na jednu sitemap. Při větším rozsahu použijte sitemap index.
  • Uvádějte pouze kanonické URL vracející 200; bez duplicit, bez parametrů s jiným kanonickým cílem.
  • <lastmod> udržujte věrohodně (čas poslední významné změny obsahu). Nepoužívejte <priority> a <changefreq> – vyhledávače je ignorují.
  • Oddělte typy obsahu: sitemap_pages.xml, sitemap_products.xml, sitemap_categories.xml. Pro velké weby shlukujte logicky (podle sekcí či data).

Rozšířené sitemapy

  • Image sitemap: pro galerie a e-commerce, uvádějte <image:image> s <image:loc>, <image:title>, <image:caption>.
  • Video sitemap: pro stránky s videem; doplňte thumbnail_loc, title, description, duration, příznaky pro rodinnou vhodnost.
  • News sitemap: pro zpravodajské weby – pouze obsah z posledních 48 hodin a max 1 000 URL v souboru.
  • Hreflang a sitemapy: alternativní jazykové verze lze párovat přes <xhtml:link rel="alternate" hreflang="..." href="..." /> přímo v sitemapách.

Generování a aktualizace sitemap

  • Generujte ze stejných kanonizačních pravidel jako HTML (single source of truth). Automatizujte v CI/CD.
  • Aktualizujte incrementálně: dynamické části častěji, archivní sekce méně. Udržujte realistické <lastmod>.
  • Validujte proti XSD a kontrolujte coverage nástroji pro webmastery (indexace vs. hlášené URL).

Robots.txt: pravidla a strategie

robots.txt řídí procházení (crawl), nikoli indexaci. „noindex v robots.txt“ se nepodporuje – pro odindexování použijte meta robots nebo hlavičku X-Robots-Tag.

  • Základní direktivy: User-agent, Disallow, Allow (pro jemné výjimky), Sitemap (absolutní URL), volitelně Clean-param (některé vyhledávače).
  • Crawl-delay: není všeobecně podporováno; raději řiďte rychlost v nástrojích pro webmastery a přes serverové limity.
  • Bezpečnost: neodhalujte citlivé cesty (admin rozhraní). Disallow obsah nechrání – jen ho doporučuje neprocházet.
  • Parametry a filtry: blokujte procházení „nekonečných“ kombinací (např. /search, ?sort=) a ponechte indexovatelné kanonické listy.

Příklady pravidel robots.txt (ilustrativní)

  • User-agent: *
    Disallow: /search
    Disallow: /cart
    Allow: /media/*.css
    Allow: /media/*.js
    Sitemap: https://www.example.com/sitemap_index.xml
  • Jemnější výjimka: Disallow: /category/*?page= a současně Allow: /category/*?page=1 (pokud chcete crawlit pouze první stranu).
  • Nedělat: Disallow: / na produkci; Disallow pro stránky, které chcete indexovat (použijte spíše noindex a přístupnost pro crawl).

Meta robots a X-Robots-Tag

  • Meta tag: <meta name="robots" content="noindex,follow"> – odindexuje, ale zachová signál odkazů dál.
  • HTTP hlavička: X-Robots-Tag: noindex, max-snippet:0, max-image-preview:none – vhodné pro soubory (PDF, obrázky) bez HTML.
  • Dejte pozor na konflikty: noindex + canonical na indexovatelnou stránku je protichůdné; preferujte konzistentní záměr.

Kanonizace a duplicitní obsah

  • U všech variant (http/https, www/non-www, trailing slash, parametry) definujte jednoznačný canonical.
  • Faceted navigace: indexujte pouze užitečné kombinace; ostatní noindex,follow a/nebo blok v robots.txt (pro procházení, ne indexaci).
  • Pro stránkování použijte stabilní kanonický odkaz na sebe sama; nepoužívejte zastaralé rel="prev/next" jako faktor indexace.

Log analýza a řízení crawlu

  • Sledujte server access logy a identifikujte, které sekce vyhledávače navštěvují a s jakým kódem.
  • Omezte crawl trappy (nekonečné kalendáře, parametry). Nasazujte rate limiting či crawl-budget guards na aplikační vrstvě.
  • Z metrik vyvozujte: „málo crawlu“ (přidejte interní linky/sitemap), „mnoho crawlu na low-value“ (upravit robots/kanonizaci).

Strukturovaná data a „discoverability”

  • Schema.org (JSON-LD) neurychluje crawl, ale zvyšuje kvalitu pochopení obsahu a potenciál pro bohaté výsledky.
  • Udržujte konzistenci mezi structured data a viditelným obsahem; vyhněte se nesouladu (může vést k ignorování).

Edge SEO a CDN

  • Přepisování hlaviček (Link: rel=preload, Cache-Control, Early Hints) na hraně pro klíčové zdroje.
  • Selektivní stale-while-revalidate a stale-if-error zlepšují dostupnost a vnímání rychlosti.
  • U velkých webů automatizujte generování sitemap a publikaci přes edge workers.

Kontrolní seznam: rychlost

  • CDN + HTTP/2/3 aktivní; Brotli zapnuto.
  • TTFB < 200–400 ms pro klíčové šablony; aplikujte full-page cache.
  • Hero obrázek: AVIF/WebP, preload, fetchpriority="high".
  • Kritický CSS inline; zbytek media nebo defer. Minimální JS na above-the-fold.
  • INP ≤ 200 ms: redukce JS, code-splitting, web workers.
  • CLS ≤ 0,1: pevné rozměry médií, žádné dynamické vsuvky nad obsahem.

Kontrolní seznam: sitemap

  • Pouze kanonické URL s kódem 200; žádné 3xx/4xx/5xx.
  • Realistické <lastmod>; logické dělení do indexu.
  • Hreflang párování přes xhtml:link (volitelně).
  • Image/Video/News sitemapy dle potřeby; validace XSD.
  • Odkaz na sitemapu v robots.txt a nahrání v nástrojích pro webmastery.

Kontrolní seznam: robots a indexace

  • Nezakazujte crawl stránek, které chcete indexovat.
  • Pro odindexování používejte noindex (meta/hlavička), ne robots.txt.
  • Blokujte procházení „low-value“ filtrů a interních vyhledávání.
  • Ověřte pravidla pro specifické boty (např. obrázkoví/ads boti) jen pokud je to nutné.
  • Pravidelná revize po nasazení nových sekcí; testujte s nástroji „URL Inspection“ a robots testerem.

Časté chyby a jak se jim vyhnout

  • Globální blok v robots.txt na produkci po migraci z testu.
  • „Noindex“ na stránkách v sitemaps bez jasného záměru – posíláte protichůdné signály.
  • Nerealistické <lastmod> (všude dnešní datum) → degradace důvěryhodnosti signálu.
  • Těžký JS a hydration na každé stránce → špatné INP a LCP; přitom obsah by šel doručit staticky.
  • Parametrové duplicity bez kanonizace a blokace crawlu.

Souhrn

Technické SEO stojí na třech pilířích: rychlá a stabilní uživatelská zkušenost (LCP/INP/CLS), spolehlivá navigace pro crawlery (smysluplné sitemapy) a kontrola procházení (robots.txt a správná indexační politika). Zvolte metrikami řízený přístup: pravidelně měřte pole i laboratoř, automatizujte generování sitemap a validujte je, a průběžně auditujte robots.txt. Tak zajistíte, že vyhledávače objeví to, co má být objeveno, a uživatelé uvidí rychlý a stabilní web.

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *