Základy strojového učení

Základy strojového učení

Účel článku a co považujeme za strojové učení

Tento odborný článek systematicky shrnuje základy strojového učení (ML) a klíčové algoritmy napříč paradigmata – od učení s učitelem a bez učitele, přes modely pravděpodobnostní, geometrické i neuronové, až po hodnocení, regularizaci, škálování tréninku a provozní nasazení (MLOps). Důraz je kladen na prakticky použitelné principy: práce se ztrátovou funkcí, bias–variance trade-off, strategie validace, interpretovatelnost a robustnost.

Formální rámec: data, hypotézový prostor a ztráta

  • Data: nezávislé a identicky rozdělené vzorky D = {(xi, yi)} pro učení s učitelem; pouze xi pro učení bez učitele; sekvence pro časové řady; interakce agent–prostředí pro RL.
  • Hypotézový prostor &mathcal;H: množina funkcí f: Χ→γ (např. lineární, stromové, neuronové). Kapacita modelu ovlivňuje zobecnění.
  • Ztráta ℓ(y, f(x)): MSE/MAE pro regresi; log-loss (cross-entropy) pro klasifikaci; marginové ztráty (hinge) pro SVM; specializované ztráty pro ranking, segmentaci, atd.
  • Empirické riziko: (f) = (1/n) ∑i ℓ(yi, f(xi)) – minimalizováno během tréninku s regularizací k omezení přeučení.

Bias–variance a regularizace

  • Bias–variance trade-off: vysoký bias → podučení; vysoká variance → přeučení. Cílem je najít rovnováhu volbou kapacity, regularizace a objemu dat.
  • Regularizace: L2 (Ridge) přidává λ‖θ‖22, L1 (Lasso) λ‖θ‖1 s indukcí řídkosti; Elastic Net kombinuje obě. U neuronových sítí dropout, weight decay, early stopping, data augmentace.
  • Normalizace: standardizace rysů (zero-mean, unit-variance), škáluje gradienty a zrychluje konvergenci; u NN i batch/layer norm.

Validace, dělení dat a prevence úniků (leakage)

  • Dělení: train/validation/test (např. 70/15/15). U malých datasetů k-fold (typ. 5–10) nebo stratifikované k-fold pro nerovnováhu tříd.
  • Leakage: všechny transformace (škálování, výběr rysů) fitujte pouze na tréninku; na validaci/testu transformujte již naučeným operátorem.
  • Časové řady: time-series split s rostoucím tréninkovým oknem; backtesting; vyvarovat se „pohledu do budoucnosti“.

Základní algoritmy učení s učitelem (supervised)

  • Lineární regrese: OLS minimalizuje MSE; s L2 → Ridge, s L1 → Lasso (výběr rysů); robustní varianta Huber/Quantile.
  • Logistická regrese: modeluje P(y=1|x) = σ(θTx); optimalizace klesáním po gradientu (GD/SGD), hodnotí se log-loss, AUC, F1.
  • k-nejbližších sousedů (kNN): lenivý učící algoritmus, metrika (Euclid, cosine); citlivý na škálování a rozměr.
  • Naivní Bayes: předpoklad podmíněné nezávislosti rysů; varianty Gaussian/Multinomial/Bernoulli; rychlý baseline.
  • Podpůrné vektorové stroje (SVM): maximalizace marginu; lineární i s jádry (RBF, poly); hinge loss + C; pro regresi SVR (ε-insensitive).
  • Rozhodovací stromy: greedy dělení (Gini/entropy/variance); snadná interpretace, náchylnost k přeučení → omezovat hloubku, min. vzorky.
  • Ensembles: Bagging (Random Forest), Boosting (AdaBoost, Gradient Boosting, XGBoost/LightGBM/CatBoost); často SOTA pro tabulková data.
  • Neuronové sítě: MLP pro tabulky; CNN pro obrazy (konvoluce, pooling); RNN/LSTM/GRU pro sekvence; Transformer (self-attention) pro text, obraz i tabulky.

Učení bez učitele (unsupervised) a sčástečně učitelem

  • Clustering: k-means (Lloyd; nutná volba k), GMM (EM algoritmus; měkké přiřazení), DBSCAN/HDBSCAN (hustotní; zvládá outliery), spectral clustering.
  • Dimenzionalita: PCA (ortogonální projekce max. variance), ICA (nezávislé komponenty), NMF (kladné faktorizace), t-SNE/UMAP (nelineární vizualizace, ne na tréninkový pipeline bez uvážení).
  • Anomálie: One-Class SVM, Isolation Forest, Autoencodery; volba metriky (precision@k, PR-křivky v extrémní nerovnováze).
  • Self-/semi-supervised: pseudolabeling, consistency regularization, kontrastivní učení (SimCLR, MoCo), weak supervision.

Optimalizace a učení parametrů

  • Gradientní metody: GD/SGD, momentum, Nesterov; adaptivní: AdaGrad, RMSProp, Adam/AdamW; výběr learning rate (warmup, decay, cyklické schéma).
  • Konvexita vs. nelinearita: lineární modely s L2 jsou konvexní → globální optimum; hluboké sítě nelineární → lokální minima/plošiny – prakticky stačí „dobrá“ řešení.
  • Regularizační triky: early stopping, dropout, label smoothing, data augmentation (flip/crop/noise, mixup, CutMix).

Výběr rysů a inženýrství proměnných

  • Kategorizace: one-hot, target encoding (s opatrností kvůli leakage), learned embeddings.
  • Číselné rysy: škálování (standard/robust/min–max), power transform; binning pro stromové modely obvykle zbytečný.
  • Interakce a polynomy: explicitní generování (poly features) vs. modely, které je „umí“ implicitně (stromy, sítě).
  • Výběr rysů: filtrační (mutuální informace), wrapper (RFE), embedded (L1, stromové importances); pozor na stabilitu a kolinearitu.

Hyperparametry a automatizace hledání

  • Grid vs. random search: random je efektivnější v prostoru s „aktivními“ dimenzemi.
  • Bayesovská optimalizace: TPE/GP bandity, sekvenční návrhy; early-stopping a multi-fidelity (Hyperband/ASHA) pro škálování.
  • Pipelines: zachycení transformací a modelu do jednoho objektu pro reprodukovatelnost a prevenci leakage.

Hodnocení modelů a metriky

  • Klasifikace: accuracy (zrádná v nerovnováze), precision/recall/F1, AUC-ROC/PR, log-loss, Brier score, kalibrace pravděpodobností (Platt/Isotonic).
  • Regrese: RMSE/MAE/R2, MAPE (pozor na nuly), pinball loss pro kvantilovou regresi.
  • Rankování a doporučování: MAP@k, NDCG, hit@k, coverage/diversity.
  • Časové řady: sMAPE, MASE; backtesting s rolováním okna, multistep vs. direct strategie.

Imbalance tříd a robustnost

  • Re-sampling: stratifikace, class weights, SMOTE/ADASYN (syntetické vzorky) – kontrolovat overfitting.
  • Robustnost: detekce outlierů, stabilita na šum, adversariální testy (u DL), data drift monitoring v provozu.

Interpretovatelnost a vysvětlitelnost

  • Globální vs. lokální: globální význam rysů (Permutation/GINI), parciální závislosti (PDP), ICE křivky; lokální metody LIME/SHAP.
  • Konfuzní matice a chybové analýzy: segmentace problémových podmnožin (slicing) → cílené zlepšení.
  • Fairness: metriky parity (demographic parity, equal opportunity), testování biasu a mitigace (reweighing, post-processing).

Pravděpodobnostní modelování a Bayesovský přístup

  • Grafické modely: Bayesovské sítě, Markovské sítě; inference (belief propagation, variational methods).
  • Bayesovská regrese/klasifikace: prior–likelihood–posterior; výhoda kvantifikace nejistoty; aproximace MCMC/VI.
  • Kalibrace a nejistota: predikční intervaly, epistemická vs. aleatorní nejistota; ensembling a MC dropout.

Neuronové architektury a moderní DLC triky

  • CNN: konvoluce, kernel/stride/padding, residual spojení (ResNet), attention v obraze (ViT).
  • RNN/LSTM/GRU: sekvenční data, dlouhodobé závislosti; masking, teacher forcing.
  • Transformery: self-attention, multi-head, positional encoding; škálují se lépe než RNN; pretrénink + fine-tuning.
  • Optimalizace u DL: mixed precision, gradient clipping, learning-rate schedule (cosine, one-cycle), checkpointing.

Zesilované učení (Reinforcement Learning) v kostce

  • Prvky RL: stav s, akce a, odměna r, politika π, hodnotová funkce V, akční hodnota Q.
  • Metody: value-based (Q-learning, DQN), policy gradient (REINFORCE), actor–critic (A2C/A3C, PPO), model-based (MCTS, World Models).
  • Exploration vs. exploitation: ε-greedy, UCB, entropy bonus.

Časové řady a predikce

  • Klasika: ARIMA/SARIMA, ETS; exogenní proměnné (ARIMAX).
  • ML/DL: gradient boosting na lag/rolling features, LSTM/Transformer (Temporal Fusion, Informer). Pozor na leakage při feature engineeringu.

Od prototypu k produkci: MLOps

  • Reprodukovatelnost: správa datových verzí, seedů, prostředí (containers), deklarativní pipelines.
  • Nasazení: batch vs. online inference, latence a škálování; feature store pro konzistenci mezi tréninkem a inferencí.
  • Monitoring: datový/skórovací drift, výkonnost (latence, throughput), metriky kvality; alerting a rollback strategie.
  • Etika a soulad: privacy-by-design, minimalizace osobních údajů, auditovatelnost rozhodnutí.

Praktický návrhový postup (end-to-end)

  1. Formulace cíle: jasná metrika úspěchu (např. F1@0.5, RMSE < X), omezení (latence, paměť, fairness).
  2. Data a EDA: kvalita, chybějící hodnoty, nerovnováha, drift; datové protokoly a dokumentace.
  3. Baseline: jednoduchý model (logit/GBM) a realistická validace; nastavení referenčního výkonu.
  4. Feature pipeline: škálování, encoding, agregace; zabalení do reprodukovatelné pipeline.
  5. Model a tuning: výběr rodiny (stromy vs. NN), hyperparametry (random/Bayes), regularizace a early stopping.
  6. Hodnocení a interpretace: více metrik, chybová analýza, SHAP/PDP, fairness testy.
  7. Hardening a nasazení: robustnost na šum, out-of-distribution testy, monitoring; CI/CD a rollback.

Časté chyby a jak se jim vyhnout

  • Leakage: fit transformací na celém datasetu; řešení: přísná separace train/val/test a pipelines.
  • Špatná metrika: optimalizace accuracy v nerovnováze → používat PR-křivky, F1, cost-sensitive loss.
  • Přeučení na validaci: opakované ladění podle stejného validačního splitu; řešení: nested CV, držet test „zamčený“.
  • Nestabilní trénink: neškálovaná data, nevhodný LR, chybějící regularizace; řešení: standardizace, scheduler, weight decay.

Rychlá mapa volby algoritmu

  • Tabulková data: Gradient Boosting / Random Forest → baseline; u velkých dat přidejte regularizaci a feature výběr.
  • Obraz: CNN/ViT s transfer learningem; augmentace, mixup, label smoothing.
  • Text: Transformer (BERT-like) s fine-tuningem; tokenizace, pečlivá validace.
  • Časové řady: GBM na engineered featurách / LSTM/Transformer; backtesting.
  • Anomálie: Isolation Forest / Autoencoder / One-Class SVM podle povahy dat.

Závěr

Základy strojového učení stojí na správné formulaci problému, kvalitní práci s daty, rozumném výběru algoritmu a důsledné validaci. Regularizace, interpretovatelnost a robustní provozní procesy jsou klíčové pro to, aby model nejen exceloval v tréninku, ale také spolehlivě generalizoval v reálném světě. Tímto rámcem lze efektivně přistupovat jak k klasickým tabulkovým úlohám, tak k moderním hlubokým architekturám v oblasti obrazu, textu a sekvencí.

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *