V předchozích článcích jsem ukázal tři zásadně odlišné scénáře:
Každý z těchto projektů vede k jinému chování modelů – a hlavně k jinému rozhodnutí, jaký přístup dává smysl v praxi. Přitom se ukazuje několik společných vzorců, které určují, jaký přístup je vhodné zvolit:
Z pohledu implementace je rozdíl mezi přístupy zásadní.
Statistické modely lze nasadit relativně jednoduše. Ve firmě často stačí export dat z interních systémů, jejich základní úprava a samotný výpočet modelu.
Machine learning představuje mezistupeň. Umožňuje pracovat s více vstupy a zachytit složitější vztahy, ale stále vyžaduje přípravu dat, tvorbu vstupních proměnných a ladění modelu. Náročnost implementace je vyšší než u statistiky, ale výrazně nižší než u deep learningu.
U deep learningu je situace výrazně složitější. Modely obsahují velké množství parametrů, vyžadují rozsáhlou přípravu dat, tvorbu vstupních proměnných a opakované ladění. Každý dataset navíc vyžaduje individuální přístup.
V praxi proto implementace DL často trvá měsíce a vyžaduje specializovaný tým. To je také důvod, proč mnoho projektů končí už ve fázi experimentu a nikdy se nedostane do reálného provozu. Složitost se pak promítá i do nákladů. Deep learning vyžaduje nejen zkušenosti, ale často i výkonnější infrastrukturu, včetně GPU. Pro mnoho menších firem tak dává na první pohled větší smysl zůstat u jednodušších přístupů.
Na první pohled se může zdát, že rozdíl mezi modely může na první pohled působit malý – často v řádu jednotek procent. To ale platí především pro stabilní scénáře (např. projekt 3), kde mají modely dostatek dat a chování je relativně předvídatelné.
V komplexnějších případech (projekt 2 – sparse data, nebo promo scénáře z projektu 1), ale rozdíl roste výrazně – klidně o desítky procent. Agregované metriky navíc často skrývají podstatné rozdíly: model může fungovat dobře v průměru, ale selhávat v klíčových situacích. U části produktů může být odchylka minimální, u jiných ale dochází k výrazným chybám – typicky u výkyvů, sezónních špiček nebo méně stabilních položek. Právě tyto situace mají v praxi největší dopad.
Rozdíl v predikci se následně promítá do reálného fungování firmy:
Dalším faktorem je samotná složitost rozhodování. Ve většině firem se plánování opírá o kombinaci jednoduchých modelů a zkušeností konkrétních lidí. To funguje u menšího počtu položek, ale s rostoucím objemem dat a komplexitou vztahů začíná být tento přístup obtížně udržitelný. Výsledek pak závisí na znalostech jednotlivců – a ty nejsou vždy přenositelné ani dlouhodobě stabilní.
Deep learning tak nepřináší hodnotu jen v samotném zlepšení metrik. Jeho hlavní přínos je ve schopnosti systematicky pracovat se složitostí dat a snížit závislost na manuálním rozhodování.
Díky dostupným knihovnám a frameworkům lze dnes modely relativně rychle postavit a otestovat. To ale řeší jen část problému.
V praxi je největší výzvou:
Samotný model je jen jedna část celého řešení. Bez vrstvy, která umožňuje řídit experimenty, porovnávat výsledky a pracovat s daty konzistentně, se práce rychle mění v izolované pokusy bez reálného dopadu. V praxi se mi osvědčil iterativní přístup, kdy různé typy modelů, parametrů a vstupních proměnných systematicky testuji, vyhodnocuji a porovnávám – jak pomocí metrik, tak vizuálně na konkrétních produktech. Důležitou roli přitom hraje nejen přesnost, ale i stabilita modelu v kritických scénářích.
LLM modely neřeší samotnou predikci, ale pomáhají s analýzou výsledků, interpretací chování modelů a automatizací části rozhodovacího procesu. Jejich role je podpůrná – v kombinaci s klasickými modely ale výrazně zrychlují analýzu a zjednodušují interpretaci výsledků.
Většina plánovacích systémů, jako jsou například nástroje pro řízení zásob nebo finanční plánování, pracuje s predikcemi jako jedním ze vstupů.
Tyto predikce jsou ale často založené na statistických metodách, které nedokážou zachytit komplexnější chování dat. A pokud jsou nepřesné, promítá se to do celého procesu – od objednávek přes zásoby až po dostupnost zboží pro zákazníka.
Napojení těchto systémů na predikce založené na deep learningu může výrazně zpřesnit odhady a tím i kvalitu rozhodování v celém plánovacím procesu.
Odpověď není univerzální.
Pro jednoduché a stabilní scénáře často postačují základní přístupy. Jakmile ale data začnou být složitější – kombinují sezónnost, nepravidelnost, krátkou historii nebo externí vlivy – začíná být přínos deep learningu zásadní. V oblasti predikce prodejů se ale v praxi často ukazuje, že jednoduché scénáře jsou spíše výjimkou než pravidlem.
Výběr modelu není hlavní problém. Hlavní problém je, jak dobře dokážete pracovat s daty, testovat varianty a vyhodnocovat výsledky v kontextu vašeho sortimentu. Rozdíly mezi přístupy se neprojevují jen v metrikách, ale v reálném fungování firmy – v zásobách, dostupnosti zboží a množství operativních zásahů do plánování.
Deep learning má největší přínos v komplexních scénářích. Rozdíl oproti jednodušším přístupům se ale neprojeví automaticky – až ve chvíli, kdy dokážete správně analyzovat data, navrhnout feature engineering a nastavit celý experiment.
Začněte konkrétním problémem, ne výběrem modelu. Zaměřte se na část sortimentu, kde mají chyby největší dopad. Testujte přístupy systematicky a vyhodnocujte je podle reálného dopadu, ne jen podle metrik. Teprve ve chvíli, kdy rozdíl ovlivňuje zásoby nebo dostupnost zboží, dává smysl řešení dále rozvíjet. Nejde o to použít nejpokročilejší model. Jde o to vytvořit proces, který vám umožní dělat lepší rozhodnutí.
IČO: 172 28 018
DIČ: CZ 172 28 018
Data Box ID: ykwdnxf
sales@neebile.cz
Jičínská 226/17, Praha, Žižkov, PSČ 130 00 Česká republika
(910) 658-2992
© 2025 Vytvořeno DigitalWays