Já jsem si to mezitím zkusil stáhnout na místní disk pomocí WebHTTrack a zjistil jsem, že mi to nejde...
Stručně řečeno, při používání tohoto SW se stahované weby chovají dvojím způsobem: Jedny jde stáhnout komplet v celé struktuře a včetně všech souborů, na které se odkudkoli na těch webech odkazuje dovnitř těch webů, zatímco z jiných jde stáhnout jenom indexovou stránku a z ní - když už je stažená na místní disk - vedou odkazy zase na internet. Zatím jsem nepochopil, v čem je rozdíl, protože nevím, jak ten SW pracuje - zřejmě to nějak bude záležet na tom, jak jsou ty weby napsané. (Moje znalosti tvorby webů zamrzly někdy v době před 25 lety u statických stránek v jazyce html, takové ty věci jako kaskádové styly, JavaScript apod. už mě minuly...) Ale stáhnout tyhle konkrétní stránky "jedním vrzem" asi nebude jednoduché. A třeba jsou proti takové manipulaci z nějakého důvodu chráněné poskytovatelem prostoru, aniž by o tom majitelé těch stránek věděli...
Tak třeba se tu najde někdo, kdo mi poradí, jak na to. A kdybyste mi pro tento účel chtěli poradit jiný uživatelský SW, tak prosím takový, který pracuje pod linuxem... Děkuji předem.