Stáhnutí .html stránek z webu
jednoduchý web
-hlavní stránka
-na hlavní stránce je X odkazů, když kliknu na nějaký odkaz, nacte se jakoby z .html souboru obsah do hlavní stránky
-já potřebuju dostat ty všechny .html soubory ve kterých je nějaký obsah, můžu rucne zadat web.com/odkaz1.html a ten obsah si stáhnout a udelat si z toho ručně .html soubor, ale tich odkazů je hodně a dělat to takhle mi nepřijde moc efektivní.
zkoušel jsem nějaký doplnky na "stáhnutí všeho z webu" ale uspesny jsem nebyl.
jde to? je efektivnější cesta?
Třeba HTTrack, jestli jsem to pochopil.
ten HTTrack je super, jediný co mi vadí je že do tý stránky dá log: <!-- Mirrored from abc.com/xyz.html by HTTrack Website Copier/3.x [XR&CO'2014], Mon, 06 Mar 2017 20:34:30 GMT -->
FAQ:
dík moc, hledal jsem to v nastavení, akorát jsem si nevšiml že se to dělá přímo u projektu
TiP ~ Na to staci [PowerShell|Linux Command] s :
* Linux Command pro Windows 10, bez potreby stahovani a instalace SW tretich stran.
# Priklad :
* Vice zde : wget.htm
[PowerShell]
* Pro vice informaci, navody ukazky Microsoft : https://msdn.microsoft.com/powershell/reference/5. 1/microsoft.powershell.utility/Invoke-WebRequest
Nebo primo v PowerShell napis :