J'utilise souvent un temps hors ligne (p. Ex., En voiture / train / avion) pour lire des articles tirés du Web. Pour stocker le contenu, j'utilise actuellement Save Page As de Firefox. (Notez qu'il n'y a pas de téléchargement récurrent de sites Web entiers, mais seulement des pages individuelles plus leurs styles, images etc.)
J'ai cherché à automatiser cela, mais ni Wget ni HTTrack ne me donnent ce dont j'ai besoin (c'est trop ou trop peu – ou même les deux).
Toutes les recommandations seraient les bienvenues!
Avez-vous essayé wget --page-requisites
?
This option causes Wget to download all the files that are neces‐ sary to properly display a given HTML page. This includes such things as inlined images, sounds, and referenced stylesheets.
Vous devriez utiliser une extension Firefox: ScrapBook https://addons.mozilla.org/en-US/firefox/addon/427
ScrapBook est une extension Firefox, qui vous aide à sauvegarder des pages Web et à gérer facilement les collections. Les caractéristiques principales sont la légèreté, la vitesse, la précision et le support multilingue. Les principales caractéristiques sont:
Pas de solution de script, mais j'utilise Scrapbook pour archiver un site pour une lecture ultérieure. C'est une magnifique extension!