Téléchargement de pages Web complètes (pas de sites)

J'utilise souvent un temps hors ligne (p. Ex., En voiture / train / avion) ​​pour lire des articles tirés du Web. Pour stocker le contenu, j'utilise actuellement Save Page As de Firefox. (Notez qu'il n'y a pas de téléchargement récurrent de sites Web entiers, mais seulement des pages individuelles plus leurs styles, images etc.)

J'ai cherché à automatiser cela, mais ni Wget ni HTTrack ne me donnent ce dont j'ai besoin (c'est trop ou trop peu – ou même les deux).

Toutes les recommandations seraient les bienvenues!

Avez-vous essayé wget --page-requisites ?

  This option causes Wget to download all the files that are neces‐ sary to properly display a given HTML page. This includes such things as inlined images, sounds, and referenced stylesheets. 

Vous devriez utiliser une extension Firefox: ScrapBook https://addons.mozilla.org/en-US/firefox/addon/427

ScrapBook est une extension Firefox, qui vous aide à sauvegarder des pages Web et à gérer facilement les collections. Les caractéristiques principales sont la légèreté, la vitesse, la précision et le support multilingue. Les principales caractéristiques sont:

  • Sauvegarder la page Web
  • Enregistrer l'extrait de la page Web
  • Sauvegarder le site Web
  • Organisez la collection de la même manière que les signets
  • Recherche de texte intégral et recherche de filtrage rapide de la collection
  • Modification de la page Web collectée
  • Fonction d'édition de texte / HTML ressemblant aux notes d'Opera

Pas de solution de script, mais j'utilise Scrapbook pour archiver un site pour une lecture ultérieure. C'est une magnifique extension!