Comment utilisez-vous wget pour télécharger un site entier (domaine A) lorsque ses ressources sont sur un autre domaine, (domaine B)?
J'ai essayé:
wget -r --level=inf -p -k -E --domains=domainA,domainB http://www.domainA
wget --recursive --level=inf --page-requisites --convert-links --html-extension \ --span-hosts=domainA,domainB url-on-domainA
MISE À JOUR: Je me souviens que la commande ci-dessus m'a fonctionné dans le passé (c'était 2010 et j'utilise GNU Tools pour Windows à l'époque); Cependant, je devais le modifier à la suite lorsque je voulais l'utiliser aujourd'hui:
wget --recursive --level=inf --page-requisites --convert-links \ --adjust-extension --span-hosts --domains=domainA,domainB domainA
Le raccourci pour cela serait: wget -rEDpkH -l inf domainA,domainB domainA
-r
= --recursive
-l <depth>
= --level=<depth>
-E
= --adjust-extension
-p
= --page-requisites
-K
= --backup-converted
-k
= --convert-links
-D <domain-list>
= --domain-list=<domain-list>
-H
= --span-hosts
-np
= -np
--no-parent
-U <agent-string>
= --user-agent=<agent-string>
Manuel GNU Wget: https://www.gnu.org/software/wget/manual/wget.html
Wget –recursive –level = inf –page-requis –convert-links –html-extension -rH -DomaineA, domainB domaineA
wget --page-requisites --convert-links --adjust-extension --span-hosts --domains domainA,domainB domainA
Vous devrez peut-être ignorer robots.txt (notez, cela peut constituer une violation de certains termes de service et vous devez télécharger le minimum requis). Voir https://www.gnu.org/software/wget/manual/wget.html#Robot-Exclusion .