c'est étonnant si tu lis le descriptif, en théorie il prend toutes les pages qui sont liées,
c'est à dire : il prend par exemple la page d'accueil "index" il scute tous les liens de la page et charge toutes ces pages liées, puis sur chaque pages chargées il scrute tous les liens et les charges et ainsi de suite jusqu'au bout en évitant les doublons.
Mais je pense que tu peux trouver d'autres aspirateurs de sites sur le net.
vu sur 01.net
HTTrack est un aspirateur de sites Web. Il permet de télécharger un site Internet sur votre disque dur, en construisant récursivement tous les répertoires, récupérant HTML, images et fichiers du serveur vers votre ordinateur. HTTrack réorganise la structure des liens en relatif. Ouvrez simplement une page du site "aspiré" dans votre navigateur et vous pouvez naviguer librement à l'intérieur, comme si vous étiez connecté. HTTrack peut également mettre à jour le contenu d'un site existant ou reprendre un téléchargement interrompu. Le robot est entièrement configurable, avec un système d'aide intégré.
@+