Zwar findet die Welt mittlerweile überwiegend „dynamisch online“ statt, doch es gibt immer mal wieder die Notwendigkeit, dass etwas „offline“ oder eine dynamische Webseite als Archiv statisch verfügbar sein soll.
Online wird gäbe es für den Zustand einer Webseite beispielsweise die Wayback-Machine. Dort werden zwar von Webseiten „Schnappschüsse“ angelegt, allerdings kann die relevante fehlen und selbst wenn sie dabei ist, dürfte die dort gespeicherte Version nur in den seltensten Fällen genau zu dem Zeitpunkt entstanden sein, zu dem der gewünschte Schnappschuss erforderlich wäre.
Einzelne Seiten lassen sich recht bequem mit den gängigen Browsern speichern, eine komplette Webseite ist jedoch ziemlich mühsam. Außerdem hat man dann zwar (hoffentlich) alle Seiten, die Verlinkung untereinander geht jedoch verloren.
Für solche Aufgaben hat mir der WinHTTrack Website Copier schon einige Male geholfen. Das Programm kommt sehr nüchtern daher, erzeugt jedoch selbst ohne aufwändige Einarbeitung vollständige Kopien einer Webseite.
Das Besondere: Die Verknüpfungen zwischen den Seiten werden so kopiert, dass sie auch lokal oder auf einem anderen Server korrekt funktionieren. Sollen die Daten auf einem anderen Server als Archiv genutzt werden, müssen eventuell die Pfade zu Script-Dateien und Stilvorlagen geprüft oder mit einer Ersetzen-Aktion über alle Dateien korrigiert werden.