Actions
Task / Tâche #4624
closedArchivierung von Alten Seiten
Status:
k_backlog
Priority:
Low
Assignee:
-
Category:
-
Target version:
-
Start date:
17 February 2013
Due date:
18 April 2013
% Done:
0%
Estimated time:
Description
wget -m -k -p -E -e robots=off http://example.com/
Lädt rekursiv eine Kopie (-m 1)) der Webseite herunter, wandelt alle Links in relative Pfade um (-k), lädt auch alle evtl. von extern eingebetteten Dinge mit herunter (-p), ignoriert die robots.txt Datei (-e robots=off) und hängt bei Dateien die nicht auf htm(l) enden eine entsprechende Endung an (-E).
Sollte vor dem Serverumzug stattfinden
Updated by admin almost 12 years ago
- Due date set to 18 April 2013
Automatically enforce due date for Low Priority after 60 days in the future
Updated by admin almost 12 years ago
- Assignee set to Apophis
Assign unassigined ticket to project leader
Updated by corvus almost 12 years ago
Wie sieht es bei Seiten welche mit get parametern arbeiten aus?
Beispiel: http://parrot.fm/?feed=podcast
Dies scheint nach der Archivierung mit wget nicht zu funktionieren, respektive der Webserver liefert die index datei aus.
Updated by oschad over 11 years ago
- Status changed from Needs Work to k_backlog
- Assignee deleted (
oschad)
Actions