- Webarchiv
-
Web-Archivierung ist das Sammeln und dauerhafte Ablegen von Netzpublikationen mit dem Zweck, in der Zukunft Öffentlichkeit und Wissenschaft einen Blick in die Vergangenheit bieten zu können.
Die größte internationale Einrichtung zur Web-Archivierung ist das Internet Archive in San Francisco (USA), das sich als Archiv des gesamten World Wide Web versteht. Staatliche Archive und Bibliotheken in vielen Ländern unternehmen Anstrengungen zur Sicherung der Netzüberlieferung in ihrem Bereich.
Die deutschen Archivgesetze definierten ab 1987 die Archivierung digitaler Unterlagen als Pflichtaufgabe der staatlichen Archive, die Umsetzung dieses Auftrags blieb aber zunächst mangelhaft. Im Jahr 2006 wurde das DNBG (Gesetz zur deutschen Nationalbibiliothek) verabschiedet, das den Auftrag der Deutschen Nationalbibliothek auf die Archivierung von Websites ausdehnt. Auch die Bundesländer planen, ihre Pflichtexemplar-Gesetze in diesem Sinne zu ändern oder haben die Änderung bereits vollzogen.
Inhaltsverzeichnis
Archivierungsziele
Web-Archivierung verfolgt das Ziel, einen definierten Ausschnitt der im Internet vorhandenen Web-Präsenzen in systematischer Form abzubilden. Hierfür sind eine übergreifende Sammlungspolitik, ein Auswahlverfahren und die Häufigkeit der Archivierung vorab zu klären.
Eine archivierte Website sollte mit allen multimedialen Funktionen (HTML-Code, Stylesheets, JavaScript, Bilder und Video) auf Dauer erhalten werden. Der späteren Beschreibung, Nutzung und Erhaltung dienen Metadaten wie Provenienz, Übernahmezeitpunkt, MIME-Type und Umfang der Daten. Die Metadaten sichern Authentizität und Integrität der digitalen Archivalien.
Nach der Übernahme sind technische und juristische Vorkehrungen zu treffen, um eine ständige öffentliche Zugänglichkeit zu garantieren.
Auswahlverfahren
Unspezifisch
Bei diesem Auswahlverfahren wird eine ganze Domain nach und nach in ein Archiv geschrieben. Das Verfahren funktioniert wegen des großen Speicherbedarfs nur bei kleineren Domains (z. B. netarkivet.dk).
Auswahlliste
Eine Liste von Institutionen wird vorab festgelegt. Die Stabilität der mit den Institutionen verbundenen URLs ist regelmäßig zu prüfen.
Nutzung von Zugriffsstatistiken
In Zukunft ist ein "intelligentes" Harvesting denkbar, das aufgrund von Zugriffszählungen diejenigen Teile des Web (oder einer Auswahl) archiviert, die besonders hohe Zugriffsraten aufweisen.
Übernahmemethoden
Remote harvesting
Die üblichste Archivierungsmethode ist die Nutzung eines Web-Crawlers. Ein Web-Crawler ruft die Inhalte einer Website wie ein menschlicher Nutzer ab und schreibt die Ergebnisse in ein Archivobjekt. Die Ausgangsstruktur auf dem Server lässt sich dabei im Archiv nur selten exakt nachbauen.
Beispiele sind:
- Heritrix
- HTTrack
- Offline Explorer
Archivierung des „Hidden Web“
Das "Hidden Web" oder "Deep Web" bezieht sich auf Datenbanken, die oft die eigentlichen Inhalte einer Website repräsentieren und nur auf Anfrage eines Nutzers ausgegeben werden. Zur Übernahme dieser Datenbanken ist eine Schnittstelle erforderlich, die meist auf XML beruht. Für einen solchen Zugang sind die Tools DeepArc (Bibliothèque nationale de France) und Xinq (National Library of Australia) entwickelt worden.
Transactional archiving
Dieses Verfahren dient der Archivierung der Ergebnisse eines Nutzungsprozesses von Websites. Es ist für Einrichtungen von Bedeutung, die aus rechtlichen Gründen einen Nachweis über ihre Nutzung zu führen haben. Voraussetzung ist die Installation eines Zusatzprogramms auf dem Webserver.
Siehe auch
- Elektronische Archivierung
- Open Archives Initiative
- Langzeitarchivierung
- Compliant Transaction Recording
- Web Content Lifecycle
- Informationsflut
Weblinks
- International Internet Preservation Consortium (IIPC) – Internationales Konsortium mit der Aufgabe, Informationen und Wissen aus dem Internet für künftige Generationen zu übernehmen, zu erhalten und zugänglich zu machen
- International Web Archiving Workshop (IWAW) – Jährlich stattfindender Workshop zur Web-Archivierung
- The Library of Congress, Digital Collections and Programs
- Library of Congress, Web Capture
- Web archiving bibliography – Literaturliste zur Web-Archivierung
- Web archiving discussion list – Diskutiert technische, organisatorische und rechtliche Fragen der Web-Archivierung
- WebArchivist – Wissenschaftler, Bibliothekare und Archivare arbeiten an der Erhaltung und Analyse von Web-Ressourcen
- Arbeitskreis Elektronische Archivierung der Vereinigung Deutscher Wirtschaftsarchivare(AKEA)
- Umsetzungen von Web-Archivierung:
- Baden-Württembergisches Online-Archiv
- Digital Archive of Chinese Studies
- European Archive
- Hanzo Archives
- Internet Archive
- The Library of Congress, National Digital Information Infrastructure and Preservation Program
- Kulturarw3
- Minerva
- netarchive.dk
- Pandora
- Politisches Internet-Archiv der parteinahen Stiftungen in Deutschland
- UK Government Web Archive
- UK Web Archiving Consortium
- WARP
- WebCite
Wikimedia Foundation.