In der analogen Medienwelt ist es einfach. Wer zum Kiosk geht und eine Zeitung kauft, erwirbt einen Haufen bedruckter Papierbögen: ein körperliches Werkexemplar. Ob er (oder sie) die Zeitung später aufbewahrt, Artikel ausschneidet oder den Fisch vom Markt darin einwickelt, spielt keine Rolle für das Urheberrecht.

Anders ist es bei digitalen Gütern: Jede Nutzung digitaler Inhalte bringt neue Kopien hervor. Wer eine Zeitung als E-Paper abonniert, erhält zudem kein Eigentum an der Datei, sondern ein mehr oder weniger beschränktes Nutzungsrecht. Im Kindle-Shop von Amazon etwa wird dem Leser im wesentlichen das Recht eingeräumt, den Inhalt «unbegrenzt anzusehen». Was elektronisch erworben wird, wird «durch den Anbieter von Inhalten lizenziert, nicht aber verkauft», heißt es in den Nutzungs- und Geschäftsbedingungen weiter.

An die Stelle des Eigentums an einem Werkexemplar sind bei digital vertriebenen Inhalten Lizenzverträge getreten. Entsprechende Verträge regeln schon lange die Verhältnisse in der Medienindustrie — etwa zwischen Autoren und Verlagen. Nun treten sie auch zwischen Anbieter und Nutzer in Kraft, und erstere geben vor, wie zweitere die Inhalte verwenden dürfen.

Dieser Wandel hat Folgen: Schon in Zeiten der gedruckten Zeitung brachte das Eigentum am Trägermedium zwar keine Verfügungsmacht über das geistige Werk. An das körperliche Eigentum aber knüpfen Freiheiten an, welche privaten Nutzern zugute kommen und etwa Archiven oder Bibliotheken die dauerhafte Sicherung erlauben.

Die Digitalisierung der Medien führt zu einem paradoxen Ergebnis. Digitale Werke werden einerseits unablässig kopiert. Redundanz entsteht, die ihrer Erhaltung eigentlich zugute kommt. Selbst das, was aus dem Web verschwunden ist, schlummert mit hoher Wahrscheinlichkeit noch irgendwo auf einer Festplatte. Doch bei unkörperlichen Werken geraten gerade diejenigen Institutionen, die ihre Erhaltung leisten sollen, an die Grenzen ihrer Befugnisse.

Denn wenn digitale Inhalte nur durch Kopieren nutzbar sind, kann jede weitere Vervielfältigung gegen Urheberrechte verstoßen. Sie muss entweder durch Rechteinhaber genehmigt oder durch gesetzliche Ausnahmen erlaubt sein. «Spannungen zwischen Archivierungsinteressen und betroffenen Urheberrechten sind kein ausschließlich deutsches Phänomen, sondern bereiten Langzeitarchi-vierungsprojekten weltweit zunehmende Schwierigkeiten», stellt etwa Arne Upmeier vom Archivierungsnetzwerk Nestor fest.

Das Archivieren digitaler Inhalte ist bereits dort durch Einschränkungen geprägt, wo es zunächst nur um das Sammeln und Erhalten geht. Noch bevor die Inhalte vermittelt und zugänglich gemacht werden, zeigen sich die Grenzen des Urheberrechts. So ist die Deutsche Nationalbibliothek (DNB) seit 2006 dafür zuständig, deutsche Internetveröffentlichungen zu archivieren. Ihr Auftrag wurde per Gesetz ausgeweitet. Auch Medienwerke, die «in unkörperlicher Form der Öffentlichkeit zugänglich gemacht werden», sollen seitdem von ihr gesammelt werden.

Beim Harvesting, dem großflächigen Einsammeln von Webseiten, verfolgt die DNB nach eigener Aussage einen «selektiven Ansatz». So werden ausgewählte Internet­seiten anlässlich von Ereignissen wie Bundestagswahlen oder den jüngsten Flüchtlingsbewegungen archiviert. Eine breitflächige Sammlung von Seiten unter der deutschen .de-Domäne aber hat die Bibliothek bislang nur in einem einzelnen, experimentellen Durchlauf angelegt, wobei der Umfang aus Kostengründen auf 120 Terrabyte beschränkt wurde.

Wie auch andere Bibliotheken und Archive steht sie vor der Aufgabe, ihren Sammelauftrag bei Internetinhalten näher zu bestimmen. Alles zu speichern, wie der Auftrag es nahelegen könnte, ist praktisch unmöglich. Das Harvesting ist jedoch auch deshalb begrenzt, weil Urheberrechte zum Problem werden können: Das deutsche Gesetz weitet zwar Regelungen für Pflichtexemplare auf digitale Veröffentlichungen aus und nennt technische Verfahren zum Einsammeln. Es verleiht aber keine weiteren Rechte, die Inhalte zu vervielfältigen.

Auch beim mehrfachen Kopieren zur Langzeit-Archivierung können Bibliotheken schnell an die Grenzen des Erlaubten geraten, resümiert der Bibliotheksjurist Eric Steinhauer. Alles in allem lasse sich das Sammeln von Netzpublikationen «nur sehr unvollkommen mit den geltenden urheberrechtlichen Schrankenregelungen in Übereinstimmung bringen». Individuelle Vereinbarungen zur Archivierung mit Website-Betreibern sind in klar abgegrenzten Bereichen möglich, etwa bei wissenschaftlichen Publiktionsservern. Beim Harvesting weiter Teilen des Webs ist es illusorisch, mit Millionen von Seitenbetreibern Vereinbarungen zu treffen und Rechte abzuklären.

Zumindest vom Urheberrecht her sieht die Lage zum Beispiel in Frankreich günstiger aus. Die Französische Nationalbibliothek (BnF) verfolgt einen ähnlichen Ansatz wie die DNB, kann beim Archivieren von Internet-Inhalten jedoch auf weitergehende Befugnisse zurückgreifen. Einmal jährlich sammelt die BnF Inhalte, die unter französischen Domänen (.fr) veröffentlicht wurden oder über weitere Kriterien in die Sammlung aufgenommen wurden. Hinzu kommen auch hier tiefergehende, punktuelle Sammlungen von Internetseiten etwa zu spezifischen Themen. Mit der Kombination verschiedener Crawls hofft die BnF, einen repräsentativen Ausschnitt des französischen Internets zu archivieren.

Dazu wurde die BnF auch ausdrücklich ermächtigt: Das 2006 geänderte französische Urheberrecht und das Gesetz zum Kulturerbe erlauben es ihr, Internetveröffentlichungen «durch automatisierte Techniken oder über Vereinbarungen und Abgabeprozeduren» zu sammeln. Dabei darf die Bibliothek auch Zugriffsvermerke wie das robots.txt-Protokoll ignorieren. Was beim Indexieren durch Suchmaschinen sinnvoll ist, kann der späteren Rekonstruktion einer Webseite entgegenstehen. Beschränkungen, die das Harvesting durch die Bibliothek behindern, sind sogar unzulässig. Die BnF kann somit auch Nachrichtenseiten mit Bezahlschranke einsammeln und etwa Verlage nach den Zugangsdaten fragen.

Beschränkungen durch Urheberrechte ergeben sich natürlich auch in Frankreich — vor allem dann, wenn die gesammelten Seiten zugänglich gemacht werden sollen. Archivierte Internetinhalte stehen nicht frei im Web, sondern sind in den Leseräumen der Bibliothek für registrierte Besucher einsehbar.

Vergleichbare Modelle beim Zugang zum gesammelten Material gibt es vielen weiteren Ländern Europas. Eine Ausnahme bildet Estland: Seit 2006 ist es der Nationalbibliothek in Tallinn erlaubt, Internetpublikationen nicht nur zu sammeln, sondern sie auch im Netz zugänglich zu machen. Anbieter von Inhalten haben jedoch das Recht, diesen Zugang zu ihren Inhalten zu beschränken.

Im kleinen Maßstab verfolgt Estland damit einen Ansatz, der für digitale Archive vielversprechend sein könnte: Weitgehende Befugnisse beim Sammeln ermöglichen es, die meist kurzlebigen Webseiten zunächst überhaupt zu sichern. Beim öffentlichen Zugang zum Archiv dagegen können Eingriffsmöglichkeiten den Interessen von Rechte-inhabern oder zum Beispiel Persönlichkeitsrechten Rechnung tragen.

Allerdings sieht derzeit wenig danach aus, dass die Entwicklungen in Europa solche Modelle begünstigen. In anderem Zusammenhang hat der Europäische Gerichtshof gerade entschieden, dass Einrichtungen wie Bibliotheken sich nicht darauf berufen können, Rechteinhaber hätten bestimmten Vervielfältigungen nicht widersprochen. Auch der aktuelle Entwurf der EU-Kommission zum Urheberrecht im Binnenmarkt sieht zwar eine neue Ausnahmeregelung für Archivkopien vor, um Inhalte unabhängig von ihrem Medium zu erhalten. Voraussetzung ist jedoch auch hier, dass sie sich bereits «dauerhaft in ihren Sammlungen befinden». Das Einsammeln per Harvesting und das anschließende Schaffen eines Zugangs bleiben außen vor.

Ein Archiv mit öffentlichem Zugang zu archivierten Internet-Inhalten aller Länder, wie ihn das Internet Archive aus den USA bietet, bleibt in Europa bis auf Weiteres unwahrscheinlich. Dass das Internet Archive — in Kalifornien als Bibliothek anerkannt — ihn anbieten kann, liegt aber nicht nur am flexibleren Copyright, etwa am häufig angeführten Fair-use-Modell, das die Arbeit des Archivs begünstigt. Als private, nicht-staatliche Einrichtung kann das Internet Archive in Grauzonen vorstoßen, die öffentliche Einrichtungen meiden.

«Anwälte haben uns gesagt, dass wir in Grund und Boden geklagt würden», berichtet Alexis Rossi, Leiterin für Medien und Zugang beim Internet Archive, über die Entstehungszeit des Archivs und der Wayback Machine. Eine große Klagewelle blieb aus, das Internet Archive ist Anlaufstelle für Millionen Nutzer auf der Welt geworden. Rossis Rat zum Archivieren des Internets wird öffentlichen Stellen abenteuerlich erscheinen: «Just do it».

David Pachali ist Journalist mit Schwerpunkt Urheberrecht und Netzpolitik.

Comment is free

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert