Stellungnahme des SUMA-EV: Umsetzung der EU-Richtlinien im Urheberrecht

Stellungnahme des SUMA-EV: Umsetzung der EU-Richtlinien im Urheberrecht

Als Betreiber der ältesten nicht-amerikanischen Meta-Suchmaschine MetaGer bekunden wir hiermit unsere Befürchtungen zur Umsetzung der EU-Urheberrechtsrichtlinie. Seit 1996 bietet MetaGer seinen Nutzern die Möglichkeit, nach Inhalten im Web zu suchen – unter anderem auch aktuelle Nachrichten. Als Forschungsprojekt der Uni Hannover entstanden, wird die Suchmaschine seit 2004 vom gemeinnützigen Verein SUMA-EV getragen, der sich als Dachverband der „kleineren“ Suchmaschinen – insbesondere im deutschen Sprachraum – organisiert.
Im nachfolgenden Text leiten wir her, wo wir in der Umsetzung der Richtlinie schwerwiegende Risiken sowohl für Suchmaschinenanbieter und Web-Nutzer als auch für Presseverlage erkennen.

Sachverhalt

Im Rahmen der Websuche werden dem Nutzer Webseiten präsentiert, die zu den Suchbegriffen des Nutzers passen. Dazu werden die Textstellen, an denen die Suchbegriffe gefunden wurden, als sogenannte Snippets angezeigt. Wichtig ist, dass Suchmaschinen nicht zwischen Webseiten von Presseanbietern und sonstigen Webseiten unterscheiden können.

Mögliche Probleme

Diese Eigenschaft von Suchmaschinen lässt uns befürchten, dass sich durch die Umsetzung der EU-Richtlinie in deutsches Recht der Betrieb einer Suchmaschine erschwert, wenn nicht sogar unmöglich wird.

Denn: In Artikel 15 wird Suchmaschinen (und anderen Anbietern von Diensten der Informationsgesellschaft) auferlegt, für kurze Abschnitte, die sogenannten Snippets, in der zum Link gehörigen Link-Vorschau Lizenzen bei den entsprechenden Presseverlegern einzuholen. Zwar sollen „sehr kurze Abschnitte“ und „einzelne Wörter“ von der Lizenzierungspflicht ausgenommen werden. Doch „sehr kurze Abschnitte“ sind in vielen Fällen nicht in der Lage, den Zweck eines Snippets abzubilden.

Eine Vorschau mit aussagekräftigen Satzbausteinen bildet die Grundlage für den Betrieb einer Suchmaschine. Der Nutzer muss sich ein umfassendes Bild über die verlinkte Website machen können, um in der Lage zu sein, sich für oder gegen ein Anklicken des Links zu entscheiden. Diese Orientierungsmöglichkeit ist essentiell. Da jedoch wie oben ausgeführt eine Suchmaschine ohne den Einsatz spezifischer Filter (Pressefilter) nicht erkennen kann, ob sie ein Presseerzeugnis oder eine normale Website vor sich hat, müsste der Suchmaschinenbetreiber vorsorglich sämtliche Link-Previews in einem Umfang einschränken, der eine Nutzung erschweren oder unmöglich machen würde.

Natürlich könnten spezielle Filter lizenzpflichtige Seiten der Presseverlage herausfiltern. Dafür müsste man jedoch technische Werkzeuge wie automatisierte Pressefilter entwickeln bzw. kaufen, was insbesondere für Betreiber nicht-kommerzieller Suchmaschinen eine erhebliche finanzielle Hürde darstellen würde. Es bedeutet zudem einen unzumutbaren Mehraufwand, sich bei jedem einzelnen Presseverlag eine Lizenz einzuholen und Lizenzvereinbarungen auszuhandeln. Zwar könnte sich ein Betreiber pauschale Lizenzen von großen Presseverlegern einholen, nicht aber von der Vielzahl der kleinen europäischen Verleger. Kleine Suchmaschinen sowie kleine Presseverleger würden damit gleichermaßen benachteiligt.

Unser Lösungsvorschlag

Unser Vorschlag zur Lösung ist es daher, zwischen Nachrichtenaggregatoren und anderen Diensten  zu unterscheiden. Ein auf Presseerzeugnisse spezialisierter Dienste (Nachrichtenaggregator) stellt sich durch ein ausführliches Preview dar, in dem oft ganze Sätze enthalten sind. Diese Aggregatoren wären im Sinne der EU-Richtlinie lizenzierungspflichtig. Andere Dienste stellen Presseerzeugnisse und normale Webseiten gleichartig dar. In diesem Fall könnte eine implizierte Lizenz die Lösung sein.

Eine implizierte Lizenz würde den Betrieb einer Suchmaschine und ähnlicher Dienste in der gewohnten Weise ermöglichen. Das bedeutet: Wehrt sich ein Webseitenbetreiber nicht aktiv dagegen, dass seine Seite von einem Suchmaschinencrawler gefunden und entsprechend genutzt wird, bedeutet diese Hinnahme implizit sein Einverständnis für die Nutzung. Dies umfasst auch die Erstellung von aus mehreren Worten bestehenden Snippets.

Diese aktive, rechtlich bindende Steuerungsmöglichkeit lässt sich durch den obligatorischen sogenannten „Robots.txt“-Standard realisieren. In dieser Datei bestimmt ein Webseitenbetreiber im Einzelnen, welche Bestandteile seines Angebots durchsucht werden dürfen; darüber hinaus können einzelne Crawlbots zugelassen oder ausgesperrt werden. Für Inhalte auf den nicht ausgeschlossenen Seiten würde dann die rechtlich bindende Erlaubnis zur Nutzung ohne Einschränkung (und damit zur entsprechenden Bereitstellung einer aussagekräftigen Vorschau) gelten.

Alternativ könnten wir uns auch vorstellen, dass die Anbieter von Presseerzeugnissen den Vorschautext selbst bestimmen können, indem Sie diesen auf den Webseiten entsprechend maschinenlesbar auszeichnen.

Fazit

Snippets, die den Inhalt der verlinkten Presseseite vorweg nehmen, werden für viele Nutzer als alleinige Informationsquelle genutzt. Sie sind tatsächlich ein Problem für den Inhalte generierenden Qualitätsjournalismus. Wir glauben aber nicht, dass es durch die in der Richtlinie genannten Maßnahmen sinnvoll gelöst werden kann. Wir befürchten hingegen, dass die Richtlinie zu einer weiteren Machtkonzentration auf dem Suchmaschinenmarkt führt, da sich große Internetdienste wie Google weitaus besser auf die neuen Erfordernisse einstellen können als kleinere Dienste. Wir treten daher dafür ein, dass bei der Überführung des Richtlinientextes in deutsche Rechtsprechung darauf geachtet wird, den vorhandenen Spielraum auch im Sinne der kleineren Suchanbieter z. B. in der oben genannten Weise zu nutzen.

Schreibe einen Kommentar