Leistungsschutzrecht: Google soll zahlen, aber es trifft alle Suchmaschinen

Artikel auf Netzpolitik.org veröffentlicht am 2.10.2019

Das deutsche Leistungsschutzrecht war von vorneherein ein umstrittenes Unterfangen. 2013 eingeführt mit der Absicht, die von der Digitalisierung gebeutelten Verlage zu stärken, blieb es ein zahnloser Tiger, bis es schließlich im September 2019 wegen eines Formfehlers vom Europäischen Gerichtshof kassiert und damit endgültig zu den Akten gelegt wurde.

Mit dem Leistungsschutzrecht sollen Verlegerinteressen gestärkt werden: Presseartikel sollen grundsätzlich nur vom Verleger veröffentlich werden dürfen. Suchmaschinen wird gestattet, auf die Presseseiten zu verlinken. Ein ausführlicher Vorschautext, mit dem ein Link überhaupt erst brauchbar wird, soll aber nur mit Lizenz erlaubt werden. Zu Recht wurde dieses Gesetz von vielen Netzaktivisten kritisiert.

Die Befürchtung besteht nun, dass das Leistungsschutzrecht mit der Umsetzung der Richtlinie der EU-Urheberrechtsreform in neuem Gewand aber mit alter Problematik an den Start gebracht werden soll. Während Artikel 17 – früher Artikel 13 – der EU-Urheberrechtsreform im Fokus der Medien stand und immer noch steht und im Frühjahr zu Demonstrationen motivieren konnte, erfährt die Revitalisierung des Verlegerrechtes erstaunlich wenig mediale Aufmerksamkeit. Doch eine strikte Umsetzung der Richtlinie könnte fatale Folgen haben: für kleinere Suchmaschinenbetreiber und kleinere Verlage. Und damit für uns alle.

Wo ist das Problem?

Im Prinzip geht es den Verlegern um die Schlagzeilen-Previews der News-Aggregatoren. Oft stehen unter den von News-Aggregatoren eingestellten Informationshappen ganze Sätze, die einen Wechsel auf die entsprechende Presseseite im Prinzip nicht mehr erforderlich machen. Noch gibt es aber genug Nutzer:innen, die sich von der Presseseite mehr Inhalt erhoffen, als im Anreißtext an Information zu finden ist. Diese Personen klicken die Links dann auch an.

Doch auch wenn die Presseverleger aktuell von der prominenten Darstellung ihrer Inhalte stark profitieren und durch die News-Aggregatoren an Traffic gewinnen, wollen die Presseverleger dieser Verwertungsmentalität Googles generell einen Riegel vorschieben und zukünftige Entwicklungen lenken. Aus diesem Machtkampf um die News darf sich jedoch keine Schwierigkeit entwickeln, eine Suchmaschine generell zu betreiben.

Liest man die Richtlinie genau, betrifft sie durchaus nicht nur die News-Aggregatoren. Sie betrifft genaugenommen alle Links, die auf Presseartikel verweisen. Nun kann eine Suchmaschine jedoch nicht zwischen „normalen“ Webseiten und Presseseiten unterscheiden. Da eine Suchmaschinen folglich alle Seiten so lesen muss, als seien es Seiten von Presseverleger, müssen die Seiten auch urheberrechtlich so behandelt werden, als gelte für sie eine Lizenzpflicht.

Die Folge: Wird die Richtlinie so strikt umgesetzt, wie es der Text nahelegt, dürften auch bei der ganz normalen Websuche nur noch sehr kurze Snippets auf der Ergebnisseite angezeigt werden. Wie kurz, lässt die Richtlinie offen. Nur diese wären ganz sicher von der Lizenzpflicht ausgenommen. Der Suchmaschinenbetreiber müsste also vorsorglich alle Previews kräftig eindampfen, um rechtlich ganz auf der sicheren Seite zu sein.

Eine solche Veränderung des Vorschautextes würde jedoch Inhalt, Brauchbarkeit und Optik der Ergebnisseite einer Suchmaschine stark negativ verändern. Die Orientierungsmöglichkeit durch Snippets ist kein verzichtbares Beiwerk, das einfach entsorgt werden kann, sondern für eine komfortable und sinnvolle Suche essenziell. Schließlich muss sich der Nutzer ein umfassendes Bild über den Inhalt der entsprechenden Webseite machen können, um sich für oder gegen ein Anklicken des Links entscheiden zu können.

Was kann man tun?

Natürlich wäre es möglich, spezielle Filter vorzubauen, die alle lizenzpflichtigen Seiten der Presseverlage herausfiltern. Dabei aber treten die Probleme zutage, die man auch im Falle der Uploadfilter schon identifiziert hat: Filter sind ungenau und filtern unter Umständen irrtümlich auch Webseiten heraus, die mit Presseverlegern nichts zu tun haben.

Im Vorfeld müsste man technische Werkzeuge wie automatisierte Pressefilter entwickeln beziehungsweise kaufen, was insbesondere für Betreiber nicht-kommerzieller Suchmaschinen eine erhebliche finanzielle Hürde darstellen würde. Für Google wäre es kein Problem, sich entsprechende Filter zu leisten. Der Monopolist wird sich gleichwohl weigern, wie Googles Reaktion auf die französische Umsetzung des europäischen Leistungsschutzrechts zeigt. Nicht-kommerzielle Suchmaschinen und andere Dienste sind aber von vornherein nicht in der Lage, sich hier entsprechend auszurüsten.

Mit der Identifizierung lizenzpflichtiger Presseseiten ist es zudem nicht getan. Im zweiten Schritt müssten von jedem einzelnen Presseverlag eine Lizenz eingeholt und Lizenzvereinbarungen ausgehandelt werden, was weitere personelle und finanzielle Ressourcen erforderlich machen würde. Zwar könnte sich ein Suchmaschinenbetreiber pauschale Lizenzen von den großen Presseverlegern einholen, was in der Tat einen gangbaren Weg darstellen würde. Sich aber um die Vielzahl der kleinen europäischen Verleger und Publisher zu kümmern, wäre nicht drin.

Im Zweifelsfalle – und um sich nicht in Gefahr der Rechtsunsicherheit zu begeben – würde man die entsprechenden Seiten einfach nicht mehr listen oder eben nur mit eingeschränkter Vorschau bereitstellen. Nicht-kommerzielle Suchmaschinen sowie kleine Presseverleger würden damit gleichermaßen benachteiligt.

Ein Lösungsvorschlag

Wie könnte man die Richtlinie umsetzen, ohne den „Normalbetrieb“ einer Suchmaschine in Gefahr zu bringen? Eine Lösung könnte sein, zwischen Nachrichten-Aggregatoren und anderen Diensten strikt zu unterscheiden. Ein auf Presseerzeugnisse spezialisierter Dienst, also ein Nachrichten-Aggregator, stellt sich schon per Definition durch ein ausführliches Preview dar und „weiß“ natürlich, dass er Presseartikel verwendet.

Die Aggregatoren könnten daher im Sinne der EU-Richtlinie verpflichtet werden, sich eine Lizenz zu holen. Ob sie sich eine Lizenz dann tatsächlich auch beschaffen, ist allerdings äußerst fraglich. Google lässt sich, wie es sich jüngst bei der französischen Umsetzung des Richtlinientextes gezeigt hat, durchaus nicht unter Druck setzten und verzichtet lieber auf den ausführlichen Text unter den News-Schlagzeilen. Für alle anderen Dienste aber könnte eine implizierte Lizenz die Lösung sein.

Eine implizierte Lizenz würde den Betrieb einer Suchmaschine und ähnlicher Dienste in der gewohnten Weise ermöglichen. Die Funktionsweise ist erprobt: Wehrt sich ein Webseitenbetreiber nicht aktiv dagegen, dass seine Seite von einem Suchmaschinencrawler gefunden und entsprechend genutzt wird, gibt er damit sein Einverständnis zu Nutzung, und damit auch für die Erstellung aussagekräftiger Snippets. Schon jetzt ist diese Steuerungsmöglichkeit rechtlich bindend.

Technisch gesehen ist die Lizenz ohnehin kein Problem, sie lässt sich durch den obligatorischen sogenannten „Robots.txt“-Standard realisieren. In dieser Datei bestimmt ein Webseitenbetreiber, welche Bestandteile seines Angebots durchsucht werden dürfen; darüber hinaus können einzelne Crawlbots zugelassen oder ausgesperrt werden. Für Inhalte auf den nicht ausgeschlossenen Seiten würde dann die rechtlich bindende Erlaubnis zur Nutzung ohne Einschränkung gelten. Einer aussagekräftigen Vorschau aus mehreren Wörtern würde nichts mehr im Wege stehen.

Alternativ wäre auch denkbar, dass die Anbieter von Presseerzeugnissen den Vorschautext selbst bestimmen können. Das wäre leicht realisierbar, indem sie diesen auf den Webseiten entsprechend maschinenlesbar auszeichnen. Die Presseanbieter könnten dann entscheiden, ob sie eine ausführliche Vorschau zeigen wollen oder auf die Darstellung verzichten.

Auch hier gilt dann wieder die Logik der implizierten Lizenz: Wer keinen eigenen Vorschautext zur Verfügung stellt, gibt sein Einverständnis für die automatisierte Variante der Suchmaschine und gut ist. Es gibt also durchaus machbare Lösungen, mit denen die verunglückte EU-Richtlinie noch halbwegs unschädlich über die Bühne gebracht werden kann.

Den Spielraum nutzen

Über die Frage nach dem Sinn von Artikel 15 und 17 der EU-Richtlinie lässt sich streiten. Fakt ist, dass sie unabhängig von ihrem Potential, das Urheberrecht für Urheber tatsächlich zu stärken, nun innerhalb der nächsten beiden Jahre in deutsches Recht umgewandelt werden muss. Erkennbar ist der Vorsatz in der Politik, mit der Ausgestaltung von Artikel 15 die Verlegerinteressen zu berücksichtigen, und im Falle der Aggregatoren mag es aus Sicht der Presseverleger auch einige Gründe geben, die Rechte für den Inhalte generierenden Qualitätsjournalismus zu stärken.

Wenn das Gesetz dann aber eine ähnliche Gestalt erhält wie vormals das deutsche Leistungsschutzrecht, ist zu befürchten, dass eine weitere Machtkonzentration auf dem Suchmaschinenmarkt die Folge sein wird. Denn große Internetdienste wie Google können sich weitaus besser auf die neuen Erfordernisse einstellen als kleinere Suchmaschinen und ähnliche Dienste. Auch hat ein Monopolist wie Google eher die Freiheit, es auf einen Prozess ankommen zu lassen und/oder entsprechende Vorgaben zu ignorieren.

Um die Interessen nicht-kommerzieller Suchmaschinen zu stärken, ist es daher unumgänglich, dass bei der Überführung des Richtlinientextes in deutsches Recht darauf geachtet wird, den vorhandenen Spielraum auch im Sinne der kleineren Suchanbieter zu nutzen.

Author