Suchmaschinen - Woher sie kommen - wohin sie gehen (können)

28.06.11 | Wolfgang Sander-Beuermann, Geschäftsführer des SuMa-eV, beschreibt in einem Dossier zur Medienbildung für das Medienkompetenz-Netzwerk NRW die deutsche Suchmaschinenlandschaft als eine Monokultur mit gravierenden Folgen für die Informations- und Wissenskultur. Er nennt Alternativen jenseits von Google und Bing, zeigt, wie man eine eigene freie Suchmaschine aufsetzt und gibt Hinweise für die Recherche in Suchmaschinen. Am Ende steht ein optimistischer Ausblick auf eine (zukünftige) blühende "Suchmaschinenlandschaft" der verschiedensten Fach- und Interessengebiete.

Dr. Wolfgang Sander-Beuermann:

Vor ca. 20 Jahren gab es im deutschen Duden nicht einmal das Wort "Suchmaschine", seit 2004 gibt es dort sogar das Wort "googeln" - was ist geschehen? Fragen wir zunächst:

Woher kommen die Suchmaschinen?

Zu Beginn der 90-er Jahre des vorigen Jahrhunderts kam das Internet aus den amerikanischen Universitäten, in denen es nach der militärischen Anfangs- und Förderphase ca. 10 Jahre lang zu einer stabilen Reife gewachsen war, im "Rest der Welt" an. In diesem weitaus größeren "Rest" begann sofort ein exponentielles Wachstum des Internet; das Netz der Netze breitete sich weltweit aus. Damit wurde es aber auch zunehmend undurchschaubarer. Um überhaupt noch Informationen zu finden, benötigte man Hilfsmittel. Eines der allerersten Hilfsmittel war eine alphabetisch nach Sachgebieten geordnete Liste, in der die Adressen von Datenquellen verzeichnet waren. Das bekannteste Beispiel einer solchen Liste ist die - heute nur noch historisch interessante - "Updated Internet Services List", auch genannt die Yanoff-Liste, nach dem Ersteller Scott Yanoff. Unter der im Literaturverzeichnis genannten Quelle kann man eine Version von 1995 nachlesen. Es gab damals noch kein WWW, stattdessen einen Dienst namens "Gopher" und viele andere Internet-Services, die heutzutage keine Rolle mehr spielen.

Mit dem Erscheinen des WWW wuchs dann das Datenvolumen des Internet so schnell und so gigantisch an, dass eine Erfassung in einer solchen "flachen", unstrukturierten Liste unmöglich wurde. Der nächste Schritt war folgerichtig, ein die Daten strukturierendes hierarchisches Verzeichnis aufzusetzen. Ein solcher Dienst wurde unter dem Namen "Yahoo" weltbekannt. Yahoo beschäftigte in seinem Firmensitz in Sunnyvale, Kalifornien, zeitweise ganze Hundertschaften von Studenten um Informationen manuell zu erfassen, zu kategorisieren und ins Verzeichnis einzusortieren. Da in den Folgejahren jedoch das Datenvolumen des Internet weiter ungebremst wuchs, waren bald auch Hundertschaften zu einer manuellen Erfassung nicht mehr in der Lage. So ist auch aus dem ehemaligen Verzeichnisdienst "Yahoo" später das geworden, was man als "Suchmaschine" bezeichnet: ein per Software erstellter Index. Dieser Index wird aus den Wörtern gebildet, die im Text der Webseiten geschrieben stehen. Sucht man in diesem Index dann nach Wörtern, bekommt man umgekehrt angezeigt, welche Webseiten diese Wörter enthalten - genauso, wie man im Index eines Buches angezeigt bekommt, auf welchen Buchseiten diese Wörter vorkommen. Diese Organisation von Daten nennt man einen invertierten Index. Er ist Basis aller Suchmaschinen.

Neben Yahoo etablierten sich um 1996 etliche weitere Suchmaschinen; bekanntestes Beispiel ist die von einem Team unter der Leitung von Louis Monier bei der Firma Hewlett Packard in Palo Alto, Kalifornien, entwickelte "Altavista". Trotz der Tatsache, dass mit dem Wort Suchmaschine die Software beschrieben wird, welche u.a. automatisch einen Index erzeugt, wurde in den USA dafür das Wort "Search Engine" geprägt. Gerüchten zufolge soll dies der Tatsache geschuldet sein, dass etwas, das sich nach "Engine/Maschine" - also Hardware - anhört, einfacher zu patentieren gewesen sei.

Wie Ihnen als Leser aufgefallen sein dürfte, sind die oben genannten Entwicklungen alle in Kalifornien entstanden, zumeist im südlicheren Landesteil, so wie auch das Internet größtenteils in den dortigen Universitäten im "Sunshine State" der USA zwischen Surfbrett am Strand und Uni-Institut zur Reife entwickelt wurde. Es wäre eine eigene Untersuchung wert, herauszufinden, warum dies gerade dort geschah und es dürfte kein Zufall sein, dass man das Herumstöbern auf Webseiten heute noch "surfen" nennt. Jedenfalls war es nur folgerichtig, dass auch die Suchmaschine, die alles veränderte, um 1998 im Umfeld der Stanford Universität südlich von San Franzisko entstand: Google.

Der Status-Quo

Heute ist Google ein globaler Konzern mit ca. 25.000 Mitarbeitern weltweit und einem Marktanteil von über 90% in Deutschland. Der Plural des Wortes Suchmaschine"n" ist damit eigentlich überflüssig geworden, denn es gibt defacto (fast) nur noch diese eine. Damit ist eine Machtstellung im Internet erreicht, die weit über die Kontrolle des Wissenszugangs durch Suchmaschinen hinausgeht. Denn die Suchmaschine von Google entscheidet, welche Webseiten unter den ersten 10 Ergebnissen zu einer Suche angezeigt werden. Und die ersten 10 Ergebnisse sind die wesentlichen: praktisch werden nur diese von den Nutzern wahrgenommen, alles andere existiert kaum. Damit entscheidet der Konzern Google Inc. in Mountain View in Kalifornien, welches Wissen wahrgenommen wird, und welches nicht - was im Internet existiert und was nicht. Hierbei geht es aber nicht nur um Wissen, und dessen Wahrnehmung, sondern genau so um wirtschaftliche Interessen: Online-Shops, die bei Google nicht unter den ersten 10 erscheinen, existieren nicht. Google entscheidet damit über den wirtschaftlichen Erfolg oder Misserfolg und dominiert die Online-Wirtschaft. Nicht anders ist es mit politischen Interessen: politische Ideen, deren Webpräsenzen nicht unter den ersten 10 Ergebnissen erscheinen, wird kaum jemand wahrnehmen.

Die ganze Heftigkeit dieser Fakten wird nun zu einem wirklichen Desaster, wenn man sich klarmacht, dass die Auswahl dieser ersten 10 Ergebnisse nach Kriterien erfolgt, die Betriebsgeheimnis sind. Niemand außer der entsprechenden Abteilung beim Konzern in Mountain View in Kalifornien kann nachvollziehen, wie diese so entscheidenden ersten 10 Ergebnisse zustande kommen.

Andererseits kann man nicht fordern, dass dieser Algorithmus einfach komplett offengelegt wird. Wenn öffentlich bekannt wäre, wie das Verfahren genau funktioniert, dann würde jeder versuchen, seine Webseiten mit diesem Wissen auf die ersten Plätze zu manipulieren. Was wir brauchen, ist trotzdem mehr Transparenz!

Denn Transparenz fordern heißt nicht, dass gleich der komplette Algorithmus öffentlich wird. Wie Transparenz im Detail herzustellen ist, das muss diskutiert werden - auch mit Google. Eine Detailforderung ist dazu in den Leitlinien des SuMa-eV beschrieben: "Wenn sich daher Quasi-Monopole für den Wissenszugang etabliert haben, dann müssen die Maßstäbe der Wissensbewertung für solche Monopole transparent gemacht werden: demokratisch legitimierte Kontrollgremien müssen sie überprüfen können." D.h. der Algorithmus muss in Einzelfällen auf seine Objektivität von einem Kontrollgremium (aber nicht öffentlich) nachprüfbar sein.
Weiterhin kann man verlangen, dass in Fällen, in denen eine marktbeherrschende Suchmaschine Webseiten gezielt in der Bewertung herunterstuft, der Eigentümer dieser Webseiten darüber informiert werden muss. Derartige massive Eingriffe dürfen nicht nur im Geheimen passieren, wie es derzeit die gängige Praxis ist. Weitere Detailmaßnahmen sind denk- und diskutierbar.

Nun ein praktisches Beispiel zum Ranking-Algorithmus:

Ist Ihnen schon einmal aufgefallen, dass die Reihenfolge Ihrer Suchergebnisse bei Google dadurch gesteuert wird, wie oft Sie welche Ergebnisse angeklickt haben? Sie freuen sich vielleicht, dass bei dem für Sie wichtigen Suchwort IHRE Homepage ganz vorn bei Google erscheint, worauf Sie Google ganz besonders toll finden - aber dies gilt wahrscheinlich leider nur für Sie selber. Weil Sie selber Ihre Homepage häufig angeklickt haben! Ihr Nachbar kann völlig andere Ergebnisse erhalten. Wie diese Klick- und Informationsbewertung vonstatten geht, wie oft wer von wo mit welchem Browser wie klicken muss, das gehört zum Betriebsgeheimnis. Daneben spielt eine Fülle weiterer Faktoren eine Rolle bei der Auswahl der für Sie angezeigten Suchergebnisse; diese Faktoren sind allesamt geheim. Auch hier muss diskutiert werden, wie weit hier Transparenz herzustellen ist.

Daneben gibt es Weiteres, was sich meist im Verborgenen abspielt, und dabei geht es um Ihre persönlichen Daten:

Ist Ihnen weiterhin schon einmal aufgefallen, dass Sie nach einer Suche bei Google später, wenn Sie auf ganz anderen Webseiten surfen, dort Werbung erhalten, die zu Ihrer früheren Suche bei Google passt? Diesen "Trick" ermöglicht das Affiliate-Netzwerk: Ihre Google-Suche wird gespeichert, im Affiliate-Netzwerk an andere Webseitenbetreiber weitergegeben, so dass Sie auch dann, wenn sie nicht mehr bei Google sind, die passende Werbung eingeblendet erhalten. Und auch das, was sie dort tun, wird gespeichert. Wenn Sie dabei in Online-Shops Einkäufe getätigt haben, dann ist nicht nur Ihre Internet-Adresse bekannt, sondern Sie sind de-anonymisiert - mit Ihrem realen Namen und ihrer Adresse bekannt.

Ist Ihnen schon einmal aufgefallen, dass Sie ganz unten links im Browser beim Surfen auf irgendwelchen Webseiten ganz schnell wieder verschwindend die Wörter "google-analytics" lesen konnten? Der Vorgang ist sehr schnell und Sie müssen schon sehr genau hinsehen. Auch an dieser Stelle werden Ihre Daten an Google übermittelt. Der Grund: der Betreiber einer solchen Webseite benutzt ein Werkzeug von Google um die Aufrufsstatistik für seine Webseiten zu erstellen und auszuwerten. Das ist einfach, bequem und für den Webseitenbetreiber kostenlos. Die "Bezahlung" erfolgt hingegen mit IHREN persönlichen Daten. Wenn Sie dieses "Aufblitzen" der Wörter "google-analytics" unten links im Browser noch nie gesehen haben: gehen Sie z.B. auf die Website http://www.holzkasperle.de und schauen ganz genau auf die linke untere Ecke des Browsers. Wenn Sie es trotzdem nicht sehen, weil es zu schnell ging, dann können Sie es im Quelltext der Seite finden ("Ansicht" und "Quelltext anzeigen", dann im Quelltext nach "google-analytics" suchen). Immer wenn der Quelltext einer Seite dieses enthält, dann wissen Sie: Google Inc. liest mit.

Der IT-Experte kann auf diese und andere Arten einen Teil der zunächst unsichtbaren Kriterien zwar erkennen und teilweise beeinflussen oder ausschalten - in dem er z.B. im zuerst beschrieben Beispiel die Cookies löscht oder für den Firebox-Browser das Plugin "Ghostery" installiert (Vollprofis nehmen dazu das Plugin "NoScript"), wodurch die Weitergabe der eigenen Daten drastisch gebremst wird. Weitere wichtige Hinweise generell zum Datenschutz im Internet finden Sie z.B. bei praemandatum.de.

Der Normal-Nutzer wird all dieses nicht einmal bemerken (hatten Sie etwas davon bemerkt?), und er wird sich um keine Cookies und dergleichen Fachchinesisch kümmern. Darum müssen auch diese Vorgänge der Übermittlung persönlicher Daten transparent gemacht werden!

Selbst dem IT-Guru bleibt der weitaus größte Teil der Faktoren zur Informationsauswahl - es sind Hunderte, die auf komplexe Weise zusammenspielen - verborgen. Wozu Ihre persönlichen Google-Klicks darüber hinaus noch verwertet werden, wie aus ihnen Geld gemacht wird, das entzieht sich jeder Kenntnis. Dazu im Folgenden nun ein paar generelle Überlegungen aus übergeordneter Perspektive eines freien Wissenszugangs.

Freies Wissen, freie Suchmaschinen

Ein wesentlicher Baustein für die Wissensgesellschaft der Zukunft ist es, dass Wissen „frei“ verfügbar ist. Das bedeutet nicht unbedingt, dass es immer auch kostenlos erreichbar sein muss, aber es sollte zu Bedingungen verfügbar sein, die es für die allermeisten Individuen einer Gesellschaft leicht zugänglich macht. Mit dem Internet sind wir dieser Vision ein gutes Stück näher gekommen.

Um das Wissen dann zu finden, brauchen wir aber die Instrumente, von denen dieser Artikel handelt, die wir gegenwärtig „Suchmaschinen“ nennen. Sie sind also die zentralen Einstiegstore zum Wissen – man hat sie darum auch „Gatekeeper“ genannt. Sie entscheiden, welches Wissen für uns erreichbar ist, und was wir für wahr und für falsch halten. Sie prägen damit in wesentlichem Maße unser Bild von der Welt. Wenn diese Gatekeeper-Funktion nun durch Regeln definiert wird, die wir nicht kennen, dann fehlen uns wesentliche Maßstäbe, um Wissen zu beurteilen. Wenn eine Suchmaschine nichts findet, heißt das dann, dass es das gesuchte Wissen nicht gibt? Oder heißt es nur, diese Suchmaschine hat schlecht gesucht? Wenn uns der Gatekeeper zwar Gesuchtes geliefert hat – wie können wir den Wahrheitsgehalt beurteilen? Ist das Gesuchte vielleicht sogar manipuliert? Wenn wir die Regeln des Gatekeepers nicht kennen, sind wir seinen von Menschen gemachten Regeln ausgeliefert. Der vorige Satz beschreibt die aktuelle Situation: 90 % oder mehr von denjenigen, die im Internet nach Wissen suchen, liefern sich dabei den Regeln eines einzigen globalen Konzerns aus: Google Inc.

Diese Situation ist in einer Wissensgesellschaft ein Widerspruch in sich: Kein ansonsten intelligenter Mensch würde irgendeinem anderen alles glauben, was dieser ihm berichtet. Der Begriff Wissen beinhaltet die Infragestellung, den Vergleich, die Transparenz, die Nachvollziehbarkeit.

Wo sind die Alternativen?

Trotzdem sind die Alternativen rar geworden. Während es um das Jahr 2000 noch eine reichhaltige Auswahl gab, die auf dem globalen Markt konkurrierte, gibt es derzeit in dieser Liga der global Player nur noch zwei: die Suchmaschine Bing von Microsoft (die mittlerweile auch den Index zu Yahoo liefert, womit Yahoo keine eigenständige Suchmaschine mehr ist), und Google. Hierzulande gibt es nach wie vor als komplett deutsche Eigenentwicklung die von der Leibniz Universität Hannover betriebene Suchmaschine www.metager.de; nennenswerte Marktanteile haben jedoch weder diese noch andere.

Dass die Situation sich zu einer Monokultur entwickeln würde, war seit einigen Jahren absehbar. Daher hat der Autor dieses Artikels im Jahr 2004 den SuMa-eV gegründet, damals unter dem Namen "Gemeinnütziger Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs, SuMa-eV". Da sich mittlerweile abzeichnet, dass sich neben den Suchmaschinen weitere Wege des Wissenszugangs etablieren, wurde der Verein im Jahr 2009 umbenannt in: "SuMa-eV - Verein für freien Wissenszugang". Trotzdem bilden Suchmaschinen nach wie vor einen Schwerpunkt, und der Verein hat sich daher zu einer Art Dachverband der Alternativen entwickelt. Weiterhin betreibt SuMa-eV eine eigene Entwicklungsrichtung unter dem Namen www.metager2.de.

Das ist auch eines der Ziele dieses Vereins: Entwicklung und Betrieb von Suchmaschinen in definierten Nischen. Es wäre naive Technikgläubigkeit, zu erwarten, dass hiermit eine Konkurrenz auf globaler Ebene geschaffen werden könnte. Nichtsdestotrotz ist dieser naive Glaube weit verbreitet: man würde nur ein paar geniale neue Ideen brauchen, um die gegenwärtige Monokultur der Suchmaschinenlandschaft zu durchbrechen. Defacto braucht man realistischerweise zusätzlich zu genialen neue Ideen vor allem eines: Kapital im Bereich von einigen Milliarden(!) Euro.

Was also ist Sinn und Zweck des SuMa-eV, wenn es derzeit unmöglich ist, die Monokultur aufzubrechen? Es sind zwei Ziele: Einmal geht es darum, die Kulturtechnik der Internet-Recherche überhaupt lebendig zu erhalten, sich aus diesem Feld nicht völlig zu verabschieden und es wenigen global Playern zu überlassen. Nicht auf die Argumentation hereinzufallen "warum entwickeln Sie Suchmaschinen, es gibt doch Google". Denn wenn diese Kulturtechnik keine Know-How Träger mehr in Deutschland hat, dann ist der Weg aus dem Monopol-Dilemma heraus nahezu unmöglich geworden. Noch haben wir die Vision, aus den vielen kleinen Nischen, die es auch bei uns noch gibt, wieder ein blühendes Feld der Vielfalt schaffen zu können.

Das ist die technische Seite, auf der sich SuMa-eV engagiert. Im nächsten Abschnitt kommt dazu ein ganz konkretes Beispiel, wie auch die Leser dieses Artikels hier einsteigen können. Neben dieser technischen Seite und ihren Zielen gibt es von gleicher Bedeutung die gesellschaftliche und netzpolitische Seite. Hier ist es das Ziel, zunächst einmal Bewusstheit für diese Wissensmonopolisierung zu schaffen, und daraus dann auch Konsequenzen für das netzpolitische Handeln zu entwickeln.

Die eigene Suchmaschine

Für den eigenen technischen Einstieg in die freien Suchmaschinen bietet die Peer-to-Peer Suche mit der YaCy-Software einen idealen Eingangspunkt, denn sie ist frei, quelloffen und kostenlos. Das Wort YaCy ist dem Computerjargon aus dem Unix-Umfeld entlehnt und steht für „Yet another Cyberspace“; ausgesprochen wird es „Jassi“. YaCy läuft auf allen Betriebssystemen für die Java ab Version 1.6 verfügbar ist. Für die Installation gehen Sie auf die Seite http://yacy.net und folgen den dortigen Download-Anweisungen.

Wann macht eine solche radikale Alternative nun Sinn? Sie macht dann Sinn, wenn Sie ein Gebiet des Internet, welches Sie gut kennen, von einer Suchmaschine erfassen lassen wollen, die ausschließlich unter Ihrer Kontrolle läuft - bei der Sie bestimmen, was sie erfasst, wie sie es tut, und wie die Bewertung (das Ranking) der Ergebnisse gesteuert wird. Bei der Sie keinen BigBrother dazwischen haben wollen, der irgendwas tut, was niemand weiß.

Für den Aufbau einer solchen Alternative müssen Sie das "Gebiet" des Internet, welches Sie erfassen wollen, durch eine Sammlung von Internet-Adressen (das sind URLs der Form "http://...") beschreiben. Diese Sammlung von Adressen geben Sie dann ihrer speziellen Suchmaschine; diese verarbeitet - indexiert - sie. Wenn Sie also mit dem Gedanken an eine eigene Suchmaschine spielen, dann sollten Sie damit beginnen, so eine Sammlung von Internet-Adressen für das Sie interessierende Thema aufzubauen. Mit einer solchen Eigenbau-Suchmaschine können Sie auf üblichen PCs heutiger Bauart immerhin einige 10 Millionen Webseiten erfassen.

Einige Suchtipps

Wenn Sie aber weiterhin die Suche in allgemeinen Suchmaschinen (Google, Bing/Yahoo) dem Eigenbau einer solchen vorziehen, dann schöpfen Sie unbedingt die verschiedenen Suchmöglichkeiten, welche die Suchdienste bieten, aus.
Zur Erhöhung der Relevanz der Treffer ist es beispielsweise sinnvoll, die Suche auf bestimmte Elemente einer Webseite einzuschränken.
  • Wenn Sie wissen wollen, welche Webseiten im Titel Ihren Suchbegriff führen, geben Sie einfach folgende Suchanfrage ohne Leerzeichen ein: „intitle:Suchbegriff“ (immer ohne Anführungszeichen). Damit wird die Suche auf den im HTML-Code vermerkten Seitentitel einer Webseite eingeschränkt und Sie erhalten als Treffer nur Webseiten, die im Titel Ihren Suchbegriff enthalten. Diese Suchanfrage kann verknüpft werden mit einer Suche nach bestimmten Dateiformaten, beispielsweise nach PDF-Dokumenten. Eine Suchanfrage sieht dann so aus: „intitle:Suchbegriff filetype:pdf“. Damit wird die Suche eingeschränkt auf PDF-Dokumente, die im Titel den Suchbegriff enthalten. Da diese Suchanfrage sehr selektiv ist, empfiehlt es sich noch andere Suchanfrage zu starten.
  • Wenn sie wissen wollen, welche Webseiten in der Zeichenkette dem URL Ihren Suchbegriff führen, geben Sie einfach folgende Suchanfrage ohne Leerzeichen ein: „inurl:Suchbegriff“. Damit wird die Suche eingeschränkt auf Webseiten, Dokumente etc., die in dem URL den gesuchten Begriff führen.
  • Eine der häufigsten und interessantesten Such-Operatoren ist der sog. „site“-Operator, der vielseitig einsetzbar ist. Wenn Sie beispielsweise wissen wollen, ob Ihr Suchbegriff auf den Webseiten eines bestimmten Webservers vorkommt, geben Sie ein: „Suchbegriff site:www.ServerName.de (oder .com usw.) Der „site“-Operator ermöglicht auch die Einschränkung der Suche auf bestimmte Top-Level-Domains, die insbesondere im anglo-amerikanischen Raum sehr ergiebig ist. So können Sie beispielsweise mit den Suchanfragen „site:edu“, „site:gov“ oder „site:ac.uk“ die Webseiten von US-Bildungseinrichtungen (vorwiegend Universitäten und Colleges), US-Regierungsbehörden oder britischen Bildungseinrichtungen nach entsprechenden Begriffen durchsuchen. Die Suche in bestimmten generischen Top-Level-Domains (gTLDs) wird in naher Zukunft auch für den deutschsprachigen Raum an Bedeutung gewinnen, weil die für das Namenssystem im Internet zuständige Regulierungsorganisation ICANN (Internet Corporation for Assigned Names and Numbers) den Weg frei gemacht hat für eine Vielzahl von gTLDs, so dass nun auch Endungen wie beispielsweise „.bmw“, „.bayern“ oder „.nrw“ möglich sind.

Weitere Informationen finden Sie im Suchmaschinen-Tutorial der Universitätsbibliothek Bielefeld oder in dem Leitfaden zur Google Web-Suche von Norbert Einsporn. Wenn Sie mit Video-Tutorials besser zurecht kommen, seien Ihnen die Tutorials zur Suche im Internet von Stephan Seehaus empfohlen.

Wohin geht die Entwicklung?

Der weltweit renommierte Informatikprofessor Hermann Maurer aus Graz sagte in einem Interview im Jahre 2008 folgendes zur Entwicklung von Google:

Frage: Wo sehen Sie Google in den nächsten 10 Jahren, falls der Staat entscheidet, nicht zu regulieren?

Maurer: Als einen Machtfaktor, der stärker als jeder Staat ist. Und als einen Monopolisten, der nicht akzeptierbar ist.

Die Antwort von Prof. Maurer beschreibt eine durchaus realistische Zukunftsperspektive: der Suchmaschinenbetreiber, "der stärker ist, als jeder Staat"; ich nenne sie "die pessimistische Option". In diesem Falle würde ein Monopolist die Macht über die digitalen Wissensströme komplett übernehmen; Deutschland und Europa hätten sich aus der digitalen Zukunft verabschiedet.

Wie sähe die Alternative aus, die optimistische? Im optimalen Fall finden wir zu einer Vielfalt von digitalen Wissensanbietern; aus der jetzigen Monokultur wird eine blühende "Suchmaschinenlandschaft" der verschiedensten Fach- und Interessengebiete. Ich halte diese optimistische Alternative nicht für unmöglich. Das Internet ist immer noch relativ neu, kompetenter Umgang damit ist derzeit eher eine Rarität. Es gab und gibt zwar zahlreiche Angebote, um "Informationskompetenz" zu erwerben. Aber solange nur wenige an dieser Stellen ihre eigene mangelhafte Kompetenz als Mangel erkennen können, da dies bereits einige Kompetenz erfordert, haben wir hier einen typischen Teufelskreis: jeder meint, er könne damit umgehen, worauf er nichts tut, um den wirklichen Umgang zu verstehen. Denn Google liefert ihm ja das, was er suchte. Was nicht geliefert wird sieht man nicht, und es stört das eigene Weltbild nicht. Die Personalisierung der Suchergebnisse verstärkt (wiederum unsichtbar) diesen Trend.

Trotzdem denke ich, dass wir die Chance für die optimistische Alternative haben: Wir brauchen einfach mehr Zeit. Die technische Entwicklung war (mal wieder) schneller als das Mitwachsen des menschlichen Geistes. Das trifft genauso auf die politischen Entscheidungen für die digitale Zukunft zu: auch die Politik hat lange gebraucht, um Handlungsbedarf zu erkennen - mittlerweile ist hier zumindest etwas geschehen. Es wird sehr schwer werden, den technischen Vorsprung der Internetkonzerne aus Übersee jetzt wieder aufzuholen; hier ist in den vergangenen 10 Jahren zu viel versäumt worden. Daher wird ein Umschwenken von der Monokultur zur Vielfalt sicherlich nicht ohne zusätzliche regulatorische Eingriffe des Staates möglich sein. Solche Überlegungen haben aufgrund der zahlreichen Kartellbeschwerden gegen Google wegen Missbrauchs seiner marktbeherrschenden Stellung sogar in die Europäische Kommission Einzug gehalten.

Wenn nun einerseits den IT-Monopolen klare Grenzen ihrer Marktbeherrschung gesetzt werden, und wenn andererseits die Kulturtechnik der digitalen Recherche auch in Deutschland und Europa weiter wächst, dann haben auch wir eine Chance in der digitalen Zukunft. Das ist Ziel des SuMa-eV. Hierfür haben wir auch in diesem Jahr wieder die SuMa Awards ausgelobt: Förderpreise für Arbeiten und Projekte zur Zukunft des digitalen Wissens.

Der Autor, Dr. Wolfgang Sander-Beuermann, ist Leiter des Suchmaschinenlabors im Regionalen Rechenzentrum für Niedersachsen (RRZN), Leibniz Universität Hannover, und Vorstand und Geschäftsführer des SuMa-eV.