Uni-Profs fordern eine Bundesanstalt für Suchmaschinen-Ranking-Kontrolle (BfSRK)

Überrascht hat mich diese Meldung wenig: Nur weniger Nutzer können mit Suchmaschinen richtig umgehen. Das ist das Ergebnis einer Studie der Johannes Gutenberg-Universität Mainz. Das Forschungsprojekt “Die Googleisierung der Informationssuche” ist dort Teil des Forschungsschwerpunkts Medienkonvergenz.

In der Pressemitteilung der Uni heißt es etwa:

  • „Viele nutzen die Google-Internetsuche weitgehend unkritisch und wissen nur wenig darüber, wie Trefferlisten zustande kommen und wodurch diese beeinflusst werden.“
  • Und: „Der Großteil der Befragten bewertet die eigene Kompetenz im Umgang mit Suchmaschinen als gut, schneidet in einem formalen Wissenstest über die Funktionsweise von Google aber schlecht ab.“

Seit Jahren schule ich Journalisten in den Strategien und Werkzeugen der Internet-Recherche (unter anderem für die ARD-ZDF-Medienakademie). Und in den Workshops zeigt sich tatsächlich, dass auch viele Journalisten wenig über die Funktionsweise von Suchmaschinen wissen. Übrigens sind junge, angeblich Internet-affine Volos oft nicht besser. Dabei gehört es zu dem Berufsbild, Informationen zu sammeln, zu bewerten und zu bündeln. Und die kommen immer öfter aus dem Netz. Für viele Journalistinnen und Journalisten ist Google der Startpunkt für jede Recherche.

Ich frage die TeilnehmerInnen am Anfang immer, was sie über Google, Bing und Co. wissen. Folgende Punkte werden immer wieder genannt:

  • Google findet alle Dokumente, die im Netz stehen
  • Unternehmen können mit Geld ihr Ranking beeinflussen
  • Google zensiert nicht
  • Google durchsucht das Internet in dem Moment, in dem ich ein Suchbegriff eingebe und auf „Suchen“ klicke
  • Wenn ich in München nach dem Wort „Pizza“ suche, kommen die gleichen Ergebnisse wie in Hamburg
  • Die Anzahl der Suchtreffer, die Google angibt, stehen für Relevanz („Lady Gaga hat mehr Suchergebnisse als Angela Merkel – also ist sie wichtiger!“)
  • Google ist gefährlich – und am liebsten würde ich es gar nicht mehr nutzen

Unwissenheit erzeugt Angst

Der letzte Punkt fasst ziemlich gut zusammen, was ein Jahrzehnt hysterische Google/Datenschutz-Berichterstattung angerichtet hat. Nämlich dass es bei dem Thema nicht um Wissen und Funktionsweise von Suchmaschinen geht, sondern ums Bauchgefühl.

Ich bin der letzte der Google in Schutz nimmt (siehe dazu u.a. meinen Beitrag über Google Fiber). Klar, lässt sich darüber streiten, was der weltgrößte Werbekonzern (das ist Google nämlich aus) mit meinen Daten heute und vor allem in 20, 30, 40 Jahren anstellen wird. Aber das geht nur, wenn neben den Gefühlen auch die technischen Hintergründe und Funktionsweise bekannt sind.

Komische Forderung: Der Staat soll Google stärker regulieren

Deshalb stimme ich auch nicht mit der Schlussfolgerung von Birgit Stark, Dieter Dörr und Stefan Aufenanger überein: „Angesichts der mangelnden Suchmaschinenkompetenz vieler Internetnutzer sehen die Autoren der interdisziplinären Studie “Die Googleisierung der Informationssuche” die Notwendigkeit, Suchmaschinen stärker als bisher medienrechtlich zu regulieren“, schreiben sie in der Zusammenfassung der Studie.

Das verstehe ich nicht. Weil die Nutzerinnen und Nutzer nicht wissen wie es geht, soll der Staat regulierend eingreifen? Wirklich? Vergeben Sie mir den platten Vergleich, aber: Auf dem Aktien- und Derivate-Markt darf jeder Depp mitspekulieren. Dort blickt auch kein Normalmensch durch. Und wie das Geschäftsjahr 208/2009 gezeigt hat, ist er erwiesenermaßen längst nicht ausreichend reguliert.

octopus vulgaris

Das ist sie wieder, die Datenkrake. Das Foto steht unter einer CC-By-NC-SA 2.0 Lizenz Joachim S. Müller – dem besten Krakenfotografen bei Flickr.

Suchmaschinenanbieter ohne Ranking?

Während sie in der Studie die Unwissenheit der Testpersonen beklagen, geraten die Forscher bei Ihren Empfehlungen selbst aufs Glatteis:

„Als Ansatzpunkte einer sinnvollen Regulierung identifiziert die Mainzer Studie drei zentrale Orientierungspunkte für eine Neuregulierung: Neutralität, Transparenz und Kompetenz. Neutralität bezeichnet gleiche Chancen auf aussichtsreiche Rankingplätze in Trefferlisten für alle Anbieter von Webinhalten. Um den Nutzern eine solche neutrale Auswahl aus dem gesamten Angebotsspektrum zu ermöglichen, dürfen Suchmaschinenbetreiber keinen Einfluss auf das Ranking von Suchergebnissen nehmen.“

Wie bitte, soll das gehen? Der Suchmaschinenanbieter muss Einfluss auf das Ranking nehmen. Deshalb machen wir ja den ganzen Spaß: Google, Bing und Co. sind ein Filter um den ganzen Mist des Internets für uns zu sortieren. Das funktioniert mal schlechter, mal besser (übrigens besser, wenn man diese Filtertechniken beherrscht, siehe z.B. Google Operatoren).

Und sortieren heißt nichts anderes als: ranken. Entscheidungen treffen. Das Schlechte (= Spam) aussortieren. Das Gute höher zu bewerten. Ich habe noch keine Beschwerden gehört, dass Google in seinen Ranking Wikipedia-Artikel als relativ hochwertige Quelle definiert und diese demnach auch im Ranking weit oben dabei sind.

Googles Spam-Bekämpfer Matt Cutts erklärt in einem Video (das sich alle mal ansehen sollten, die Google verstehen wollen – es gibt auch deutsche Untertitel), dass Google mehr als 200 Faktoren für das Ranking untersucht. Im TWIG-Podcast sagte Cutts zudem kürzlich, dass der Ranking- Algorithmus im vergangenen Jahr fast 200 Mal geändert wurde. Im Klartext heißt das: An fast jedem Werktag wird an den Ranking-Faktoren herumgeschraubt.

Die Bundesanstalt für Suchmaschinen-Ranking-Kontrolle (BfSRK) nimmt die Arbeit auf

Die Uni-Professorinnen und Professoren fordern: „Transparenz zielt auf die hinreichende Offenlegung der Funktionsweise von Suchmaschinen, um interne und externe Manipulationen und Verfälschungen der Trefferlisten erkennen zu können. Die Manipulationsgefahr muss auch stärker in das Bewusstsein der Nutzer rücken.“

Und wer soll das erkennen? Eine Regierungsbehörde wahrscheinlich. Eine, die den ganzen Tag Trefferlisten vergleicht. Viele davon. Da braucht man viele Mitarbeiter. Und Uni-Professoren, die im Forschungsbeirat sitzen. (Bitte entschuldigen Sie diesen unjournalistischen Seitenhieb ;)

Statt Regulierung: Filtertechniken schulen – in Schule und Uni

Meine Alternativvorschlag wäre dieser hier: Nicht nur Journalisten sondern alle Internetnutzerinnen und –Nutzer brauchen ein besser Verständnis darüber, wie das Internet funktioniert – und wie Suchmaschinen funktionieren, effektiv eingesetzt werden können und wo die Gefahren für die Privatsphäre liegen. Oder wie sich die in der Studie kritisierten „Personalisierungsprozesse“ mit ein paar einfachen Handgriffen (Browsereinstellungen und Firefox-Plugins) größtenteils verhindert werden können.

Die Forderung ist nicht neu, aber immer noch wichtig: Schulen und Universitäten sollten viel weniger Wert auf die Vermittlung von Faktenwissen legen. Was Menschen im Informationszeitalter brauchen sind: Filtertechniken. Also die Strategie und das Handwerkszeug, in großen Informationsmengen das Gewünschte zu finden.

Faktenwissen könnte in 20-30 Jahren überholt sein. Die Fähigkeit, filtern zu können, wird es nie sein.

 

[Nachtrag]: Natürlich – mein Job ist es u.a. Journalisten und andere in diesen Filtertechniken zu schulen. Ich schreibe das hier nicht, weil ich Aufträge brauche, sondern weil ich solch eine Regulierung für den falschen Ansatz halte. Einen, der Menschen für dumm verkauft.

Comments

  • Pingback: Sollte Google nach dem Vorbild des öffentlich-rechtlichen Rundfunks umgestaltet werden? | Edgeworth Blogs

  • Tobias

    Hallo Claus,

    ich bin sehr einverstanden mit dem Gedanken, die Such- und Medienkompetenz zu fördern. Es fehlt mir allerdings etwas an Vertrauen in die Lernfährigkeit. Die meisten Internet-User sind zum Spaß und Konsum online und geben sich damit zufrieden. Deshalb bezweifle ich, dass der Bildungsansatz genügt.

    Es sind übrigens nicht nur die Ranking-Faktoren, die schwer zu überprüfen sind, sondern auch die Unterdrückung von Inhalten, die gegen Googles Geschäftsmodell verstoßen. Das nennt sich dann Google-Penalty und ist Dir bestimmt ein Begriff. Die betroffenen Seiten sind komplett aus der Suche verschwunden oder werden um viele Positionen nach hinten verschoben. Das entspricht eine Zensur.

    Eine alternative Lösung für das Problem habe ich kürzlich in folgendem Blogbeitrag vorgestellt:

    http://www.beammachine.net/blog/regierung-nimmt-suchmaschinen-auf-die-agenda-793/

    Deine Meinung dazu würde mich auch sehr interessieren.

    Viele Grüße
    Tobias

Leave a Comment