Gesellschaft | 24.09.2012

Wie uns Suchmaschinen beinflussen

Text von Basil Schöni | Bilder von Michael Scheurer
Seit Beginn des einundzwanzigsten Jahrhunderts, seit Massentauglichkeit und breiter Verfügbarkeit des Internets, seit Flatrates ein kostenresistentes Surfen im World Wide Web erlauben, gewann das Internet als Medium stark an Bedeutung. Telefonbuch, Lexikon, Wörterbuch, Kochbuch - vieles was bis vor kurzem nur gedruckt verfügbar und rege gebraucht war, rutscht nun immer mehr ab in die Bedeutungslosigkeit.
Ohne Suchmaschinen kein Internet.
Bild: Michael Scheurer

Pro Monat werden weltweit über 27 Milliarden Gigabyte an Daten über das Internet ausgetauscht. Anfang 2011 betrug die geschätzt existierende digitale Datenmenge gemäss Forschungen der International Data Corporation IDC rund 1.8 Billionen Gigabyte. Eine solch immense Flut an teilweise auch online zugänglichen Informationen ist aber komplett unbrauchbar ohne ein geeingnetes Mittel, um sich darin zurecht zufinden, ohne Webkataloge und Suchmaschinen. Doch wie funktioniert eine Suchmaschine? Wie zuverlässig und objektiv gibt mir Google zurück, womit ich es füttere?

 

Wie Google weiss, was wir wollen

Eine konventionelle Suchmaschine ist im Grunde nichts anderes als eine umfassende Datenbank. Darin sind URL, Inhalt und Metadaten möglichst aller Webseiten gespeichert, die zu einem Zeitpunkt online sind. Diese Informationen werden automatisiert mittels sogenannter Crawler gesammelt. Dies sind Programme, die ausgehend von einer Seite sämtlichen Links folgen und alle so registrierten Seiten analysieren und in die Datenbank eintragen. Wird nun eine Suchanfrage an einen Server der Suchmaschine gesendet, werden die Suchbegriffe mit dem Inhalt der Datenbank verglichen. Je nach Suchmaschine und Einstellungen werden die Treffer nach unterschiedlichen Kriterien und Algorithmen sortiert und zurückgegeben. Nicht spezialisierte Suchmaschinen wie Google, Bing oder Yahoo sortieren grundsätzlich nach Relevanz der Treffer. Die genauen Sortierverfahren werden meist jedoch nicht bekanntgegeben.

 

Grundlage einer jeden Relevanzbeurteilung sind statistische Werte. Wie oft kommen die Suchbegriffe im Inhalt einer Seite vor und wie hoch sind sie zu gewichten? Desweiteren spielt bei modernen Algorithmen die Linkstruktur zwischen verschiedenen Seiten eine zentrale Rolle. Je häufiger auf eine Seite verwiesen wird und je relevanter die verlinkende Seite ist, desto besser wird die Seite beurteilt. Verweise werden also als Qualitätsmerkmal betrachtet. Als drittes wichtiges Sortierkriterium ist die immer stärkere Personalisierung von Webtechnologien zu nennen. Immer mehr wird die Suche dem oder der Suchenden angepasst. Google schreibt über seine Dienste für Privatnutzer: “Die Suche soll möglichst intelligent und schnell funktionieren und unterscheiden können, ob Sie bei der Eingabe von [Jaguar] nach dem Auto oder nach dem Tier suchen. Wir möchten, dass Sie erkennen können, welche Anzeigen oder Suchergebnisse Ihre Freunde gut finden, wenn diese auch für Sie von Nutzen sein können. Unsere Produkte sollen intuitiv funktionieren […].”

 

Wie relativ Relevanz ist

Dass Webseiten mit günstigen statistischen Werten als relevant bewertet werden macht für eine Websuche durchaus Sinn. Bereits die Gewichtung anhand der Linkstrukturen ist allerdings umstritten, da schnell eine Tendenz zu den grossen, den etablierten Seiten entsteht. Zudem erhält der Link neben seiner Funktion als Verweis noch jene der Relevanzsteigerung einer Seite. Mit diesem Wissen wird ein Verweis als Qualitätsmerkmal noch unzuverlässiger.

 

Diese Unzuverlässigkeit kann auch ausgenutzt werden, indem gezielt Links zu einer bestimmten Seite gestreut werden. Wenn auch diese Methode für allgemein Begriffe eine ziemlich breite Streuung benötigt, zeigt sie bei spezifischen Wortkombinationen doch schnell Wirkung. Gutes Beispiel hierfür sind die sogenannten Google-Bomben. Dabei wird der Umstand ausgenutzt, dass Suchmaschinen-Algorithmen die Suchbegriffe nicht nur mit dem Inhalt einer Seite vergleichen, sondern auch mit den Bezeichnern von auf diese Seite verweisenden Links. So können gezielt Links mit festgelegtem Bezeichner verbreitet werden. Bei der Suche nach diesem Bezeichner wird die verlinkte Seite als besonders relevant eingestuft, wodurch sie an hoher oder gar erster Stelle in den Ergebnissen erscheint.

 

Obwohl grosse Suchmaschinen wie Google viele solcher Bomben bereits entfernt und seine Algorithmen an diese Möglichkeit der Manipulation angepasst haben, existiert nach wie vor das gute Beispiel des “creator of the universe”. Ohne auf den nachfolgenden Ergebnisseiten je wieder erwähnt zu werden, steht bei der Suche nach diesem Term an erster Stelle die Webpräsenz der Church of the Flying Spaghetti Monster, einer der grössten Religionssatiren überhaupt. Dies freilich ohne die Zeile “creator of the universe” jemals zu erwähnen.

 

Zensur oder Verzerrung der Realität?

Während sich die Personalisierung von Suchergenissen zur Zeit noch in Grenzen hält, ist in naher Zukunft mit einer starken Ausweitung dieser Tendenz zu rechnen. Dies belegt insbesondere die Studie der University of London von Martin Feuz et. al. Durch die immer breiteren Angebote der grossen Betreiber entstehen konstant neue Möglichkeiten zum Sammeln personenbezogener Daten. Durch die daraus folgende Anpassung sämtlicher Dienste an die vermeintlichen Bedürfnisse der User – dadurch dass vieles “intuitiv” funktionieren soll – entsteht eine Verzerrung der Resultate. Dies mag in vielen Fällen praktisch sein, da man schliesslich massgeschneiderte Ergebnisse erhält. Im Grossen und Ganzen verliert die Suchmaschine durch Personalisierung und Berücksichtigung von Linkstrukturen aber die Objektivität die eine Internetsuche haben kann und je nach Bedürfnis auch haben sollte.

 

An dieser Stelle ist man verlockt, den grossen Suchmaschinen eine Form der Zensur vorzuwerfen, nämlich indem das unserem Blickfeld entzogen wird, was nicht zu unserem Profil passt. Mit einer detaillierten und ausformulierten Suche und genügend Zeitinvestition sollten aber auch vom Algorithmus benachteiligte Seiten gefunden werden, weshalb hier eher von einer Verzerrung als einer Zensur der Suchergebnisse zu reden ist.

 

Wege jenseits des Tellerrands

Welches Fazit also zieht man aus diesem Wissen um Suchmaschinen? Grosse Suchmaschinenanbieter sind böse und stehlen uns den unverklärten Blick aufs Internet? Eigentlich ist es gar nicht so schlimm, man muss nur gut genug fragen? Ob man sich darauf verlassen will, dass Google weiss was man will, oder ob man lieber Aufwand und dafür Garantie zu objektiven Ergebnissen hat – schlussendlich ist es wohl weise, im Hinterkopf zu behalten, dass das Netz eben doch grösser ist, als es uns eine Suchmaschine zu zeigen vermag.

 

Man kann seinen Horizont aber sinnvoll erweitern, indem eine gewisse Spannweite von Quellen gewahrt wird. Dies ist durch sogenannte Metasuchmaschinen, auf ein explizites Thema gemünzte Spezialsuchmaschinen, oder durch die mittlerweile etwas unpopulären Webkataloge möglich.

Links