Verarbeitung von Informationen in der Google-Suche

Bevor du eine Suchanfrage eingibst, erfassen Web-Crawler Informationen von Milliarden von Webseiten und sortieren diese im Suchindex.

Grundlagen der Google-Suche

Der Crawling-Prozess beginnt mit einer Liste von Websites aus vorherigen Crawlings und Sitemaps, die Websiteinhaber eingereicht haben. Wenn unsere Crawler diese Websites aufrufen, folgen sie den dort angegebenen Links zu weiteren Seiten. Die Software überprüft insbesondere neue Websites, Änderungen an bestehenden Websites und veraltete Links. In der Crawling-Software wird auch festgelegt, welche Websites wann und wie oft durchsucht und wie viele einzelne Unterseiten von jeder Website aufgerufen werden.

Mit den Webmaster-Tools der Google Search Console können Websiteinhaber genau festlegen, wie Google ihre Website crawlen soll: Sie können detaillierte Informationen zu den einzelnen Seiten ihrer Website angeben, Google um erneutes Crawlen der URLs bitten oder das Crawlen der Website verhindern. Google nimmt keine Zahlungen an, um Websites häufiger zu crawlen. Wir bieten allen dieselben Tools an, damit unsere Nutzer die besten Ergebnisse erhalten.

Informationen durch Crawlen finden

Das Internet ist wie eine ständig wachsende Bibliothek mit Milliarden von Büchern, aber ohne zentrales Katalogisierungssystem. Mithilfe einer Software, dem sogenannten Web-Crawler, suchen wir nach öffentlich verfügbaren Webseiten. Die Crawler besuchen die Webseiten und folgen den darauf veröffentlichten Links – ähnlich wie du beim Surfen im Internet. Sie springen von Link zu Link und senden die dahinter liegenden Informationen an die Google-Server.

Informationen durch Indexierung organisieren

Wenn Crawler eine Webseite finden, werden die Seiteninhalte wie in einem Browser aufgerufen. Sie analysieren die wichtigsten Elemente – von den Keywords bis zur Aktualität der Website – und vermerken sie im Suchindex.

Der Google-Suchindex umfasst Milliarden von Webseiten und ist über 100.000.000 Gigabyte groß. Er funktioniert wie das Stichwortverzeichnis am Ende eines Buchs: Jedes Wort, das Crawler auf einer indexierten Webseite gefunden haben, erhält einen Eintrag. Wenn wir eine Webseite indexieren, fügen wir sie allen Einträgen für Wörter hinzu, die auf dieser Seite vorkommen.

 

 

Mit dem Knowledge Graph setzen wir unser Bestreben fort, nicht nur Keywords abzugleichen, sondern die Personen, Orte und Dinge besser zu verstehen, die dir wichtig sind. Dazu indexieren wir nicht nur Informationen über Webseiten, sondern auch andere Arten von Informationen. So kann dir die Google-Suche dabei helfen, Texte in Millionen von Büchern aus großen Bibliotheken zu durchsuchen, Fahrpläne des öffentlichen Nahverkehrs zu finden, oder Daten aus frei zugänglichen Quellen wie der Weltbank aufzurufen.