6 Juni 2020

Suchmaschinenoptimierung und Site-Indizierung

Die notwendigen Informationen im Internet sind mit Suchmaschinen am einfachsten zu finden. Die gewünschte Abfrage wird in die Suchleiste eingegeben, der Benutzer erhält das Ergebnis – eine Liste der Seiten, die der Suchabfrage am ehesten entsprechen. Um in die Suchergebnisse zu gelangen, müssen die Seiten der Site zuerst von einem Suchroboter indiziert werden. Das Suchsystem verarbeitet und gibt in die Datenbank Informationen ein, die auf der Website zu finden sind. Artikel, Links und Abbildungen werden indiziert.
Die wichtigsten Möglichkeiten zum Indizieren einer Site
Erzwungene Indizierung – Site-Daten werden einem speziellen Suchmaschinenformular hinzugefügt.
Natürliche Indizierung – Ein Suchroboter sucht unabhängig nach einer Site und wechselt von Ressourcen, die mit der Site verknüpft sind. Daher sollte die externe Linkmasse der Site nicht Null sein.
Der Zeitraum für die Indizierung einer Website kann von mehreren Tagen bis zu mehreren Wochen unterschiedlich sein. Der Indizierungsprozess ist zyklisch und wird je nach Suchroboter in Intervallen von zwei bis vier Wochen wiederholt. Die gesamte Site sowie einzelne interne Seiten können indiziert werden. Aufgrund technischer Probleme und fehlenden Zugriffs auf die Seiten wird die Site manchmal nicht indiziert. In diesem Fall führt die Suchmaschine einen der folgenden Schritte aus:

schließt nicht indizierte Seiten sofort aus seiner Datenbank aus;
wird die Site in einigen Tagen neu indizieren;
schließt Seiten aus, die nicht indiziert wurden, wenn sie bei wiederholter Indizierung nicht gefunden wurden.
Indexverwaltung und Site-Optimierung
Zur Verwaltung der Site-Indizierung verwenden wir eine Site-Map sowie eine spezielle robots.txt-Datei und spezielle Tags.

Das teilweise Schließen des Seiteninhalts von Yandex-Suchrobotern wird durch das -Tag durchgeführt. Es gibt auch ein spezielles Roboter-Meta-Tag, das das Indizieren und Verfolgen von Links auf jeder einzelnen Seite einer Site zulässt oder verbietet.

Robots.txt – Eine Datei, in der Sie mithilfe der Anweisungen Disallow, Allow, User-Agent und Crawl-Delay die Indizierung nur für bestimmte Suchmaschinen verbieten oder zulassen oder die Indizierung der gesamten Site oder ihrer einzelnen Abschnitte vollständig verbieten können.

Eine Sitemap ist immer eine aktuelle Liste der zu indizierenden Websiteseiten. Eine spezielle Sitemap-Datei kann im XML-Format oder im Nur-Text-Format erstellt werden. Eine robots.txt-Datei kann verwendet werden, um den Speicherort der Sitemap anzugeben. Fügen Sie dazu die folgende Zeile hinzu: Sitemap: http: // site_name / sitemap.xml

Mithilfe einer Sitemap können Sie der Suchmaschine Folgendes mitteilen:

über die Seiten der Site, die indiziert werden sollen;
Wie oft werden die Informationen auf den Seiten der Website aktualisiert?
wie wichtig die Indizierung jeder Seite ist.
Beschleunigen Sie die Indizierung von Websites
Es gibt viele Möglichkeiten, die Site-Indizierung durch Suchroboter zu beschleunigen. Zunächst betrachten wir jedoch die Normen, deren Einhaltung zur Lösung der Probleme bei der Indizierung der Site beiträgt.

Erstellen Sie keine zu großen Seiten (die Größe sollte 100-200 KB nicht überschreiten).
Links zu internen Seiten erläutern den Inhalt der Seite anhand einfacher Überschriften.
Es werden von Menschen lesbare URLs (NC) verwendet, die die Indizierung der Site erleichtern. URLs schließen Parameter und Sitzungskennungen aus.

photo
photo