136 Shares 4725 views

Wie man eine Website oder deren Fragmente aus dem Google-Index entfernen

Nach dem Konzept Indizierung durch Google übernommen, entfielen auf Vollständigkeit, Objektivität der Informationen und ihre Übereinstimmung mit der Suchanfrage in der Ausgabe der Ergebnisse. Wenn die Index-Website mit illegalen Inhalten fällt, oder eine Ressource für Spam, werden die Seiten von dieser Seite nicht in der gemeinsamen Datenbank-Suchmaschine markiert werden. Für uns ist es wichtig zu lernen , wie man eine Website zu entfernen , aus der Ausgabe der Ergebnisse des Suchservers.

Varianten von Null Indizierung Google

Sobald die Suchroboter – ein Programm, um Informationen über neue Ressourcen zu sammeln – die Website Seite für Seite scannen, dann, wenn sie unter dem Google-Richtlinien Anforderungen für die Analyse, wird es indiziert werden. Aber wir zeigen Ihnen auch, wie Sie Ihre Website oder Fragmente für die Suchmaschinen durch eine robots.txt entfernen – Index und zugleich Stopp suchen.

Um auszuschließen, aus der Ausgabe der Ressource als Ganzes, in dem Stammordner des Servers, auf dem sich der Standort befindet, einen bestimmten Textbereich schafft – die robots.txt. Diese Zone wird mit dem Suchmaschinen behandelt und handelt gemäß den Anweisungen genau lesen.

Beachten Sie, dass die Google-Suchmaschine indiziert die Seite, auch wenn ein Benutzer Zugriff verboten hat noch. Wenn der Browser mit 401 oder 403 reagiert „Zugriff ungültig ist“, gilt sie nur für Besucher, sondern als Programme , die für diese sammeln Suchmaschine.

Um zu verstehen , wie entfernen Sie die Website von Suchmaschinen – Indizierung, ein Textzeiger muß die folgenden Zeilen ein:

User-agent: Googlebot

Disallow: /

Dies zeigt den Crawler indiziert das Verbot aller Inhalte auf der Website. Hier ist , wie man eine Website entfernen Google, so dass dieser nicht die Ressource in der Liste Cache erfasst.

Ausführungsformen der Abtastung für unterschiedliche Protokolle

Wenn Sie einzelne Kommunikationsstandards Liste müssen, für die Sie für die Indizierung der Google spezielle Regeln anwenden möchten, beispielsweise separat für Hypertext – Protokolle http / https, ist es auch notwendig , in der robots.txt auf folgende Weise (Beispiel) zu registrieren.

(Http://yourserver.com/robots.txt) – ein Domain-Namen Ihrer Website (any)

User-agent: * – jede Suchmaschine

Allow: / – erlauben die volle Indexierung

Wie man eine Website aus der Ausgabe vollständig auf das https-Protokoll entfernen

(Https://yourserver.com/robots.txt):

User-agent: *

Disallow: / vollständiges Verbot der Indizierung

Beschleunigter Entfernung URL- RessourceAdressen von Google SERPs

Wenn Sie nicht für eine Wieder Indexierung warten möchten, und die Seite möchten Sie gerne verstecken, empfehle ich den Dienst http://services.google.com/urlconsole/controller verwenden bald wie möglich. Pre robots.txt hat im Stammverzeichnis der Site Server platziert werden. Es sollte entsprechende Anweisungen vorgeschrieben werden.

Wenn der Zeiger aus irgendeinem Grund nicht in das Stammverzeichnis bearbeitet werden können, erstellen Sie es genug in den Ordner mit den Zielen, für die Sie von den Suchmaschinen ausblenden möchten. Sobald Sie dies tun und beziehen sich automatisch auf den Dienst Hypertext-Adressen zu entfernen, wird Google keine Ordner scannen, die einen Fehler in der robots.txt buchstabiert.

Die Periode dieser Unsichtbarkeit wird 3 Monate festgelegt. Nach Ablauf dieser Zeit wird wieder das Verzeichnis aus der Ausgabe zurückgezogen, von Google-Server verarbeitet werden.

H ow eine Site zu entfernen , teilweise zu scannen

Wenn eine Suche Bot den Inhalt der robots.txt lesen, dass bestimmte Entscheidungen werden auf der Grundlage ihres Inhalts gemacht. Angenommen, Sie aus, welche die gesamte Verzeichnis anatom genannt ausschließen möchten. Es ist genug, um solche Vorschriften zu verschreiben:

User-agent: Googlebot

Disallow: / anatom

Oder zum Beispiel, wollen Sie nicht indizieren alle Bildtypen .gif. Um dies zu tun, fügen Sie die folgende Liste:

User-agent: Googlebot

Disallow: /*.gif$

Hier ist ein weiteres Beispiel. Lassen Sie sie von Parsen Informationen auf dynamisch generierten Seiten gelöscht werden, während auf den Indexeintrag Typ hinzufügen:

User-agent: Googlebot

Disallow: / *?

Das ist ungefähr, und buchstabiert die Regeln für die Suchmaschinen aus. Eine andere Sache ist, dass es viel bequemer ist, nur dieses META-Tag. Und Webmaster verwenden oft nur einen solchen Standard den Betrieb von Suchmaschinen zu regulieren. Aber wir werden diese in zukünftigen Artikeln diskutieren.