Inhaltsverzeichnis
Einige von Euch werden diese Situation sicherlich kennen:
Ihr habt Eure Webseite, euren Blog oder Euren Internetshop liebevoll eingerichtet. Stunden und Tage wurden gern dafür geopfert und die Webseite für Besucher zugänglich gemacht... Und dann das: Niemand kommt vorbei.
Wie auch? Niemand surft im Internet, indem man auf „gut Glück“ eine URL in den Adresszeile des Browsers eingibt. Die Leute benutzen Suchmaschinen wie google oder bing. Nicht umsonst hat sich das Wort „googlen“ als Synonym für „etwas im Internet suchen“ durchgesetzt.
Daher ist es natürlich wichtig, dass man auch von Suchmaschinen gefunden wird. Denn was Google nicht kennt, dass kann Google nicht zeigen. Und da Google in Deutschland der absolute Marktführer ist, werde ich auch im Folgenden den Fokus auf den Suchmaschinen-Primus legen.
Kümmern wir uns aber erstmal um eine Frage: Wie kommt meine Internetseite in den Google-Index.
Kennt Google Dich?
Am besten prüft man zu Beginn, ob Google die eigene Webseite wirklich kennt. Hierfür begebt Ihr Euch auf www.google.de und gebt dort „site:http://deine-domain.tld“ ein. Nun bekommst Du eine Übersicht über alle Seiten und Unterseiten deiner Domain, die Google bekannt sind.
Wenn Du hier Einträge findest, kennt Dich Google. Wenn allerdings trotzdem keine Besucher auf Deine Seite kommen, solltest Du Dich eventuell mit den Grundlagen der Suchmaschinenoptimierung auseinander setzen. Aber gehen wir jetzt erstmal von dem Fall aus, dass hier keine Einträge stehen und Dein Internetauftritt leider Google nicht bekannt ist.
Schauen wir also erstmal, an was es liegen kann. Eventuell hast Du Google von der Indexierung Deiner Seite abgehalten. Dafür gibt es mehrer Möglichkeiten:
Der Meta-Tag „robots“ blockt Google
Am Besten checkst Du dafür den Quelltext deiner Seite.
Hier muss - wie im Screenshot - im Attribut „index, follow“ stehen. Sollte stattdessen ein „noindex, nofollow“ zu finden sein, solltest Du das umgehend in den Einstellungen Deiner Seite ändern. Diese Meta-Tag steuert nämlich den Zugang von Suchmaschinen-Bots. Wenn das behoben wurde, gilt es abzuwarten und eventuell die Site-Abfrage in etwa zwei Wochen noch einmal zu wiederholen.
Die robots.txt
Vielleicht hast du eine robots.txt auf deinen FTP-Server hochgeladen. Dort legt man die Regeln der Indexierung für die Bots/Crawler fest. Wie man die robots.txt vernünftig nutzt, kann man bei den SEO-Trainees wunderbar nachlesen.
Aufrufen könnt Ihr Eure robots.txt ganz einfach im Browser. Gebt http://deine-domain.tld/robots.txt ein und Ihr bekommt gegebenenfalls so ein Bild:
Sollte sich in Eurer robots.txt nur Folgendes wiederfinden:
user-agent: *
disallow: /
blockt Ihr alle Crawler für Eure gesamte Seite – und natürlich auch den Crawler von Google. Ändert daher den Eintrag in
user-agent: *
disallow:
oder auch in
user-agent: *
disallow: /Pfad-der-nicht-in-den-google-index-soll/ (z.B. /admin/).
Sollte allerdings auch die robots.txt nicht der Grund dafür sein, dass Google deine Internetseite nicht kennt, müssen wir weitergraben.
Das Google Webmaster-Tool
Einer der einfachsten Wege ist es, sich beim Google Webmaster-Tools anzumelden. Dazu wird lediglich ein Google-Konto benötigt. https://www.google.com/webmasters/tools/home?hl=de
Für die Anmeldung gibt es mehrere Wege, auf die ich ebenfalls in einem anderen Artikel tiefer eingehe. Nach einer erfolgreichen Anmeldung wird Google auf alle Fälle seinen Bot losschicken und die Seite sollte recht schnell im Google-Index zu finden sein. Prüft das ebenfalls mit der Site-Abfrage nach einigen Tagen und ich wette, dann findet Ihr die ersten Seiten bei Google wieder. Ob Ihr dann allerdings auch für die richtigen Suchbegriffe bei Google gefunden werdet, das steht auf einem anderen Blatt ;)
Haben Euch die Tipps etwas gebracht oder habt Ihr Ergänzungen? Dann freue ich mich auf Eure Kommentare.
Du suchst nach einer kostenlosen Homepage? Mit unserem Homepage-Baukasten bist Du in der Lage schnell ansprechende Websites zu erstellen.