Donnerstag, 20. Februar 2014

OM Tag 12 - Google Webmaster Tools 1

Exkurs: wenn man Website und Shop hat: beides in eigene Datenbanken !

Keyword-Densitiy
Eigene Seite checken mit SEOquake: sehr hohe Density von 13.92
->Ziel ist aber eine gesunde Keyword-Dichte von 3%-4%
-> also mehr Text (Inhalte) hinzufügen! > Lorem ipsum Text 300 Zeichen > Density von 3.62

Aber z.B. im Onlineshop ist viel Text nicht erwünscht -> dann Text einfach unten auf der Seite platzieren, wo die Leute eh seltener hinscrollen, wie z.B. Produktinformationen.

Spider Generator: webconfs.com


Tipps aus dem Greyhat-Bereich:
  • Wenn oben nur steht: Kontakt, Leistung (Menü) -> nicht gut! TIPP. damit die Menüleiste nach unten kommt: ein bisschen Greyhat machen ->direkt hinter dem body einen Kommentar einfügen <!-- <div> Keyword, Keyword, Keyword, Keyword, Keyword</div> //-->
  • div-Container: Kasten/Struktureinheit für die Website, können platziert werden
  • _Keyword-Stuffing: sehr oft das gleiche 
  • Das ist eigentlich ein Fehler der Suchmaschine, ermöglicht einem aber, seine Seite durch die Keywords weiter nach vorne zu schieben
  • h1-Überschrift "unsichtbar" (weiße Schrift auf weißem Grund) ganz links oben platzieren, nur sichtbar, wenn man mit der Mouse darüber geht -> hier nicht in HTML eingegeben, sondern in CSS, wird von Suchmaschine nämlich nicht ausgelesen!
Wichtige Dateien: sitemap.xml, robots.txt, htaccess

1. Sitemap.xml selber erstellen: dann normale und compressed Datei (gz) auf den Server übertragen
Trick bei blogspot: unter Webmaster Tool > Crawling > Sitemaps > Adresse des RSS-Feeds vom Blog verwenden feeds/posts/default
Wenn ich eine eigene Seite habe, dann über ftp Server einreichen

FileZilla, leach ftp

bei Wordpress: Permalinks suchmaschinentauglich machen -> Beitragsname

2. htaccess
einzelne Dateien oder Verzeichnisse mit Passwort schützen
Request-Umleitung: entscheiden, ob Zielseite mit oder ohne www angezeigt werden soll. Sonst wie bei woorank: dublicate content vorhanden, auch Absätze tauschen wird immer noch als Kopie erkannt
.htaccess 301
           RewriteEngine On
           Options +SymLinksIfOwnerMatch
           RewriteCond %{HTTP_HOST} ^www.wenda-it-web.de
           RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]
      
          RewriteCond %{HTTP_HOST} ^www.ralf-wenda.de
          RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]

          RewriteCond %{HTTP_HOST} ^wenda-it-web.de
          RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]



- modrewrite aktivieren!
- http://de.wikipedia.org/wiki/HTTP-Statuscode


suchmaschinenoptimierung.michaelsattler.de

3. robots.txt
= "Pförtner", wird als erstes gelesen
warum gesamte Website nicht im Index haben: alle, die gerade ihre Website aufbauen, Seiten noch zerstückelt; illegale Seiten; reine Firmen-Login-Seiten


im Webmaster Tool kann man beide Website-Varianten hinzufügen, einmal mit www einmal ohne www -> in die Seite reingehen, die man pflegen will, oben rechts Rädchen -> Website-Einstellungen -> entscheiden, was unsere bevorzugte Anzeige sein soll

KLAUSUR:
Keyword-Dichte
Was sollten Sie bei onpage optimierung möglichst tun? - nicht mit greyhat (weiße schrift auf weißem hintergrund) arbeiten, nur mal zu Testzwecken

was sollten Sie zur onpage optimeirung Tung? streuen sie Backlinks über facebook auf ihre seite -> ist falsch!

1x h1

sitemap, robots, htaccess
 







Keine Kommentare:

Kommentar veröffentlichen