Donnerstag, 10. April 2014

5. Tag (Do, 10.4.) - Robots / Sitemap / Webmaster Tools

  • .htaccess (serverkritische Datei)
  • Robots Exclusion Standard (robots.txt - keine Textdatei)
  • Sitemaps Protokoll (user agent disallow - alles gesperrt / ohne Befehl wird alles gelesen, kann aber auch für spezielle Bereiche eingegrenzt werden)
  • Meta Element (Kopfdaten mit HTML-Codes auslesen)
  • Ebook Webmaster Tools (Index - Status / Keywords kontrollieren / URL-Fehler beheben) 
  • grey / black head Tricks (illegal - sind negativ für Suche)
  • URL heißt eigentlich "der ... Locator"
  • Website muss stetig wachsen, plötzliches Wachsen ist unnatürlich und wird von google bestraft
  • Empfehlungs Mktg
  • es gibt versch. Crawler für Text, Bilder usw.
  • Crawler braucht Spitzen durch permanente News
  • Ladevorgang darf keine Spitzen haben, wäre negativ 
  • durch Data Highlighter Suchfeld optimieren (Stellen sind nicht beeinflussbar)
  • Yoast zeigt, ob Textinhalte optimiert formuliert sind
  • PlugIn Snippet bestimmt beschreibende Texte im Suchfeld auf SERP
  • schema.org (xml-Programm)
  • RSS Feed (Reader einrichten für gesammelte interessante News in Übersicht / bei blogspot unter "abonnieren")


Keine Kommentare:

Kommentar veröffentlichen