- .htaccess (serverkritische Datei)
- Robots Exclusion Standard (robots.txt - keine Textdatei)
- Sitemaps Protokoll (user agent disallow - alles gesperrt / ohne Befehl wird alles gelesen, kann aber auch für spezielle Bereiche eingegrenzt werden)
- Meta Element (Kopfdaten mit HTML-Codes auslesen)
- Ebook Webmaster Tools (Index - Status / Keywords kontrollieren / URL-Fehler beheben)
- grey / black head Tricks (illegal - sind negativ für Suche)
- URL heißt eigentlich "der ... Locator"
- Website muss stetig wachsen, plötzliches Wachsen ist unnatürlich und wird von google bestraft
- Empfehlungs Mktg
- es gibt versch. Crawler für Text, Bilder usw.
- Crawler braucht Spitzen durch permanente News
- Ladevorgang darf keine Spitzen haben, wäre negativ
- durch Data Highlighter Suchfeld optimieren (Stellen sind nicht beeinflussbar)
- Yoast zeigt, ob Textinhalte optimiert formuliert sind
- PlugIn Snippet bestimmt beschreibende Texte im Suchfeld auf SERP
- schema.org (xml-Programm)
- RSS Feed (Reader einrichten für gesammelte interessante News in Übersicht / bei blogspot unter "abonnieren")
Donnerstag, 10. April 2014
5. Tag (Do, 10.4.) - Robots / Sitemap / Webmaster Tools
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen