Donnerstag, 20. Februar 2014

Tag 12:

Empfehlung: pro Projekt eine eigene Datenbank.

Keyword-Density sollte bei 3-4 % liegen.

Spider: Bei SeoQuake ganz unten, wo der original Text angezeigt wird.

www.webconfs.com

Zum Optimieren: direkt hinter Body-Öffnungstag einen Kommentar öffnen mit div-Container. der div-Container ist ein Kasten auf der Website, also so etwas wie ein Platzhalter. Davon kann man einen oben stehen haben, kann man einen unten stehen haben etc.

<!-- <div>Keyword, Keyword, Keyword, Keyword, Keyword, Keyword</div> //-->

Keyword Stuffing _ nur das gleiche Keyword stets hintereinander im div-Container oder anderen Kommentaren schreiben.

Suchmaschinen sind nicht in der Latge CSS auszulesen, Weiß auf Weiß funktioniert hier noch. In HTML sollte man dies aber vermeiden, denn HTML kann die Suchmaschine lesen und wird dei Täuschung erkennen.


Sitemap xml - die zeigt an, welche Seiten im Suchmaschinen-Index sind und welche nicht. Hat nichts mit Sitemap HTML auf der eigenen Website zu tun. Sozusagen eine Landkarte für den Suchmachinen-Roboter. Wenn Inhalte täglich oder stündlich geändert werden, sollte der Robot diesen auch dementsprechend auslesen können. Kann man hier einrichten:

http://www.xml-sitemaps.com/

Man kann auch Prioritäten einrichten, also Unterseiten, die öfter verändert werden. Denn der Robot kommt nur eine gewisse Zeit vorbei.
Diese xml-Datei liegt im Root-Verzeichnis des Servers - da gehören die Robots, die Siemap-xml, und die HTaccess
Sitemap-xml erstellen und herunterladen - der Inhalt ist für den Roboter gedacht, nicht beachten.- diese Datei muß auf den Server

Zugriff zum Root-Verzeichnis --- Filezilla: FTP-Programm (File Transfer protokoll - ein Datei-Explotrer)  aufrufen => Servermanager - eigenen Server auswählen => mit dem verbinden lassen => mit FTP Benutzernamen und Kennwort einloggen => (Verbindungsart normal)
die Serveradresse ist für gewöhnlich die eigene Domain

Die Sitemap.xml reinkopieren inkl. der gezippten Datei. sitemap.xml.gz = komprimierte xml Datei - von mobilen Geräten schneller auszulesen, sofern wir das in der htxs angezeigt haben

Webmaster-Tools bei Google sagen, daß wir eine haben - unter Sitemap - Sitemap hinzufügen.
Trick Blogspot: Adresse des RSS-Feeds benutzen = RSS Feed holen = aufm Blog ganz nach unten Scrollen und Atom klicken =< oben aus der Leiste hinter der Webadresse und dem "/" den Teil kopieren - bei uns im Blog: /feeds/posts/default => in die Sitemap Einreichungstools eingeben und aktualisieren.

Pro Website ein eigener Ordner - Ordner anklicken - alle elemente werden angezeigt (z.B. index.php - robots.txt - sitemap-xml und HTaccess

Bei Joomla sitemap.xml als Extension...

Bei den meisten CMS-Systemen gibt es Programme, die die xml Datei selbst erstellen.

HTaccess
mit der HTaccess Datei kann man einzelne Daten schützen.
Ein Beispiel, um URL Klärung zu optimieren: Request-Umleitung
Besitzt der Webserver ein Modul zum internen Umschreiben einer URL, so lassen sich in der .htaccess-Datei Umleitungen definieren. Das folgende Beispiel forciert eine Weiterleitung auf http://www.example.com, sofern diese Adresse nicht auch Teil der Anfrage war.
RewriteCond %{HTTP_HOST} !^www.example.com$ [NC]
RewriteRule ^(.*)$ http://example.com/$1 [L,R=301]

hier also ohne www davor!


Yoast.com für Wordpress

http response - Fehlermeldungen - unter Wikipedie nachschauen / http Statuscode

http://suchmaschinenoptimierung.michaelsattler.de/weiterleitung.html - 301Fehler-Code optimieren

Fehlercode -301 Moved Permamently - hier kann man den doppelten Content vermeiden und die www.Klärung vornehmen

Code für die Umleitung:

RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.bauart-wohnkultur.de
RewriteRule (.*) http://bauart-wohnkultur.de/$1 [R=301,L]

Man kann den Teil
                                     RewriteCond %{HTTP_HOST} ^www.bauart-wohnkultur.de
                                     RewriteRule (.*) http://bauart-wohnkultur.de/$1 [R=301,L]

kopieren und mehrmals untereinander schreiben, wenn man noch mehr registrierte Web-Adressen /-Seiten hat, die auf die eine weitergelinkt werden sollen.


Die HTaccess Datei wird so abgespeichert

                                      .thaccess

ohne irgendeinen Namen. Diese Datei dann in den Root des FTP-Servers kopieren - immer nur eine HTaccess Datei - für alle unterschiedlichen Funktionen von HTaccess.

Weitere Funktionen: z.B. kurz halten des Permalinks, www.Klärung, gewisse Inhalte schützen und manche Fehler beseitigen.

Beschleunigung für htaccess bei Mobilgerären:
Wenn Du meine CSS Daten und den Server ausliest, so suche nach den komprimierten Daten - also die Gzip Daten. Diese führen zu einer schnelleren Ladezeit für Mobilgeräte. Bessere Ladezeiten - besseres SEO!

# BEGIN Gzip Compression
AddEncoding gzip .gz
<filesmatch "\.js\.gz$">
AddType "text/javascript" .gz
</filesmatch>
<filesmatch "\.css\.gz$">
AddType "text/css" .gz
</filesmatch>
<ifmodule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP:Accept-encoding} gzip
RewriteCond %{REQUEST_FILENAME} \.(js|css)$
RewriteCond %{REQUEST_FILENAME}.gz -f
RewriteRule ^(.*)$ $1.gz [QSA,L]
</ifmodule>
# END Gzip Compression


robot.txt = vergleichbar mit eienm Pförtner im Unternehmen.

Keine Erlaubnis für interne Firmenseiten mit internem Log in /alle, die ihre Website aufbauen.
Mit den folgenden Befehlen wird allen Webcrawlern die Indexierung der kompletten Webpräsenz verboten.
User-agent: *
Disallow: /
z.B.
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/uploads/2014/01/natalya.de

Beim Aufbau einer Seite unbedingt disallow-Befehl schreiben - sonst wird der Robot Fehler melden. Die Website muß dann bereinigt werden, das dauert!

Erlaubnis: 
user-Agent: *
Allow:  /

Mit Google Webmaster Tools kann man auch Seiten entfernen!

Bei Webmaster Tools mit und ohne www. hinzufügen.
bei HTaccess schon entschieden, damit alles fehlerfrei ausgelesen werden kann. In den Webmaster Tools muß dieses dann angegeben werden. Und zwar unter dem Zahnrad rechts oben => Website Einstellungen => da nochmal angleichen an die htaccess-Datei.

Klausur:
HTaccess
robots.txt
sitemap.xml
www.Klärung
Keyword-Density (max. 2-6%)
Was sollten Sie bein on-Page Optimierung möglichst nicht tun? - z.B. Weiße Typo auf weißem Hintergrund
Was sollten Sie on page tun: Backlinks von Facebook auf die eigene Seite streuen? - Falsch, denn das ist off page.

bei SEO no index/nofollow ist quatsch - da man doch in der Suchmaschine gefunden werden möchte.

Im Head als Meta-Angabe nur für die einzelne Unterseite / auf dem FTP Server kann man einzelne Dateien oder übergreifende robots-Befehle hinterlassen.


BrowserCache löschen, wenn

Affiliate-Text-Links kann man nicht blocken!

modrewrite beim hoster erfragen, wenn nicht vorhanden.

Was ist ein Perma-Link?
Hash-Code?

Keine Kommentare :

Kommentar veröffentlichen