Freitag, 21. Februar 2014

Tag 13:

Empfehlung: t3n - abbonieren

weiter mit Google Webmaster Tools

Rich Snippets: durch Video etc. erweiteretes Snippet

Strukturierte Daten:  Snippets in der Ansicht der SERP, die man beeinflussen kann. => uneter Strukturierte Daten => Data Highliter => kein Einfluß auf die Suchwörter, die sucht sich Google selbst => hier: Markieren starten =>
Mann kan die Startseite und auch die Unterseiten von Google Mastertools taggen lassen - die ja zu anderen Suchergebnissen optimiert sind.
Wenn Google angibt, daß die Seite im Index nicht gefunden wird - muß man evtl. mit HTML die Snippets ändern oder sich auf die Suche bei Google begeben.
Wenn mann ein lokales Unternehmen angeben möchte, muss man die Telefonnummer, Adresse etc. angeben, sonst kann sie nicht getaggt werden

Wann die neuen Snippets im Netz aufzufinden sind, kann man nicht sagen.


HTML-Verbesserungen 

hier kann man sich die Fehler anzeigen lassen:

w3c-Validator = Service ob die Website in HTML den Anforderungen gerecht - also sauber -  programmiert ist.
http://validator.w3.org/

Sitelinks:
man kann Verlinkungen auf die spezielle Unterseiten abwerten, damit diese nicht als Siteliink im Suchsnippet aufgezeigt werden -  je größer das Vertrauen von Google für die eigene Website, desto mehr Sitelinks wird Google einem zur Verfügung stellen.
Wenn man dann dazu den speziellen Namen der Firma/Website sucht - werden die Sitelinks angezeigt.

Klausur!!!
Meta Keywords - Keywords mit Komma trennen => für Google uninteressant, aber andere Suchmaschinen
Meta Description => die ist für Google wichtig


Suchanfragen:

Unter häufigste Suchanfragen: Hier können die Statistiken mit Änderungen angezeigt werden. Bei Änderung -30 => bedeutet eine Google Penalty, man ist abgestraft worden.

Alternative zu Google Webmaster Tools => Cuterank http://cuterank.net/

Überleitung zur Off Page Optimierung =>
Links zur Website => also sogenannte Backlinks - mit jedem neuen Beitrag im Blog produziert man Backlinks zur eigenen Seite, wenn auf dieser dort verwiesen wird (also im Widget/Gadget des Bloglayouts)


Interne Links: Die eigene website sollte so sein, wei ein Spinnennetz, alles miteinander verlinkt.

Manualle Maßnahmen: wenn man gehackt worden ist, wenn sie mit einem kleinem Script injiziert und verteil Spam.

Google-Index
Indexierungsstatus: 
Wie viele seiten sind im Google Index zu finden. Eine kontinuierlich wachsende (also natürliche) Kurve ist für den Google Algorithmus am besten - sonst gibt es Strafen.

Content Keywords:
Hier kann man sehen, zu welchen Themen Google einen selbst einstuft. Bedeutung die Google einem mit den Wörtern zuschreibt.
An dieser Stelle kann man die Strategie so umstellen, daß man in Kombination mit den selbst erstelleten Keywords die Seite wieder SEO-maßig optimiert.

URLs entfernen
Z.B. Seiten => die nicht mehr in der Suchmaschine gefunden werden sollen => hier kann man die Frage zur Entfernung beantragen => ob das passiert, weiß man nicht.
Z.B. wenn man AGB´s verändert, sollten die alten nicht im Index zu finden sein. Rechtlich wurde Google verdonnert, wenn die Suchbegriffe verunglimpfend sind, wenn diese Markenschädigend/Rufschädigend sind.


Crawling

Crawling Fehler - z.B. nicht gefunden
z.B. nicht gefundene Seite - wenn der Fehler schon auf der Seite entfern wurde => hier kann man sich den Link zur Seite, die nicht gefunden werden konnte, unter URL entfernen rausschmeißem lassen.

Crawlins Statistiken

Gecrawlte Sites:
Die Statistik sollte ideallerweise wie eine Herz-Funktion aussehen (EKG)

Heruntergeladene Sites: hier ebenfalls wie oben - Leben in der Bude!

Dauer des Herunterladens: 
Wenn hier hohe Ladezeiten angezeigt wird, ist irgendetwas nicht in Ordnung. Entweder auf Server-seite oder auf der Website selbst.
Die Spitzen beim Laden beachten, unter einer Sekunde Ladezeit ist okay.

Abruf wie durch Google
Ein Test, ob alles in Ordnung ist, wenn ehemals kaputte Seiten wieder repariert sind, kann man sie von Google hier noch einmal checken lassen und somit neu anmelden ===> viele nachrichtenagenturen nutzen das, um schneller in den Google Index zu kommen

Blockierte URLs
Hier kann man testen, ob die entsprechenden Befehle der robots.txt-Datei entsprechend auch gearbeitet hat.
Die robots.txt kann hier aber nich verändert werden, die Änderungen werden nicht gespeichert. Man kann aber die robots.txt probeweise ändern und durchlaufen lassen, um zu schauen, was passiert.

Sitemaps
haben wir schon gemacht - 20.2.2014


URL-Parameter => einem Webentwickler überlassen - für den Marketer uninteressant

Sicherheitsprobleme - hoffentlich gibt es hier keine, können aber sehr vielfältig sein. (z.B. Hacker-Angriff)

Andere Ressourcen

Test Tool für strukturierte Daten:


Wie kann man ein Bild von sich selbst in die Suchergebnis-Seite bekommen???

Ohne Google + kann man kein Bild (also kein Gesicht) in das Suchwergebnis einfügen


Über mich bei G+ => da unter Links => bearbeiten => hier die Website hinuzfügen => aktuell Beitragender anklicken => dann bestätigen
=> hier dann auf Website - auf jeder Unterseite => als Gadget im Blogspot => oder auf einer normalen Website im Footer einfügen in HTML

 <a href="[profile_url]?rel=author">Google</a>

oder

<a href="https://plus.google.com/109412257237874861202?
   rel=author">Google</a>
(hier von hinter // bis hin zum Fragezeichen)

rauskopiert aus Suche => rel author
https://support.google.com/webmasters/answer/2539557?hl=de

Profile-url ist hier durch die eigene Google Profil URL (wie immer oben im Reiter der Website - mit oder ohne Posts) zu ersetzen.



Google Labs - weglassen - sind Pjojekte










Mark-up => Maskierung der Daten / Aufbereitung, so daß sie anders asussehen => sozusagen Schablone drüberlegen




Inbound-Marketing (englisch inbound „ankommend“) ist eine Marketing-Methode, die darauf basiert, von Kunden gefunden zu werden. Es steht im Gegensatz zum klassischen Outbound-Marketing, bei dem Nachrichten an Kunden gesendet werden[1], wie es per Postwurfsendung, Radiowerbung, Fernsehwerbung, Flyer, Spam, Telefonmarketing und klassischer Werbung üblich ist. Kunden bedienen sich immer häufiger des Internets, um Informationen über Produkte zu erhalten, und sind über klassische Werbebotschaften weniger erreichbar. Daher versucht Inbound-Marketing, mit Produktinformationen und relevanten Inhalten dort in Erscheinung zu treten, wo sich Kunden auf ihrer Suche befinden. Im Mittelpunkt von Inbound Marketing steht der Inhalt, der über Blogs, Podcasts, Web-Videos, E-Books, White Paper, Gastartikeln etc. veröffentlicht und über Suchmaschinenoptimierung, Social Media Marketing, E-Newsletter, PR den potentiellen Kunden zugänglich gemacht wird, um sie im weiteren Verlauf als Kunden zu gewinnen.
Der Fokus von Inbound Marketing liegt auf der Veröffentlichung von Inhalten online, kann aber auch offline z.B. über die Veröffentlichung von Gastartikeln in Print-Magazinen stattfinden.
Inbound-Marketing ist langfristig kostengünstig, da man sich ein eigenes Netzwerk aus intrinsisch motivierten Lesern schafft, die Inhalte weiterpublizieren. Zudem wächst die eigene Reputation. Somit wird man zunehmend unabhängiger von intermediären Medien wie z.B. Werbeplätzen. Dadurch ist Inbound-Marketing langfristig speziell für kleine Unternehmen und Firmen sinnvoll. Allerdings entstehen Kosten für das Erstellen und Pflegen der Inhalte.

Erzeugung von Druck oder Sog - für viele ist der Sog angenehmer, da wenn jemand auf uns zu geht, hat man so gut wie schon verkauft. Man muß dann nur noch das richtige Produkt haben.



Apps for Business
- macht Sinn wegen der Google Telefonnummer.

Matts Cutts - SEO Guru
http://www.mattcutts.com/blog/

Favicon => Das kleien Zeichen neben der URL im Reiter der website. Es gibt Favicon Generatoren - mit deisen kann man den Favicon einfügen

Donnerstag, 20. Februar 2014

Tag 12:

Empfehlung: pro Projekt eine eigene Datenbank.

Keyword-Density sollte bei 3-4 % liegen.

Spider: Bei SeoQuake ganz unten, wo der original Text angezeigt wird.

www.webconfs.com

Zum Optimieren: direkt hinter Body-Öffnungstag einen Kommentar öffnen mit div-Container. der div-Container ist ein Kasten auf der Website, also so etwas wie ein Platzhalter. Davon kann man einen oben stehen haben, kann man einen unten stehen haben etc.

<!-- <div>Keyword, Keyword, Keyword, Keyword, Keyword, Keyword</div> //-->

Keyword Stuffing _ nur das gleiche Keyword stets hintereinander im div-Container oder anderen Kommentaren schreiben.

Suchmaschinen sind nicht in der Latge CSS auszulesen, Weiß auf Weiß funktioniert hier noch. In HTML sollte man dies aber vermeiden, denn HTML kann die Suchmaschine lesen und wird dei Täuschung erkennen.


Sitemap xml - die zeigt an, welche Seiten im Suchmaschinen-Index sind und welche nicht. Hat nichts mit Sitemap HTML auf der eigenen Website zu tun. Sozusagen eine Landkarte für den Suchmachinen-Roboter. Wenn Inhalte täglich oder stündlich geändert werden, sollte der Robot diesen auch dementsprechend auslesen können. Kann man hier einrichten:

http://www.xml-sitemaps.com/

Man kann auch Prioritäten einrichten, also Unterseiten, die öfter verändert werden. Denn der Robot kommt nur eine gewisse Zeit vorbei.
Diese xml-Datei liegt im Root-Verzeichnis des Servers - da gehören die Robots, die Siemap-xml, und die HTaccess
Sitemap-xml erstellen und herunterladen - der Inhalt ist für den Roboter gedacht, nicht beachten.- diese Datei muß auf den Server

Zugriff zum Root-Verzeichnis --- Filezilla: FTP-Programm (File Transfer protokoll - ein Datei-Explotrer)  aufrufen => Servermanager - eigenen Server auswählen => mit dem verbinden lassen => mit FTP Benutzernamen und Kennwort einloggen => (Verbindungsart normal)
die Serveradresse ist für gewöhnlich die eigene Domain

Die Sitemap.xml reinkopieren inkl. der gezippten Datei. sitemap.xml.gz = komprimierte xml Datei - von mobilen Geräten schneller auszulesen, sofern wir das in der htxs angezeigt haben

Webmaster-Tools bei Google sagen, daß wir eine haben - unter Sitemap - Sitemap hinzufügen.
Trick Blogspot: Adresse des RSS-Feeds benutzen = RSS Feed holen = aufm Blog ganz nach unten Scrollen und Atom klicken =< oben aus der Leiste hinter der Webadresse und dem "/" den Teil kopieren - bei uns im Blog: /feeds/posts/default => in die Sitemap Einreichungstools eingeben und aktualisieren.

Pro Website ein eigener Ordner - Ordner anklicken - alle elemente werden angezeigt (z.B. index.php - robots.txt - sitemap-xml und HTaccess

Bei Joomla sitemap.xml als Extension...

Bei den meisten CMS-Systemen gibt es Programme, die die xml Datei selbst erstellen.

HTaccess
mit der HTaccess Datei kann man einzelne Daten schützen.
Ein Beispiel, um URL Klärung zu optimieren: Request-Umleitung
Besitzt der Webserver ein Modul zum internen Umschreiben einer URL, so lassen sich in der .htaccess-Datei Umleitungen definieren. Das folgende Beispiel forciert eine Weiterleitung auf http://www.example.com, sofern diese Adresse nicht auch Teil der Anfrage war.
RewriteCond %{HTTP_HOST} !^www.example.com$ [NC]
RewriteRule ^(.*)$ http://example.com/$1 [L,R=301]

hier also ohne www davor!


Yoast.com für Wordpress

http response - Fehlermeldungen - unter Wikipedie nachschauen / http Statuscode

http://suchmaschinenoptimierung.michaelsattler.de/weiterleitung.html - 301Fehler-Code optimieren

Fehlercode -301 Moved Permamently - hier kann man den doppelten Content vermeiden und die www.Klärung vornehmen

Code für die Umleitung:

RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.bauart-wohnkultur.de
RewriteRule (.*) http://bauart-wohnkultur.de/$1 [R=301,L]

Man kann den Teil
                                     RewriteCond %{HTTP_HOST} ^www.bauart-wohnkultur.de
                                     RewriteRule (.*) http://bauart-wohnkultur.de/$1 [R=301,L]

kopieren und mehrmals untereinander schreiben, wenn man noch mehr registrierte Web-Adressen /-Seiten hat, die auf die eine weitergelinkt werden sollen.


Die HTaccess Datei wird so abgespeichert

                                      .thaccess

ohne irgendeinen Namen. Diese Datei dann in den Root des FTP-Servers kopieren - immer nur eine HTaccess Datei - für alle unterschiedlichen Funktionen von HTaccess.

Weitere Funktionen: z.B. kurz halten des Permalinks, www.Klärung, gewisse Inhalte schützen und manche Fehler beseitigen.

Beschleunigung für htaccess bei Mobilgerären:
Wenn Du meine CSS Daten und den Server ausliest, so suche nach den komprimierten Daten - also die Gzip Daten. Diese führen zu einer schnelleren Ladezeit für Mobilgeräte. Bessere Ladezeiten - besseres SEO!

# BEGIN Gzip Compression
AddEncoding gzip .gz
<filesmatch "\.js\.gz$">
AddType "text/javascript" .gz
</filesmatch>
<filesmatch "\.css\.gz$">
AddType "text/css" .gz
</filesmatch>
<ifmodule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP:Accept-encoding} gzip
RewriteCond %{REQUEST_FILENAME} \.(js|css)$
RewriteCond %{REQUEST_FILENAME}.gz -f
RewriteRule ^(.*)$ $1.gz [QSA,L]
</ifmodule>
# END Gzip Compression


robot.txt = vergleichbar mit eienm Pförtner im Unternehmen.

Keine Erlaubnis für interne Firmenseiten mit internem Log in /alle, die ihre Website aufbauen.
Mit den folgenden Befehlen wird allen Webcrawlern die Indexierung der kompletten Webpräsenz verboten.
User-agent: *
Disallow: /
z.B.
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/uploads/2014/01/natalya.de

Beim Aufbau einer Seite unbedingt disallow-Befehl schreiben - sonst wird der Robot Fehler melden. Die Website muß dann bereinigt werden, das dauert!

Erlaubnis: 
user-Agent: *
Allow:  /

Mit Google Webmaster Tools kann man auch Seiten entfernen!

Bei Webmaster Tools mit und ohne www. hinzufügen.
bei HTaccess schon entschieden, damit alles fehlerfrei ausgelesen werden kann. In den Webmaster Tools muß dieses dann angegeben werden. Und zwar unter dem Zahnrad rechts oben => Website Einstellungen => da nochmal angleichen an die htaccess-Datei.

Klausur:
HTaccess
robots.txt
sitemap.xml
www.Klärung
Keyword-Density (max. 2-6%)
Was sollten Sie bein on-Page Optimierung möglichst nicht tun? - z.B. Weiße Typo auf weißem Hintergrund
Was sollten Sie on page tun: Backlinks von Facebook auf die eigene Seite streuen? - Falsch, denn das ist off page.

bei SEO no index/nofollow ist quatsch - da man doch in der Suchmaschine gefunden werden möchte.

Im Head als Meta-Angabe nur für die einzelne Unterseite / auf dem FTP Server kann man einzelne Dateien oder übergreifende robots-Befehle hinterlassen.


BrowserCache löschen, wenn

Affiliate-Text-Links kann man nicht blocken!

modrewrite beim hoster erfragen, wenn nicht vorhanden.

Was ist ein Perma-Link?
Hash-Code?

Mittwoch, 19. Februar 2014

Tag 11:

LA RED Video
https://www.youtube.com/watch?v=QPF8Q86HHY8

HTML Programmierung:

Was wird nicht angezeigt im Browser: Kommentare, damit man im Nachhinein weiß, was man an welcher Stelle gemacht hat. Im HTML Code ist es sonst sehr mühsam nachzuvollziehen.

                             <!-- Das ist ein Kommentar //--> steht für Kommentar, hier kann man versteckte Inhalte einfügen, die nicht auf der Website angezeigt werden

                             <p> steht für Paragraph - hier kann man einen Text einfügen.

                             <br /> steht für break - also ein Zeilenumbruch

                             <ol> heißt ordered list

                             <ul> unordered List - ohne  nummerische Aufzählung

                             <li> listenpunkt

                             <table> heißt Tabelle
                            
                             <tr> table roll = heißt Tabellen

                             <td> table data = heißt Tabellendaten

                             border="1" steht für eine Rahmen = gehört aber in die CSS, da Designaspekt

                             <img> steht für image

Wann ist ein Bild optimal für die Suchmaschine??? Von der Größe 500 bis max. 2000 Pixel = diese sind bei der google Suche am häufigsten angezeigt - Jedoch, umso größer das Bild, umso höher die Ladezeit, umso schlechter die Auslesbarkeit für die Suchmaschinenrobots


                             src steht für source

                             Bild fügt man mit dem ganzen Dateinamen ein:
                             <img src="Boa Herz mit Keyword.jpg"/>

                             width steht für Breite des Bildes = wenn wir das festlegen, wird trotzdem ein großes Bild geladen, aber kleiner dargestellt, d.h. für die Ladezeit der Webseite sollte man die Bilder passgenau abspeichern

                             height steht für Höhe

                             alt Attribut beseutet Alternative, sollte das Bild nicht geladen werden können, dann wirs das alt-Attribut ausgelesen und die Alternative angezeigt, die Suchmaschine kann es lesen und schreibt dann den Text rein
wenn das alt-Attribut fehlt wird es als Fehler ausgelesen (z.B. bei woorank) - es wird gedacht, daß man keine Ahnung hat, also keine gute Website

                            < title> steht für Titel zum Bild, wenn das Bild noch bennant werden soll - wenn man mit der Maus drüber fährt, wird der Titel auf der Website angezeigt

                             <a href= "hhtp://edelmarketing.de"> das Wichtigste, was das Internet zusammenhält, die Links = hyper reference

                              <a> und </a> Ankertext = Nicht einfach nur das wort hier verwenden. Gute Ankertexte sind gefragt, damit man in der SERP an vordere Positionen kommt. Spitze Klammern schließen den Ankertext. Klausur!!!

                              target= bedeutet Ziel

                             "_blank" für neues Fenster

Umso mehr Links andere Leute auf unsere Website verweisen, umso besser für uns.

Im <Head> stehen wichtige Informationen, die Meta-Angaben
Meta = Dokumentübergreifend, das sollte die Website beschreiben können
Fehler: Wenn die Meta-Angabe fehlt, wird ein Fehler aufgerufen, wenn diese nicht strukturiert sine, ebenso
Meta-Angabe anzeigen: auf der Website selbst und mit rechter Maustaste ins Leere klicken => dann Seitenquelltext anzeigen anklicken


<meta name="description" content="xxx"  das ist der Inhalt, das in der SERP der Suchmaschine 
ersichtlich wird
An dieser Stelle können wir Marketing betreiben. Eine kurze Beschreibung der Website - z.B. mit Aufforderung. ca. 160 Zeichen sollten in die Description - wenn die zu lang ist, wird sie in der Original Search als " ... " angezeigt, ein Indiz dafür, daß sich nicht professionell um die Seite gekümmert wird.

<meta name="keywords" content="xxx" hier sollten die Keywords zur Seite reingeschrieben werden, auch wenn Google sie nicht mehr beachtet - andere Suchmaschinen verwenden diese noch

Klausur! Was sollten wir in der On Page Optimierung berücksichtigen? Bei Google nur die Meta-Angaben "Keyword" berücksichtigen, ist falsch!

Die ersten 20 Meta-Keywords werden maximal ausgelesen - also die Seite damit auch nicht überfrachten!

<meta name="robots" content="ALL" >
<meta name="robots" content="index, follow" >
Letzteres wird nicht immer verwendet, da man nicht alle Seiten ausschließen will. => Klausur!!!

Anweisungen für die Robots - oder Webcrawler - mit dem Befehl ALL werden alle Seiten ausgelesen.
Mit INDEX/FOLLOW soll der Robot diesen Links folgen und schauen, was dort zu finden ist. Auch zu den externen Links kann verlinkt werden, wenn die Thematisch zu der Website passen. Den Links, die nicht passen, sollte man nicht folgen lassen, z.B. die Websites von Bilderanbietern im Impressum, den Rechtsanwalt, Web-Agentur oder, oder , oder.
Bei dieser Meta-Angabe müssen wir nicht jeden einzelnen Link zur externen Seite im Head anzeigen, dem nicht gefolgt weren soll, sondern dann in Body (unserer Website) bei den einzelnen Links mit dem Befehl: 


                                  rel="nofollow" -

Auszug aus Wikipedia
Allgemein: Die Metadaten werden im Kopf-Bereich eines HTML-Dokuments, also im head-Element, notiert. 
Es existieren verschiedene Metadaten-Schemata, teils von Institutionen oder Gremien erarbeitet (zum Beispiel Dublin Core), teils aber auch wild gewachsene Arten wie Einträge der Erzeuger-Software (zum Beispiel Hersteller und Version). Die wenigsten dieser Metainformationen werden von User Agents (zum Beispiel Browsern oder Suchrobotern) interpretiert. Die Beachtung durch den User Agent ist, wie bei allen HTML-Elementen, von den Fähigkeiten und der Konfiguration desselben abhängig. 
Metadaten sollen vor allem die Durchsuchbarkeit des World Wide Web bzw. einer einzelnen Webpräsenz verbessern. Außerdem lassen sich mithilfe von Metadaten spezielle Anweisungen zur Steuerung der Suchroboter von Suchmaschinen notieren. Einst galten Metadaten als Geheimwaffe, um bei einer Suchmaschine möglichst weit oben gelistet zu werden. Die Metadaten wurden daher lange missbraucht, um irreführende Schlagwörter anzugeben (vgl. Keyword-Stuffing). Mittlerweile legen die Suchmaschinen wieder mehr Wert auf den eigentlichen Textinhalt einer Webseite, den auch der Leser im Browser wahrnimmt, und ignorieren Meta-Angaben weitestgehend bzw. lassen diese nicht mehr in das Ranking der Seite einfließen. Im Web finden sich unzählige „Meta-Tag-Generatoren“, die jedoch mit zumeist veralteten oder inflexiblen Zusammenstellungen von Meta-Angaben arbeiten und damit nur für wenige Anwendungsfälle geeignet sind.

Beispiele

Die nachfolgenden Code-Beispiele verwenden XML-kompatible Syntax – im Falle von HTML 4.01 darf das Element hingegen nicht mit einem Schrägstrich geschlossen werden.

Seitenbeschreibung: Kurze Beschreibung oder Abstract des Inhalts der Webseite.

<meta name="description" content="Lorem ipsum dolor sit amet, consetetur sadipscing elitr." />


Stichwörter (Keywords): Nennt Stichwörter oder Themen, die auf der Webseite vorkommen bzw. behandelt werden. Die Stichwörter werden durch Kommata voneinander getrennt, zur Verbesserung der Menschenlesbarkeit wird nach dem Komma oft ein Leerzeichen eingefügt.


<meta name="keywords" content="Stichwort 1, Stichwort 2, Stichwort 3" />

Autor: Name des Autors und damit inhaltlich Verantwortlichen.

<meta name="author" content="Autorenname" />

Anweisungen für Webcrawler / Robots:

<meta name="robots" content="index,follow" />

alternativ kann auch:

<meta name="robots" content="all" />

verwendet bzw. auf den Code ganz verzichtet werden.

Der Webcrawler (Suchroboter) soll die Webseite ausdrücklich in den Suchmaschinen-Index aufnehmen, damit sie auffindbar ist, und den Hyperlinks auf der Seite folgen. Diese Angabe ist im Allgemeinen unnötig, da sie dem normalen Verhalten der meisten Webcrawler entspricht.
<meta name="robots" content="noindex" />

Der Suchroboter soll die Webseite nicht in den Index aufnehmen. Die Webseite soll also nicht über Suchmaschinen auffindbar sein. Siehe auch: Robots Exclusion Standard.
<meta name="robots" content="nofollow" />

Der Suchroboter darf die Webseite zwar aufnehmen, aber soll den Hyperlinks auf der Seite nicht folgen. Die Wirkung ist so, als wären die Links auf der betreffenden Seite gar nicht vorhanden. Derselbe Effekt lässt sich auch für einzelne Links erreichen, indem diese um das Attribut rel="nofollow" in HTML-Teil Body ergänzt werden. (siehe nofollow)
<meta name="robots" content="noodp" />

Die Suchmaschine soll auf der Ergebnisseite nicht die Beschreibungstexte des Open Directory Projects verwenden – sofern die Seite dort eingetragen ist  –, sondern wie bei nicht eingetragenen URLs einen Ausschnitt der Seite selbst (sog. „Snippet“) anzeigen. Diese Anweisung wird von Google und MSN Search unterstützt.
<meta name="robots" content="noydir" />

Die Suchmaschine soll auf der Ergebnisseite nicht die Beschreibungstexte aus dem Yahoo-Verzeichnis verwenden – sofern die Seite dort eingetragen ist  –, sondern wie bei nicht eingetragenen URLs einen Ausschnitt der Seite selbst. Diese Anweisung wird nur von Yahoo (Robot: Slurp) unterstützt.

Äquivalente zu HTTP-Kopfdaten

Meta-Elemente können Informationen enthalten, die auch in Kopfzeilen der HTTP-Kommunikation vom Server zum Client (z. B. einem Webbrowser) übertragen werden. Die Daten können bereits vor dem Erzeugen der HTTP-Antwort vom Webserver gelesen und in die Kopfzeilen eingebaut werden.[2] Ist eine Information im HTTP-Header enthalten, ist dieser einer gegebenenfalls abweichenden Angabe in einem Meta-Element des Clients vorzuziehen.

<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />

Angabe des MIME-Type (im Beispiel text/html) und der verwendeten Zeichenkodierung (im Beispiel UTF-8) des Dokuments.

Weiterleitung durch „refresh“

Um beim Aufruf einer Seite zu einer anderen URL weiterzuleiten (engl. forwarding), kann der refresh-Wert genutzt werden. Über das content-Attribut kann weiterhin eine Zeit gesetzt werden, bis die Weiterleitung erfolgt, z. B. um den Anwender noch auf den Grund für die Weiterleitung hinzuweisen:

<meta http-equiv="refresh" content="5; URL=http://www.example.org/" />

Sonstige Informationen


  • geografische Informationen – siehe Geo-Tag

Index / Follow / No Follow

Nicht Suchmaschinen-relevante Seiten: Impressum, Kontakt-Seite, TY-Seite
Die TY-Seite z.B. muß nicht unbedingt im Internet angezeigt werden, da sie erst als Folge von einer Aktion kommt - sie muß es also nicht frei zugänglich im Internet geben.
Anmeldeseiten fürs Backend haben im Internet auch nichts zu suchen.

Die Landing Page bei Amazon ist das einzelne Produkt selbst, also muß man diese Unterseiten unbedingt optimieren.

SERP
Mann kann auch Sitelinks (wie in der Goggle Keyword Anzeige) oder Fotos anzeigen lassen.


Das Programm HTML lässt viele Fehler zu, alledings kann es Probleme mit dem Auslesen haben und man hat damit auch Probleme mit der Suchmaschine
Momentan HTML5 und CSS3 - beste Kombi

Die Suchmaschine sucht die optimale Struktur für den Leser!!!! Also mit Headlines, Listen, Tabellen etc. arbeiten, nicht nur reinen Fließtext.

Buchtipp



Optimierung einer Website => Einmal eine H1 pro Unterseite - Nur eine nicht mehr!!! ===>Klausur

Maximal 3 Keywords pro Seite !!!


Nach Domain => Meta Angabe (Description) =>


Google Web Master Tools

In Blogspot zu => Vorlage gehen => da Live im Blog => auf HTML anzeigen => hier kann man den Quelltext bearbeiten

Web Master Tools ebook zum Herunterladen:
http://www.trustagents.de/unternehmen/publikationen/google-webmaster-tools-e-book




Tipp. Online-Übersetzungswebsite http://www.dict.cc/


White Hat => konform der Suchmaschinenrichtlinien

Grey Hat => abseits der Richtlinien, aber die Suchmaschine kann es nicht auslesen und finden

z.B. Verstecken eines Textes auf der Website

Black Hat => nicht zu empfehlen, absolute Täuschung des Suchmaschinenroboters

z.B. Kloaking = Vorgaukeln einer anderen Seite als Startseite, die tatsächlich nicht angezeigt wird

z.B. Möglichkeiten zur Suchmaschinen Penalty eines Wettbewerbers:
Puschen eines Wettbewerbers durch Backlinks (diese werden pro Tag gezählt) - wenn es nicht ein natürliches Wachstum ist, sondern ein extremer Anstieg, so denkt die Suchmaschine, daß dort illegal nachgeholfen wurde - die Suchmaschine schmeißt so eine Seite um 30 Plätze nach hinten

Buchtipp Social Media


Dienstag, 18. Februar 2014

Tag 10:

Klausurvorbereitung:

60 Punkte im ersten Teil = 20 Multiple Choice Fragen (mit 5 Antwortmöglichkeiten (Kreuze), von denen mind. eine richtig ist)
komplett richtig 3 Punkte / ein fehlendes/falsches Kreuz = 1 Punkt / bei zwei Fehlern = kein Punkt

30 Punkte im zweiten Teil = 3 Fragen zum Ausformulieren - eine halbe bis 3/4 Seite - 8-10 Sätze
pro Aufgabe 10-15 Minuten

Google Bilder
Textanteile in Bildern bei Facebook, Google etc. werden aus Bildern herausgelesen. Bilder sollten die Key Words enthalten.

Key Words der Anzeige sind nicht identisch mit den Key Words des Suchergebnisses.

Klassischer Marketing-Mix: Was sind die 4 P´s?
Product / Price / Placement / Promotion = Die kann mann auch in den Online-Marketing-Mix einfließen lassen.

Grenzen Sie Online- vom Internetmarketing ab.

Was sind typische Probleme beim e-Mail-Marketing?

Was kann typischerweise ein Newsletter Tool?
Listen anlegen, Autoresponder, Tracking, wer die geöffnet hat, verschiedene Kampagnen, Segmentierung der Listen udn Labels, Reports, A/B Test, Anmeldeformular extrahieren, Newsletter kann mit Variablen (z.B. MergeTags) gefüllt werden, Freebie (Goodie/Werbegeschenk für Anmeldung)

Tracking Methoden: Pixel, URL, Session, Coockie, Datenbank, Banner

Typische Zahlmethoden im Affiliate Marketing: Cost per lead, per sale, per click (per order, per Bestellung ohne Beachtung des Rückgaberechts)

Arten von Keywords: Short- Mid und Long Tail
Mehrdeutige Wörter

Keyword Advertising: wie sieht in adwords die klassische Anzeige aus? Überschrift, 2 Textzeilen, angezeigte und verlinkte URL
zusätzlich gibt es die Anzeigenerweiterungen: Sitelinks, Telefonnummer, Sternchen, Google+, Ortsangabe

Google sucht sich die Anzeigenerweiterungen selber aus, ob die mit geschaltet werden oder nicht. Man hat keinen Einfluß drauf.

Pagerank: bezieht sich auf die Backlinks von anderen Seiten auf meine Website 0-10 / 10 ist gut

Ragazzi Group Profitable Nische finden / Peer Wandlinger Schritt für Schritt - nochmals anschauen

Universal Search: was gehört dazu? Bilder, Shopping, News, Video, Maps, Apps, Bücher, Flüge

Off Page Optimierung: Twitter mit einbeziehen, Backlinks auf Twitter setzen

On Page Optimierung: Description? Meta-Angabe? Meta-Tags?

Was ist auf (On Page) einer Seite oder abseits (Off Page) einer Seite zu optimieren?

Wieviel Geld muß ich einsetzen, um x Kunden zu generieren? Dreisatz!!!

Video-Advertising ist nicht Klausur relevant?

Was sind Hash codes?


__________________________________________________________________________________

On Page Optimierung

Für HTML Tutorial:

http://www.w3schools.com/
http://de.selfhtml.org/

Für Marketer sind bestimmte Bereiche im HTML-Code wichtig.

Notepad = Editor

<html>  = Tag ist der Anfang der Website

</html>  = Schluss-Tag, also Ende der Website => Beides zusammen bilden eine "Schublade" - der Schrägstrich bedeutet das Ende.

Head = alles was im Reiter (Tab) oben ist und weiterhin nicht zu sehen sein soll

z.B. Titel der Website

Body = der Teil. der Inhalt der Website ist

Zur Übung als HTML-Datei abspeichern und mit einem Browserprogramm öffnen.


Bei Google Analytics muß man dann Schnipsel in bestimmte Teile der Website einbauen, z.B im Head einbauen bedeutet: sucht man den Schlußtag und baut/kopiert es davor ein.

1. Optimierungsmaßnahme: 

das betreffende/stärkste Keyword sollte auf jeden Fall in den Titel der Website = möglichst am Anfang, da wird es als wichtiger erachtet
es sollte auch ideallerweise der Unternehmensname sein
wenn man eine kräftige Marke hat, dann trägt man diese in die Head

Domain buchen bei Denic oder über strato / 1&1 / uniteddomains

Überschriften: die gibt es von H1 bis H6

Die H1 ist nach Title, nach Keyword das Drittwichtigste auf der Website.

Pro Unterseite der Website sollte man immer nur eine H1 Überschrift haben - alle anderen Überschriften können öfter vorkommen.

Kapitel 12 - Seite 487 im Buch




www.wiktionary.org

bei Google Trennstriche zwischen Wörter, wenn man optimieren möchte, die werden als Leerzeichen verwendet.

Montag, 17. Februar 2014

Tag 9:

Fragen zum Video von LeedPages:
landing Page ppcmini landing page => alle Anzeigen werden nur auf diese Seite weitergeleitet

www.themeforest.net => Wordpress Theme Seite

onepagethemes => sind schlecht für die Suchmachine => wenn dann keine neuene Inhalte kommen, die Seite also nicht immer wieder neu gefüttert wird, wird man von der Suchmaschine schnell nach unten in der SERP katapultiert
Aber: Eine Seite reicht für manche Firmen, um Ihr Produkt zu verkaufen.

SEO => ist unabdingbar für den Erfolg einer Website, aber SEO allein reicht auch nicht. Das (Online)Marketing-Mix macht erst eine Seite erfolgreich.

Einfach sind die Menschen anzusprechen, die die Grundbedürfnisse der sozialen Sicherheit optimieren wollen, das ist die Masse, hier sind die meisten Erfolgsquoten. Menschen mit einem dauerndem Problem, suchen dauerhaft nach einer Lösung.

Prozess bei Google Adwords im Keyword Planner - wie werden die Key Words geprüft

Selber KeyWörter überlegen => diese Filtern lassen => Keywort Ideen von Google anzeigen lassen => diese Keywords dann noch mal bei Google eingeben und die Seiten zu dem Wort bei Google suchen und auf der SERP anzeigen lassen => man kann sehen, auf wievielen Seiten das Wort vorkommt (incl. der Unterseiten = hier site.http://xxx eingeben)

site.http://www.stressmanagement.de = bei google zeigt an, wieviele Unterseiten dieser website bei google gefunden werden
bei Long tail Keywords wir aber die Kombination der Wörter angezeigt = daher muss hier das LT Keyword in Anführungsstriche gesetzt werden

SEO quake installieren => kostenloses Tool zur Webseiten-Analyse
Page Rank = nicht die Reihenfolge der Suchergebnisse auf der SERP => Page Rank geht von 0-10; 10 sind meistens dicke; umfangreiche Seiten Seiten

Der Page Rank ist ein Indikator für die Verlinkung einer Website im Internet. Qualität und Quantität der Verlinkung bestimmen den Page Rank, er beschreibt also wieviele Links man gesammelt hat und wie gut diese sind.

Der PageRank-Algorithmus ist ein Verfahren, eine Menge verlinkter Dokumente, wie beispielsweise das World Wide Web, anhand ihrer Struktur zu bewerten bzw. zu gewichten. Dabei wird jedem Element ein Gewicht, der PageRank, aufgrund seiner Verlinkungsstruktur zugeordnet. Der Page Rank zählt für jede einzelne Unterseite, d.h. jeder Unterseite wird ein Pagerank zugewiesen.
Der PageRank-Algorithmus ist eine spezielle Methode, die Linkpopularität einer Seite bzw. eines Dokumentes festzulegen. Das Grundprinzip lautet: Je mehr Links auf eine Seite verweisen, umso höher ist das Gewicht dieser Seite. Je höher das Gewicht der verweisenden Seiten ist, desto größer ist der Effekt. Das Ziel des Verfahrens ist es, die Links dem Gewicht entsprechend zu sortieren, um so eine Ergebnisreihenfolge bei einer Suchabfrage herzustellen, d. h. Links zu wichtigeren Seiten weiter vorne in der Ergebnisliste anzuzeigen. 
Page Rank zählt die Verlinkung zu der Seite - je mehr Backlinks, desto gewichtiger die Seite im Ranking.
Wichtig: Je stärker die Website in ihrer Page Rank (10 = Optimum), desto eher bleibt sie im Suchergebnis bestehen, eine schwache Seite mit PR = 0, so wird die Seite auch mal wieder gegen eine andere in der SERP ausgetauscht.
Page Rank => gibt also vereinfacht gesagt die Gewichtung und das Vertrauen der Website incl. derer  Unterseiten wieder
Trust = Vertrauen, aufgebaut auf einer hohen mathematischen Gewichtigkeit im Google Algorithmus, die eine Seite auf der SERP an die ersten Stellen kommen lässt
Schlagwörter bei Google: Pinguin Algorithmus / Panda Algorithmus - Namen für neue Algorithmen, die Google eingesetzt hatte
Es gibt bei Google ca. 200 Kriterien, die für die Reihenfolge der SERP verantwortlich sind
Wenn man von einer starken Website ein FollowLink bekommt, so bekommt man höheres Vertrauen bei Google (Trust) - insofern rutscht man mit der Website auch weiter in die vorderen Positionen im Suchergebnis. PageRank 3 in unserem Beispiel "Stressmanagement": hat schon z.B. einige Backlinks - aber die KeyWords sind nicht gerade sinnvoll, so kann man die WEbsite mit SEO aus den vorderen Plätzen in der SERP verdrängen

Index => gibt an, wieviele Unterseiten im Netz zu einer Website zu finden sind - also die bei Google gelistet sind => je weniger Seiten, desto kleinerer natürlich der Seitenumfang einer Website

Alexa Rank: Ranking einer Seite , das bei 1 anfängt und unendlich ist => gibt an, wie wichtig eine Website nach deren Algorithmus ist = Hat sich etabliert, wird zur Beurteilung hinzugezogen - für manche Websites gibt es auch länderspezifische Rankings

In der Beschreibung "Description" des Suchergebnisses auf der SERP sollte das wichtigste KeyWord ideallerweide drinstehen

Keyword Density: zu welchen Wörtern ist die Seite optimiert - Wörter, die man optimieren möchte, sollten hier in der Liste oben stehen

Das allererste Wort im Spider (Anzeige unter Original Text der Webseite) - sollte das Hauptwort sein, zu der auch optimiert wird.

Keyword Dichte - sollte nicht übertrieben werden, weil die großen Suchmaschinen dann einen wieder raus schmeißen, Density sollte also nicht zu hoch sein - aber hoch genug, um an der Konkurrenz auf der SERP vorbeizukommen - im allgemeinen sollte der Wert bei 3% liegen. (Wörteranzahl/Keywords*100)
Große SEO Agenturen testen so lange, bis sie dann tatsächlich rausfliegen - somit kann dann ein Wert ermittelt werden (Verbrennen Testseiten uind erst, wenn man die Grenze kennt, wird die richtige Seite ins Netz gestellt)

Bilder auch nach dem Keyword benennen, dann ich die Keyword Density einer Website höher!!!

Auswertung der Website mit Woorank:
Woorank = Tool zur Messung der Auslesbarkeit einer Website = die meisten Firmen liegen auf der Scala von 0 - 100 auf ungefähr 50

www.Klärung = wenn die Website mit und ohne www.xxx aufgerufen werden, also ist es für die Suchmaschine Duplicate Content, wird gleich negativ eingestuft, dicker Fehler!

robots.txt = kleine Datei, die der Suchmaschine sagt, was sie tun darf oder nicht = was also ausgelesen werden darf, der Webentwickler muß diese einrichten und einstellen

Sitemap.xml

Schlagwortkonsistenz = ähnlich wie keyword density = H bedeutet hier Überschrift

Backlink-Zähler

UNI-Seiten als Follower werden immer super gut eingestuft, wenn man Backlinks von Universitätsseiten hat => sehr gut fürs Ranking

Trick: Zu einer großen Website wird eine kleine Seite als Aktionsseite gebaut (im Sinne einer Squeezepage)

Favicons => Favorite Icon

404-Fehlerseite => egal, was man hinter der Webadresse www.stressmanagement.de/xxx eingibt, wird kein fehler angezeigt, sondern nur die Startseite
die Fehlerseite kann man gut für Marketingzwecke verwenden: z.B. Newsletteranmeldung anbieten

Druckerfreundlichkeit
Mikroformate
Dublin Core  ?

gzip = komprimiert die styledatien der website zum transport und entpackt sie wieder
Inline Style = wenn css im html-Code eingebaut wird = normalerweise werden css und html getrennt

Analytics = Google Analytics und andere große Analysetools werden erkannt

W3C Validator = Validatoren sind Werkzeuge, die Quelltext automatisiert gegenlesen und somit eine Hilfe bei der Fehlervermeidung und  –beseitigung in Webdokumenten darstellen. Ein gültiges Dokument, etwa eine valide Webseite, verschafft Wettbewerbsvorteile, weil die erfolgreich geprüften Texte Entwicklungssicherheit bieten und die Weiterverarbeitung der Daten ermöglichen.
Validatoren leisten diese Arbeit kostenlos und komfortabel:
-----------------

Jedes einzelne Key Word sollte in der o.g. Art geprüft werden.

Auf der Vorschau des Suchergebnisses muß eine "Schlagzeile" kommen.

Die Homepage ist zwar die erste Seite, auf die man kommt, aber nicht die Wichtigste!!!

Ragazzi-Group = Text zum Nischenmarketing nochmal lesen



Market Samurai = hier auf Dojo gehen = hier findet man kurze Videos, die das Tool erklären
Eine vernünftige KeyWord Recherche dauert ca. 5-6 Wochen, oder 5-6 Stunden mit Market-Samurai

Alternativen:
www.ibusinesspromoter.de = mehr Funktionen, als bei Woorank
www.woorank.com = hier kann man schnell ein pdf mit dem Ergebniss generieren = kostenlos eine Website zum Testen => wenn man die Cockies löscht, kann man immer wieder testen

KEI = Keyword Effizienz Index = Anzahl der Sucher / Seiten, die es zu dem Wort gibt
Das Ergebnis mal 100, dann hat man die Zahl in Prozent.
Man muß zu den Keywords herausfinden, welches Keyword am effektivsten ist, verglichen mit allen anderen Keywords

Für große Unternehmen Website Usability Recherche Tools:
http://www.sistrix.de/
http://www.xovi.de/

Bei Google Adwords kann man nach erfolgreicher KeyWord Findung einen Plan runterladen, auch als Excel-Datei.
Competition: Wert der Konkurrenz (niedrig/mittel/hoch)

Ein KeyWord mit wenig Konkurrenz aber häufiger Suche ist nicht unbedingt gut, da die Absicht des Suchenden nicht dargestellt wird.


Buchempfehlung:
Sebastian Erlhofer - Suchmaschinen-Optimierung











SEO ist ein kontinuierliches Geschäft!!! Eine einmalige Einstellung reicht hnicht aus, die Website muß immer wieder angepasst werden. SEO dauert, da google die neue Seite erst listen muß.

"Don´t make me think" = eine Landing Page sollte so aussehen, daß man gleich weiß, was man als nächstes machen soll, ohne, daß man groß nachdenken muß/kann