Online Marketing – Svens Gedankensplitter http://blog.sevke.net Querbeete Gedanken, Meinungen und Interessen Sun, 22 Oct 2017 15:45:43 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.1 http://blog.sevke.net/wp-content/uploads/2016/03/cropped-think-622166_960_720-150x150.jpg Online Marketing – Svens Gedankensplitter http://blog.sevke.net 32 32 27620428 Unglaubliche Entdeckung unter dem Sofakissen! http://blog.sevke.net/2016/12/28/unglaubliche-entdeckung-unter-dem-sofakissen/ http://blog.sevke.net/2016/12/28/unglaubliche-entdeckung-unter-dem-sofakissen/#respond Wed, 28 Dec 2016 11:44:25 +0000 http://blog.sevke.net/?p=8632 Zwei Fernbedienungen und ein Kissen auf einem Sofa

Ja, was hattest du jetzt erwartet?

Irgendetwas Anstößiges vielleicht?

Auf jeden Fall hat es funktioniert! Du hast die Überschrift irgendwo auf Facebook gelesen, wurdest neugierig und hast den Weg zu meinem Blog gefunden.

Diese Methode nennt man Clickbait, also „Klick Köder“. Viele, viele Facebook- oder Twitter-Nachrichten funktionieren so. Reißerische Überschrift und nichts dahinter.

Ein prominentes Beispiel ist Focus Online: http://www.bildblog.de/77939/clickbait-aus-leidenschaft/

Und wozu ist das gut?

Mit einem Clickbait erhöhe ich die Zugriffszahlen auf eine Seite, was die Sichtbarkeit in Suchmaschinen beeinflussen kann. Außerdem kann ich auf diese Weise eine größere Reichweite meiner Werbung (hier rechts in der Seitenleiste 😉 ) erreichen und damit mehr Umsatz! (Falls ich damit Geld verdienen würde, tue ich aber nicht.)

Also, Leute, klickt nicht alles in Facebook oder Twitter an, was eine nichtssagende, aber reißerische Überschrift hat. Meistens steckt nichts Brauchbares dahinter!

Abschließend ein lustiges (englischsprachiges) Video zu dem Thema. It will blow your mind!


]]>
http://blog.sevke.net/2016/12/28/unglaubliche-entdeckung-unter-dem-sofakissen/feed/ 0 8632
SEO-Tipp #6: Vermeidung von Duplicate Content http://blog.sevke.net/2012/05/08/seo-tipp-6-vermeidung-von-duplicate-content/ http://blog.sevke.net/2012/05/08/seo-tipp-6-vermeidung-von-duplicate-content/#respond Tue, 08 May 2012 14:27:33 +0000 http://blog.sevke.net/?p=2772 SEO-Tipp

Duplicate Content entsteht bei Web Content Management Systemen wie WordPress oder Joomla automatisch, da der Inhalt eines Artikels auf verschiedenen dynamisch generierten Webseiten gleich ist. Beispielsweise gehören RSS-Feeds oder Kategorie-Seiten dazu. Oder es gibt ein Forum, dass sowohl eine normale als auch eine für mobile Geräte angepasste Version desselben Content anbietet.

Suchmaschinen wie Google möchten den Nutzern möglichst optimal passende Suchergebnisse liefern. Wenn mehrere Seiten mit demselben Inhalt existieren, wird Google eine Seite davon auswählen und als Ergebnis anzeigen. Alle anderen Seiten werden abgewertet oder fliegen gleich aus den SERPs.

Aufgabe einer SEO ist es also, der Suchmaschine mitzuteilen, dass der auf diese Weise erzeugte Duplicate Content gar keiner ist, weil der Inhalt ja nur einmal vorliegt, aber auf verschiedene Weise angezeigt wird. Um Duplicate Content zu vermeiden oder zu kontrollieren, sind sowohl Methoden der On-Page, als auch der On-Site und der Off-Site Optimierung nötig.

Eine erste Möglichkeit besteht darin, die doppelten Seiten, die man nicht als Suchergebnis sehen möchte, in der Datei robots.txt explizit per DISALLOW vom Crawling auszuschließen. Auch ganze Verzeichnisse kann man auf diese Weise blockieren. Für komplexere Blockaden sind sogar reguläre Ausdrücke möglich.

Wer im HTML-Code seiner Seite Zugriff auf den Head-Bereich der doppelten Seite hat, kann dort das Meta-Tag <meta name="robots" content="noindex"> einbauen.

Bei dynamisch erzeugten Seiten ändert man hierzu üblicherweise das zu Grunde liegende Template.

Ein anderes Problem ist, dass eine Website oft sowohl unter der Adresse mit WWW und ohne WWW zu erreichen ist. Ein schneller Test zeigt, ob eine Website unter zwei Adressen erreichbar ist, zum Beispiel unter http://www.sevke.net und unter http://sevke.net. Ändert sich eine der beiden Adressen nach der Eingabe im Browser automatisch in die andere Adresse, so ist an dieser Stelle kein Nachholbedarf. Ansonsten leitet man die eine Adresse am besten mit einer permanenten Umleitung an die andere Adresse um. Dies geschieht mit Hilfe der Datei .htaccess, die sich im Root-Verzeichnis der Domäne befindet.

Dazu schreibt man folgendes Script-Schnipselchen in die Datei:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.sevke\.net$
RewriteRule ^(.*)$ http://sevke.net/$1 [L,R=301]

Damit werden alle Adressanfragen, die mit „www“ beginnen, auf die gleiche Adresse ohne „www“ umgeleitet. Das L steht für „last“ und bricht die Verarbeitung der .htaccess nach dem Befehl sofort ab. Das R steht für „redirect“ und leitet die Adresse um. Der zurückgegebene Status-Code 301 steht für „moved permanently“.

Google bietet alternativ oder ergänzend die Möglichkeit, die richtige Domänenadresse als kanonische Domäne (canonical domain) mit Hilfe der Webmaster-Tools zu registrieren. Eine Anleitung dazu gibt es in dem Artikel Bevorzugte Domain (mit oder ohne „www“).

Die kanonische Domäne können Sie inzwischen aber auf jeder Seite auch selber per HTML angeben, und zwwar wieder im Head-Bereich als Link-Tag mit den Attributen ref und rel. Das könnte folgendermaßen aussehen: <link rel="canonical" href="http://blog.sevke.net/" />

Neben dem selbst verursachten Duplicate Content kann es auch passieren, dass eine andere Website zum Beispiel Inhalte von anderen Websites sammelt und verlinkt. Das kann durchaus gewünscht sein.

Auch Affiliate-Netzwerke sind ein guter Kandidat für Duplicate Content. Möglicherwiese kommen die Backlinks auf eine bestimmte Seite mit angehängten Parametern, um die Quelle des Klicks leichter verfolgen zu können. Damit wird aber jedesmal eine scheinbar doppelte Seite erzeugt.

In so einem Fall sollte man den Betreiber der Website ansprechen und ihn darum bitten, die bei ihm angezeigte Seite mit den oben genannten Möglichkeiten vom Crawling auszuschließen.

Natürlich bemühen sich die Algorithmen der Suchmaschinen, den Original-Inhalt zu identifizieren und dementsprechend als Suchergebnis anzuzeigen. Unter anderem gehört dazu der Zeitpunkt, wann ein bestimmter Inhalt wo gefunden wurde. Sorgen Sie also gegebenenfalls dafür, dass Ihre Partner den Inhalt erst nach Ihnen veröffentlichen. Ein guter Author-Rank und allgemein eine gute Domain-Authority helfen ebenfalls bei der Beurteilung, welcher Inhalt originär ist und welcher dupliziert.

Ein Tool, mit dem Sie im Internet überprüfen können, ob ein Inhalt an anderer Stelle als Dublette vorhanden ist, finden Sie auf http://www.copyscape.com.

Weitere Infos zum Duplicate Content gibt es in Googles Webmaster Zentrale.

]]>
http://blog.sevke.net/2012/05/08/seo-tipp-6-vermeidung-von-duplicate-content/feed/ 0 2772
Google und die Reputation von Autoren http://blog.sevke.net/2012/05/02/google-author-rank/ http://blog.sevke.net/2012/05/02/google-author-rank/#respond Wed, 02 May 2012 09:33:32 +0000 http://blog.sevke.net/?p=2700 Google hat eine Menge Arbeit investiert, um den Inhalt einer Webseite auf Relevanz zu überprüfen. Auch die Verlinkung innerhalb einer Website und von anderen Websites zur eigenen und damit die Sichtbarkeit im Internet ist ein wesentlicher Faktor für das so genannte Ranking, also für die Platzierung der Website in der Liste mit den Suchergebnissen zu bestimmten Suchbegriffen. Viele Fachleute (wie ich) beraten Unternehmen, wie sie die Seiten ihrer Website sinnvoll so optimieren können, dass sie auf den SERPs der Suchmaschinen besser sichtbar sind.

In Zukunft will Google zusätzlich deutlich stärker die Reputation eines Autors mit in die Bewertung der Relevanz einer Webseite einbeziehen… den Author Rank.

Es stellt sich die Frage, was den Ruf eines Autors im Internet ausmachen könnte. Welche Informationen gibt es im Internet, die Google entsprechend analysieren könnte?

  • Blog-Artikel
  • Kommentare zu Blog-Artikeln
  • Beiträge in Foren
  • Videos in Portalen wie YouTube
  • Social Media Präsenz wie auf Twitter, Facebook, Xing, LinkedIn, Google+ usw.
  • Listings in Shop-Systemen, zum Beispiel als Buchautor
  • Andere Webseiten, auf denen der Autor mit seinem Namen oder Pseudonym auftritt

Wer sich nun einen guten Author Rank erwirbt, kann darauf hoffen, dass eigene Links und Artikel bei Google ein höheres Vertrauen genießen als die von unbekannten Autoren und in Folge besser bewertet werden.

Wie kann ich nun meine eigenen Webseiten so kennzeichnen, dass Google sie mir als Autor zuordnet?

Google nennt das die Anzeige von Urheberinformationen in den Suchergebnissen.

Dazu muss im HTML-Code jeder Seite ein Link-Tag mit dem Bezug rel=“author“ eingefügt werden. Dieser steht im Head-Bereich der Seite. Alternativ kann das rel-Attribut auch direkt beim Artikel stehen. Üblicherweise verwendet man dazu einen Hyperlink auf die Autorenseite oder auf das Google+ Profil mit dem Namen des Autors als Linktext. (Zum Beispiel: Beitrag geschrieben von ) Verweist man auf diese Weise auf sein Google+ Profil, wird bei den Suchergebnissen zusätzlich sogar noch das Foto aus dem Google+ Profil eingebunden. Innerhalb des Tags kann man dann entweder auf die Seite des Autoren verlinken, auf der wiederum ein Link zum Google+ Profil hinterlegt ist. Alternativ kann man auch direkt auf sein eigenes Google+ Profil verlinken. Betreibt man eine Website mit mehreren Autoren, ist es sicher sinnvoll, nicht direkt auf das eigene Profil zu verlinken, sondern einen Zwischenstopp auf der jeweiligen Profilseite des Autoren zu machen. Im Google+ Profil sollte im Gegenzug ein Rückverweis auf die eigene Autoren-Seite oder auf die betroffene Domäne eingetragen werden (das heißt dort „Macht mit bei“).

Diese doppelte Verlinkung verhindert …

  1. dass ein beliebiger Autor in seinem Google+ Profil meinen Content als seinen markieren kann
  2. dass ein beliebiger Autor mir auf seiner Website Inhalte quasi unterjubeln kann, indem er von dort auf mein Google+ Profil verweist

Google stellt ein Tool bereit, mit dem man die doppelte Verknüpfung überprüfen kann, nämlich das Rich Snippets Testing Tool.

Natürlich sollte man im Google+ Profil sämtliche weitere Profile eintragen wie die bei Twitter, Facebook, Pinterest usw., damit Google erkennt, wo und wieviel wichtigen Content man als Autor im Internet beigetragen hat. Das ist natürlich ein Problem für die Datenschützer, zugegeben. Aber Google wird meinen Author Rank nur dann erhöhen, wenn möglichst viel interessanter Inhalt im Internet von mir zu finden ist.

Da das Foto aus dem Google+ Profil in den Suchergebnissen der Suchmaschine angezeigt wird, sollte man sich sehr gut überlegen, welches Foto für den Anwender vertrauenswürdig aussieht und dadurch zu einem Klick auf die eigene Webseite führt. Normalerweise werden hier Halbprofil Fotos sinnvoll sein, wie man sie von Ausweisen oder Lebensläufen her kennt.

]]>
http://blog.sevke.net/2012/05/02/google-author-rank/feed/ 0 2700
Google bestraft Link-Farmen (Panda Update) http://blog.sevke.net/2012/04/23/google-panda-update/ http://blog.sevke.net/2012/04/23/google-panda-update/#respond Mon, 23 Apr 2012 11:03:58 +0000 http://blog.sevke.net/?p=2629 Da ich vor kurzem über das Google Venice Update in Google bevorzugt lokale Webseiten geschrieben habe, möchte ich an dieser Stelle auch nachträglich kurz über das Google Panda Update schreiben, das allerdings für englischsprachige Suchanfragen bereits Anfang 2011, für deutschsprachige Anfragen im August 2011 implementiert wurde.

Mit dem Panda Update möchte Google versuchen, Webseiten mit echtem Inhalt gegenüber solchen zu bevorzugen, die lediglich Links zu anderen Seiten sammeln und präsentieren, also gar keinen echten eigenen Inhalt liefern.

Google selbst beschreibt das Ziel des Panda Updates so:

This update is designed to reduce rankings for low-quality sites—sites which are low-value add for users, copy content from other websites or sites that are just not very useful. At the same time, it will provide better rankings for high-quality sites—sites with original content and information such as research, in-depth reports, thoughtful analysis and so on.

Quelle: Official Google Blog

Zu den Verlierern gehören Personensuchmaschinen wie yasni.de und 123people.de, Preisvergleichsportale wie preisroboter.de und geizkragen.de und Meinungsportale wie ciao.de, gutefrage.net und dooyoo.de. Eine genauere Analyse dazu findet sich im Searchmetrics Blog.

Betroffen sind übrigens auch Contentaggregatoren, die Artikel sammeln und auf die entsprechenden Websites verlinken.

Zu den Gewinnern gehören vor allem Soziale Netzwerke wie Twitter und Facebook, aber auch YouTube.

Es ist davon auszugehen, dass die Betreiber der betroffenen Websites alles daran setzen werden, die negativen Auswirkungen des Panda Updates durch entsprechende SEO-Maßnahmen zu kompensieren.

Nach dem Rollout des Panda Updates hat Google die zugrunde liegenden Algorithmen wiederholt weiter optimiert.

Zuletzt geschah dies am 27.02.2012:

Panda update. This launch refreshes data in the Panda system, making it more accurate and more sensitive to recent changes on the web.

Quelle: The official Google Search blog

Und danach noch am 04.03.2012:

High-quality sites algorithm data update and freshness improvements. [launch codename “mm”, project codename „Panda“] Like many of the changes we make, aspects of our high-quality sites algorithm depend on processing that’s done offline and pushed on a periodic cycle. In the past month, we’ve pushed updated data for “Panda,” as we mentioned in a recent tweet. We’ve also made improvements to keep our database fresher overall.

Quelle: The official Google Search blog

Besonders hervorzuheben ist beim Panda Update die Tatsache, dass einzelne Seiten einer Website, die als Low-Content interpretiert werden (zum Beispiel ein Inhaltsverzeichnis, das auf andere Seiten der Website verlinkt, ansonsten aber keinen eigenen Inhalt aufweist) die gesamte Website im Ranking negativ beeinflussen kann. Sollten also besonders schwache Seiten dennoch notwendig sein, so macht es möglicherweise Sinn, diese Seiten auf eine andere Website auszulagern.

Wahrscheinlich wird man auch bei der Menge an Werbung vorsichtig sein müssen, die auf einer Einzelseite platziert ist, denn sie zählt ebenfalls zum Low-Content.

Darüber hinaus müssen auch exzessive Affiliate-Seiten überdacht werden, denn zuviele Affiliate-Links tragen nicht zu einem hochkarätigen Inhalt bei.

Für die Google-Nutzer stellt das Panda Update insgesamt einen Gewinn dar.

]]>
http://blog.sevke.net/2012/04/23/google-panda-update/feed/ 0 2629
Web Browser Statistik März 2012 http://blog.sevke.net/2012/03/29/web-browser-statistik-marz-2012/ http://blog.sevke.net/2012/03/29/web-browser-statistik-marz-2012/#respond Thu, 29 Mar 2012 15:21:18 +0000 http://blog.sevke.net/?p=2589 Vor genau einem Jahr hatte ich mir angesehen, mit welchen Internet-Browsern auf diesen Blog zugegriffen wird: Web Browser Statistik März 2011.

Heute war ich neugierig, ob sich inzwischen an der Verteilung etwas geändert hat.

So sah es im März 2011 aus:

Grafik - Web Browser Statistik im März 2011

 

Und so sieht es jetzt im März 2012 aus:

Grafik - Web Browser Statistik im März 2012

Wenn wir mal die unterschiedliche Skalierung der Balken vernachlässigen, fällt auf, dass Firefox und der Internet Explorer an Anteilen verloren haben, während Chrome und Safari zugelegt haben.

Bei Chrome wundert mich das nicht, wird dieser Browser doch seit langem in allen Fachzeitschriften als besonders schnell gelobt. Safari dürfte durch die iPads (bzw. iPhones) an Bedeutung gewonnen haben. Aber auch die Android Tablets (bzw. Smartphones) sind im Kommen, wie man am Anteil der Android Browser erkennen kann.

]]>
http://blog.sevke.net/2012/03/29/web-browser-statistik-marz-2012/feed/ 0 2589
Google bevorzugt lokale Webseiten http://blog.sevke.net/2012/03/28/google-bevorzugt-lokale-webseiten/ http://blog.sevke.net/2012/03/28/google-bevorzugt-lokale-webseiten/#respond Wed, 28 Mar 2012 09:09:14 +0000 http://blog.sevke.net/?p=2554 Google verbessert seine Such-Algorithmen kontinuierlich, um den Nutzern möglichst genau passende Suchergebnisse zu liefern. Viele Website-Betreiber haben Methoden entwickelt, um der Suchmaschine die eigenen Seiten besonders schmackhaft zu machen. Natürlich bemüht sich Google, Tricks zu erkennen und entsprechend negativ zu bewerten. Das ist auch gut so, denn am Ende gilt SEO-Tipp #5: Content is King.

Ende Februar hat Google in seinem Blog mehrere Änderungen kommuniziert:

Improvements to ranking for local search results. [launch codename “Venice”] This improvement improves the triggering of Local Universal results by relying more on the ranking of our main search results as a signal.

Improved local results. We launched a new system to find results from a user’s city more reliably. Now we’re better able to detect when both queries and documents are local to the user.

Quelle: The official Google Search blog

Screenshot des Google Seiten-MenüsFür Websites mit regionalem Bezug bedeutet dies, dass sie in Zukunft bessere Chancen auf eine gute Platzierung bei Google haben. Dazu muss die Suchmaschine allerdings in der Lage ein, den lokalen Bezug der Website zu erkennen. Um das zu erreichen, sollte darauf geachtet werden, dass die Region als Schlüsselwort an den üblichen Stellen wie URL (also Domänenname plus Verzeichnisstruktur und Dateiname), Seitentitel, Überschriften (mit den HTML-Tags h1 bis h6 gekennzeichnet) und im Content genannt wird. Bei Backlinks zur Webseite sollte darauf geachtet werden, dass die Region Bestandteil des Anker-Textes ist.

Im Umkehrschluss bedeutet die Vernachlässigung der Optimierung, dass die eigene Website im Ranking gegenüber den entsprechend optimierten Seiten verliert und damit aus der Sichtbarkeit der Suchmaschine verschwindet.

Unternehmen haben schon länger die Möglichkeit, den regionalen Bezug ihres Unternehmens über Google Places herzustellen. Entsprechende Einträge werden von Google noch vor den normalen organischen Suchergebnissen angezeigt.

Screenshot - Beispiel einer regionalen Suche in Google

zum Vergrößern bitte anklicken

Google Places berücksichtigt dabei den Standort, den Sie als Nutzer im Seitenmenü von Google angegeben haben. Und die organische Suche berücksichtigt nun den angegebenen Standort genauso, setzt aber die regional relevanten Ergebnisse noch vor die Ergebnisse von Google Places.

Unternehmen, die nicht nur einem Ort oder einer Region zugeordnet sein wollen, sollten Microsites aufbauen, die für die verschiedenen Regionen optimiert sind. Zusätzliche Backlinks können zum Beispiel durch Gastbeiträge in stark lokal oder regional engagierten Blogs erreicht werden. Dabei sollten die Backlinks entsprechend auf die Microsites verweisen und im Anker-Text die Region als Schlüsselwort enthalten.

Wie immer, werden Suchmaschinen weiterhin nicht genau vorhersagbare Ergebnislisten liefern. Wenn ein Benutzer gleichzeitig mit einem Google-Account angemeldet ist, werden natürlich auch die dort vorhandenen Daten berücksichtigt wie zum Beispiel vergebene Google+-Likes. Eine Bevorzugung lokaler/regionaler Treffer macht aus Sicht des Anwenders auf jeden Fall Sinn. Der Google Venice Update macht es aber nötig, entpsrechend betroffene Webseiten auf notwendige Anpassungen zu überprüfen und entsprechend neu zu optimieren.

 
]]>
http://blog.sevke.net/2012/03/28/google-bevorzugt-lokale-webseiten/feed/ 0 2554
SEO-Tipp #5: Content is King http://blog.sevke.net/2012/02/08/seo-tipp-5-content-is-king/ http://blog.sevke.net/2012/02/08/seo-tipp-5-content-is-king/#respond Wed, 08 Feb 2012 11:29:14 +0000 http://blog.sevke.net/?p=2384 SEO-Tipp

Content is King … das ist ein immer wieder zu hörendes Mantra, wenn es darum geht, die eigene Webseite für Suchmaschinen attraktiver zu gestalten. Auch hier gilt wieder einmal: was ein Internet-Nutzer interessant findet, das ist auch für eine Suchmaschine interessant, denn schließlich geht es darum, genau die vom Nutzer gewünschten Informationen im Internet zu finden.

Der Inhalt einer Webseite

Kurz und bündig …

  • relevanten Inhalt anbieten
  • Bilder einbinden
  • sinnvolle Keywords verwenden
  • kein Keyword Stuffing betreiben
  • Keyword Densitiy 5% – 7%
  • Flesch-Grad über 50

Etwas ausführlicher …

Relevanter Inhalt, das bedeutet in erster Linie einen Inhalt, der für andere Menschen interessant ist. Um also Internet-Nutzer auf meine Webseite aufmerksam zu machen, muss ich dort einen Inhalt anbieten, der erstens lesenswert ist und der zweitens von Suchmaschinen gefunden werden kann.

Dazu gehört auch, dass man sich den Hut des gewünschten Internet-Nutzers aufsetzt und sich überlegt, mit welchen Suchwörtern dieser genau nach meiner Seite sucht. Man kann der Suchmaschine die Arbeit erleichtern, indem man entsprechende Schlüsselwörter auf der Seite verwendet. Wenn ich beispielsweise Informationen zu dem Ausflugsziel Pego do Inferno in Portugal suche, würde ich Google mit den Suchbegriffen „pego do inferno portugal“ füttern. Entsprechend sollten diese Schlüsselwörter auch auf der Zielseite zu finden sein, denn sonst bringt die Suchmaschine den Inhalt nicht in Beziehung zu den Suchbegriffen. Die Schlüsselwörter sollten wirklich etwas mit dem Inhalt der Seite zu tun haben. Was nützt es Ihnen, wenn Ihre Seite über das Suchwort „Australien“ gefunden wird, sie aber über Portugal berichten? Sie verärgern nur Ihre Besucher und verlieren an Reputation. Außerdem findet niemand die Webseite über den Begriff „Portugal“.

Beim Einsatz von Schlüsselwörtern ist Vorsicht angebracht: eine übermäßige Verwendung der Keywords (Schlüsselwörter) lässt Google vermuten, dass es sich um Manipulierungsversuche handelt. Mit dieser Annahme liegt die Suchmaschine meistens ja auch richtig. Manipulierungsversuche werden mit Abwertung geahndet. Wo genau die Grenze liegt, ab wann also mit einer Strafe zu rechnen ist, ist strittig. Hierzu wird die Anzahl der Keywords ins Verhältnis zu der Gesamtzahl der Wörter gesetzt. Das Ergebnis in Prozent nennt man Keyword Density. Diese sollte im Bereich von 5% – 7% liegen. Es gibt Experimente mit viel höheren Keyword Densities. Im Allgemeinen wird aber für die Suchmaschinenoptimierung ein Wert zwischen 5% und 7% empfohlen. Das ist ohnehin recht viel, wenn Sie die Schlüsselwörter ausschließlich in Ihrem Fließtext unterbringen wollen.

Eine gute Wahl der Keywords ermöglicht eine leichte Auffindbarkeit der Webseite im Internet, erschreckt den Besucher aber auf der anderen Seite nicht derart, dass er die Webseite sofort wieder verlässt.

Ein weiteres wichtiges Kriterium für den Inhalt einer Webseite ist die Lesbarkeit. Ein Text kann so geschrieben sein, dass er von jedem Kind verstanden wird, oder so, dass ihm nur Akademiker folgen können. Der gewünschte Flesch-Grad (Lesbarkeitsindex) richtet sich natürlich nach Ihrer Zielgruppe. Im Allgemeinen wird man für Internet-Texte einen möglichst hohen Flesch-Grad anstreben, nach Möglichkeit über 50. Wenn Sie wissen möchten, wie hoch der Flesch-Grad Ihres eigenen Textes ist, so versuchen Sie es doch einmal auf der Website stilversprechend.de.

Es ist gar nicht so einfach, einen Flesch-Grad von mehr als 50 zu erreichen.

Eine Webseite sollte nicht nur aus Text bestehen. Oft sagt ein Bild viel mehr aus als ein Text oder lässt sich zumindest schneller erfassen. Moderne Suchmaschinen erfassen auch Bilder und bringen sie in den richtigen Kontext zu Ihrer Website. Bei Bildern brauchen und sollten Sie nicht auf Keywords verzichten. Das beginnt schon bei einem sprechenden Dateinamen. Ein Bild mit dem Namen „img001.jpg“ lässt sich bestimmten Suchbegriffen schlechter zuordnen als eins mit dem Namen „portugal-tavira-marktplatz.jpg“. Bilder werden im Dokument in Form von HTML-Tags eingebunden, die über die zusätzlichen Parameter „alt“ und „title“ mit passenden Keywords ausgestattet werden können.

Guter Inhalt ist wichtig, aber guter Inhalt alleine reicht im Internet nicht mehr aus, denn über praktisch jedes Thema wurde schon irgendwo einmal geschrieben.

Google hat im November 2011 eine Änderung seines Ranking-Algorithmus durchgeführt, der die Aktualität eines Inhaltes wesentlich stärker in die Bewertung einfließen lässt: Freshness-Update von Google. Berichten Sie auf Ihrer Website über aktuelle Ereignisse, so ist es sicher eine gute Idee, sehr zeitnah Neuigkeiten zu veröffentlichen. Da Google für eine wirklich schnelle Indizierung auf RSS-Feeds zurückgreift, sollten Sie Ihre Inhalte entsprechend zusätzlich als RSS-Feed anbieten.

Blogs haben hier einen Vorteil, weil neue Artikel auf der Startseite veröffentlicht werden und auf diese Weise die Website immer frisch halten.

Weitere Betrachtungen zum Thema Freshness Factor finden Sie im lesenswerten Artikel von Cyrus Shepard auf SEOMoz.

Allen, die sich noch intensiver mit den Methoden auseinandersetzen wollen, mit denen man die Frischheit eines inhalts bewerten kann, empfehle ich den Artikel von Justin Briggs: Methods of Evaluating Freshness. Er hat sich die Patentschriften von Suchmaschinen angesehen und analysiert.

]]>
http://blog.sevke.net/2012/02/08/seo-tipp-5-content-is-king/feed/ 0 2384
Suchmaschinen Nutzung in Deutschland http://blog.sevke.net/2011/09/16/suchmaschinen-nutzung-in-deutschland/ http://blog.sevke.net/2011/09/16/suchmaschinen-nutzung-in-deutschland/#respond Fri, 16 Sep 2011 11:47:29 +0000 http://blog.sevke.net/?p=2031 An was denkt ihr, wenn ich frage: „Welche Suchmaschinen kennt ihr und welche nutzt ihr?

Google?

Gibt es noch andere?

Ohja, die gibt es, zum Beispiel:

AltaVista sucht über Yahoo und wird wohl bald ganz eingestellt werden.
Excite sucht über ask.com.

Ich denke, die aufgelisteten Suchmaschinen dürften so die gängigsten sein, die einem einfallen.

Welche Anteile haben denn die Suchmaschinen in Deutschland? Wie viele Internet-Nutzer setzen welche Suchmaschine ein? Dazu gibt es auf den Seiten von Webhits Statistiken: http://www.webhits.de/deutsch/index.shtml?webstats.html. Webhits kann natürlich nur die selber ermittelten Werte verwenden, andere Analysten kommen möglicherweise zu etwas anderen Ergebnissen. Im Trend dürften sich aber keine großen Unterschiede ergeben. (02.09.2016 Hinweis: diese Statistiken sind nicht mehr verfügbar. Alternativ gibt es Statistiken auf den Seiten von Lunapark.)

Suchmaschinen Anteile in Deutschland

Eins sieht man sofort: Google dominiert ganz eindeutig den Suchmaschinen-Markt in Deutschland. Bei Microsofts Bing weiß man noch nicht so recht, wie sich die Suchmaschine weiterentwickeln wird. Bing arbeitet inzwischen mit Facebook zusammen.

T-Online, AOL und web.de haben keine eigene Suchmaschine, sondern verwenden stattdessen Google.

ask.com hat bereits aufgegeben, Yahoo wird auf Bing umgestellt und geht uns damit ebenfalls verloren.

  • Google hat heute 87,4 %
  • Bing hat 3,6 %
  • Yahoo hat 2,6 %
  • T-Online hat 2,6 %
  • … und über den Rest sprechen wir gar nicht mehr

Also Google! Oder wer Google nicht mag, kann auf Microsofts Bing ausweichen. Wer weder Google noch Microsoft mag, probiert vielleicht mal Ecosia.

Welche Suchmaschine nutzt ihr am liebsten?

]]>
http://blog.sevke.net/2011/09/16/suchmaschinen-nutzung-in-deutschland/feed/ 0 2031
Web Browser Statistik http://blog.sevke.net/2011/03/29/web-browser-statistik/ http://blog.sevke.net/2011/03/29/web-browser-statistik/#respond Tue, 29 Mar 2011 14:17:34 +0000 http://blog.sevke.net/?p=1799 Interessiert ihr euch für Browser Statistiken? Also für eine Antwort auf die Frage, welche Browser zum Surfen im Internet verwendet werden?

Leider gibt es dafür keine absolute und eindeutige Antwort, weil es auf den Inhalt der Webseite ankommt und damit darauf, welcher Typ von Mensch die Webseite besucht.

Technik affine Surfer verwenden zum Beispiel tendenziell nicht den Internet Explorer von Microsoft.

Eine mögliche Informationsquelle zur Klärung dieser Frage ist die Website Browser-Statistik.

Für diesen Blog werden die folgenden Browser verwendet:

]]>
http://blog.sevke.net/2011/03/29/web-browser-statistik/feed/ 0 1799
SEO-Tipp #4: der Domänenname http://blog.sevke.net/2011/03/19/seo-tipp-4-der-domanenname/ http://blog.sevke.net/2011/03/19/seo-tipp-4-der-domanenname/#respond Sat, 19 Mar 2011 16:03:41 +0000 http://blog.sevke.net/?p=1596 SEO-Tipp

Jede Webseite wird im Browser über einen URL, einen Uniform Resource Locator, erreicht (ich spreche das so aus: Örl), also über eine Internetadresse. URLs sehen (üblicherweise) in etwa so aus: http://www.portugalforum.de. Der vordere Teil bezeichnet das Netzwerkprotokoll, hier also http (Hypertext Transport Protocol) und dahinter folgt eine Adresse, die sich wiederum aus mehren Teilen zusammensetzt. Alle Teile werden durch einen Punkt voneinander getrennt. Den genauen Aufbau eines URL werde ich nicht besprechen. Wer sich dafür interessiert, kann ihn zum Beispiel in der Wikipedia nachlesen. Der Domänenname wird in der Fachsprache FQDN genannt, was ausgeschrieben Fully Qualified Domain Name bedeutet. Wie wichtig ist der Domänenname für die Sichtbarkeit in Suchmaschinen? Und was sollten wir dabei beachten?

Der Name der Domäne

Kurz und bündig …

  • bemühen Sie sich um eine Type-In Domäne
  • kurze Namen wählen
  • keine Umlaute verwenden
  • sinnvolle Keywords verwenden
  • mehrere Wörter werden durch einen Bindestrich getrennt
  • kein Keyword Stuffing betreiben

Etwas ausführlicher …

Die meisten Browser unterstützen heute Google Instant, so dass Ihnen bereits beim Eintippen eines Schlüsselbegriffs in die Adresszeile Ihres Browsers sinnvolle Vorschläge für eine Website gegeben werden. Dabei werden auch Ihre Bookmarks und die von Ihnen erst kürzlich besuchten Websites berücksichtigt. Wenn also der Schlüsselbegriff im Domänennamen direkt vorkommt, haben Sie eine gute Chance, dass Ihre Domäne als Suchtreffer angezeigt wird.

Einige Browser unterstützen die automatische Vervollständigung von Domänennamen (Server Name Completion). In Opera geben Sie zum Beispiel portugalforum/ ein, und Opera wird automatisch nach einer Domäne suchen, die beispielsweise portugalforum.de heißt. Die Endungen können Sie in den Programm-Einstellungen selber festlegen. Auch in diesem Fall wird Ihre Domäne schneller gefunden, wenn Sie als Domänennamen einen Begriff wählen, der mit hoher Wahrscheinlichkeit vom Besucher direkt in die Adresszeile eingegeben wird.

Am wirkungsvollsten sind so genannte Type-In Domains. Dabei handelt es sich um Domänennamen, die ein Besucher ganz natürlich für einen bestimmten Suchbegriff eingibt wie zum Beispiel die schon öfter herangezogene Domäne portugalforum.de. Wer ein deutschsprachiges Forum über Portugal sucht, wird ohne Zweifel einfach mal portugalforum.de oder www.portugalforum.de eingeben und landet dann sofort auf der richtigen Webseite. Neben solchen speziellen Schlüsselbegriffen bieten sich auch Firmennamen oder Markennamen als Type-In Domäne an. Privatpersonen werden versuchen, ihren Nachnamen oder eine Kombination aus Vornamen und Nachnamen, verbunden durch einen Bindestrich, zu kaufen. Der Nachteil von Type-In Domänen ist, dass es kaum noch verfügbare gibt. Falls SIe mit dem Gedanken spielen sollten, eine bereits existierende Type-In Domäne zu kaufen, dann richten Sie sich auf sehr hohe Preise ein.

Wenn wir keine Type-In Domäne bekommen können, müssen wir uns Gedanken darüber machen, welcher Domänennamen sinnvoll ist. Da die Suchmaschinen den Inhalt des Namens in ihre Ranking-Algorithmen als wichtig einbeziehen, sollte man den Namen so wählen, dass er entweder komplett oder in einer zusammengesetzten Form Suchbegriffe enthält, von denen man mit großer Wahrscheinlichkeit davon ausgehen kann, dass ein Besucher sie verwendet, um den Inhalt der Website zu finden. Als stark übertriebenes Gegenbeispiel könnte ich den Domänennamen koestlicherweinausderantarktis.org für eine Domäne wählen, die Infos über Portugal präsentiert. Es ist kaum davon auszugehen, dass jemand „Wein“ oder „Antarktis“ oder „Wein aus der Antarktis“ eingeben wird, um die Portugal-Domäne zu finden. Es handelt sich also um einen besonders schlechten Namen. Neben dem fehlenden Bezug zum Inhalt der Domäne ist der Name aber auch aus einem anderen Grund schlecht gewählt. Kein Besucher kann sich so einen Buchstabensalat leicht merken. Außerdem wird der komplette Name von der Suchmaschine als ein einziges Wort aufgefasst.

Der Name müsste als erstes in kleinere Häppchen aufgeteilt werden: koestlicher-wein-aus-der-antarktis.org. Nun werden die Wörter auch von der Suchmaschine als einzelne Wörter erkannt. Der Besucher kann sich zudem den URL leichter merken. Trotzdem ist der Name noch viel zu lang und enthält Füllwörter, die überflüssig sind. Am Ende könnte man vielleicht antarktis-wein.de wählen. Natürlich nur, wenn sich die Website auch tatsächlich mit diesem Thema beschäftigt, was momentan noch eher unwahrscheinlich ist.

Wer genau hinsieht, hat sicher bemerkt, dass ich auch die Top-Level Domäne von ORG auf DE geändert habe. Die Top-Level Domäne ORG ist ursprünglich für „nicht-kommerzielle Unternehmen und Projekte“ vorgesehen worden. DE ist eine Länder-Domäne und wird mit deutschsprachigen Inhalten assoziiert, also genau das, was wir wollen.

Seit einigen Jahren sind so genannte Umlaut-Domänen (IDN = Internationalized Domain Name) möglich. Eine Domäne wie münchen.de ist damit möglich. Bisher sind die Erfahrungen, die damit gemacht worden sind, eher negativ. Die Verwendung von Umlauten in Domänen-Namen kann zur Zeit nicht empfohlen werden. Probieren Sie mal http://München.de. Sie werden auf die Site http://www.muenchen.de weitergeleitet. Und auch eine Google-Suche nach dem Begriff München bringt sie zu http://www.muenchen.de. Im Augenblick scheint es so, als würden Umlaut-Domänen von Suchmaschinen schlechter bewertet. Dazu kommt, dass andere Websites, die auf Ihre Umlaut-Domänen zurücklinken, möglicherweise mit der Darstellung der Sonderzeichen Probleme haben könnten, was dann sehr unschön aussieht.

Eine Frage, die oft in Zusammenhang mit Domänennamen gestellt wird, lautet: Soll ich den Namen mit WWW oder ohne WWW nehmen? Im Grunde ist das egal. Das WWW hat mit dem eigentlichen Domänennamen nichts zu tun. Es handelt sich dabei um eine Subdomain, die auf einer Hauptdomäne wie zum Beispiel evenca.de zur Unterscheidung von verschiedenen Servern dienen kann. Neben der Subdomain www.evenca.de wären weitere wie ftp.evenca.de (für Dateiübertragungen) oder mail.evenca.de (für einen E-Mail Server) denkbar. Es hat sich am Anfang des Internet-Zeitalters eingebürgert, Webserver eben mit WWW zu kennzeichnen. Brauchen Sie aber nicht und spart auch Tipparbeit, wenn Sie es weglassen. Allerdings gibt es dabei einen Aspekt zu berücksichtigen. Es gibt immer noch viele Internet-Benutzer, die es gewohnt sind, das WWW am Anfang einzugeben. Was passiert, wenn jemand eine Internetadresse mit WWW eingibt, diese Subdomain aber nicht existiert? Der Besucher bekommt völlig korrekt den Hinweis, dass die Seite nicht existiert. Das ist aber nicht genau das, was wir gerne hätten. Um das zu verhindern, benötigen Sie also sowohl Ihre Hauptdomäne evenca.de als auch eine Subdomain www.evenca.de. Da diese Subdomain aber nicht separat gepflegt werden soll, richten Sie sinnvollerweise eine permanente Weiterleitung per .htaccess Datei oder direkt beim Hoster von der einen auf die andere Domäne ein, hier also von evenca.de auf www.evenca.de, die den Besucher auf die Hauptdomäne weiterreicht. Das funktioniert reibungslos. Welche der Domänen Sie als Hauptdomäne auswählen, ist Ihnen überlassen.

]]>
http://blog.sevke.net/2011/03/19/seo-tipp-4-der-domanenname/feed/ 0 1596