Online Marketing Tipps

Manuelle Maßnahme in der Google Search Console

Google hat umfangreiche Richtlinien für die Optimierung und Gestaltung von Websites definiert. Diese Richtlinen regelmäßig zu lesen ist mit der beste Weg, eine manuelle Maßnahme durch Google im Vornherein zu vermeiden. Denn immer dann, wenn Google der Ansicht ist, dass massive Verstöße gegen die Webmaster Richtlinien vorliegen, wird eine manuelle Maßnahme gegen eine Website verhängt. … „Manuelle Maßnahme in der Google Search Console“ weiterlesen

Mit Link Checkern fehlerhafte Links & externe Links identifizieren

Für Link Checker gibt es bei der Suchmaschinenoptimierung grundsätzlich zwei Anwendungsfälle: Onpage Optimierung: Fehlerhafte Verlinkungen („Broken Links“) oder unnötige Weiterleitungen innerhalb der eigenen Website identifizieren Offpage Optimierung: Linkprofile von Wettbewerbern analysieren, um neue Linkquellen zu finden Durch den hohen Einfluss der Offpage-Optimierung auf das Suchmaschinenranking kommen Link Checker besonders häufig im Rahmen des „Linkaufbaus“ zum … „Mit Link Checkern fehlerhafte Links & externe Links identifizieren“ weiterlesen

Keyworddichte: Ist die Worthäufigkeit für SEO relevant?

Neben der Auswahl der passenden Suchwörter mittels einer Keywordrecherche ist auch die Aufbereitung der Zielseite (Landing Page) und das Auftreten der Suchwörter eine Einflussgröße auf das Ranking. Die Häufigkeit des Auftretens wird dabei als Keyword- oder auch Suchwortdichte (englisch: keyword density) beschrieben und meint die Häufigkeit des Auftretens eines bestimmten Begriffs innerhalb einer Zielseite. Die … „Keyworddichte: Ist die Worthäufigkeit für SEO relevant?“ weiterlesen

Googlebot: Wichtiges zum Google Crawler, Crawling und Indexierung

Mit dem Namen Googlebot wird der Webcrawler von Google bezeichnet. Webcrawler sind computergesteuerte Programme, die den Inhalt („Content“) von Webdokumenten analysieren und diese Inhalte gegebenenfalls in ihren Index aufnehmen. Im Falle von Google ist dies der Google-Index. Nur im Index enthaltene Seiten (oder auch Dokumente genannt) können in Suchergebnissen angezeigt werden. Beim Zugriff des Googlebots … „Googlebot: Wichtiges zum Google Crawler, Crawling und Indexierung“ weiterlesen

Suchvorschläge: Google Suggest & Co

Kaum eine Suchmaschine kommt heute ohne Suchvorschläge und -vervollständigungen aus. Die bekanntesten Suchvorschläge kommen dabei von Google und hören auf den Namen Google Suggest. Doch auch andere Suchmaschinen, von E-Commerce-Websites wie Amazon, Zalando und Otto hin zur Videoplattform Youtube, zeigen Suchvorschläge an. Inhalt1 Google Suggest: Keyword Vorschläge in der Suche 2 Worauf basiert Google Suggest?3 … „Suchvorschläge: Google Suggest & Co“ weiterlesen

Duplicate Content: Was ist das und wie kann Duplicate Content identifiziert und behoben werden?

Zu den Lieblingswörtern jedes SEOs gehört „Duplicate Content„. Doch was versteht man unter diesem Schreckgespenst jedes Webmasters und wie wirkt sich Duplicate Content, also doppelte Inhalte, aus? Inhalt1 Was ist Duplicate Content?2 Duplicate Content identifizieren2.1 Duplicate Content über die Google-Suche finden2.2 Duplicate Content mit Copyscape finden2.3 Doppelte Inhalte über ein Crawling der eigenen Website finden3 … „Duplicate Content: Was ist das und wie kann Duplicate Content identifiziert und behoben werden?“ weiterlesen

Was sind nofollow Links?

Durch das Attribut „Nofollow“ werden Verlinkungen im Sinne der Suchmaschinenoptimierung entwertet. Das Attribut soll verwendet werden, wenn es sich um eine Verlinkung durch eine bezahlte Kooperation handelt, oder Verlinkungen von jedermann gesetzt werden können und dadurch keine Empfehlung darstellen. Inhalt1 Warum gibt es das Nofollow-Tag?2 Implementierung: Einzelne oder alle Links mit nofollow kennzeichnen3 Wie finde … „Was sind nofollow Links?“ weiterlesen

Was ist/war Google Base? Und welcher Dienst ist der Nachfolger?

Im Jahr 2005 hat Google den Dienst „Google Base“ veröffentlicht, durch welchen es Nutzern ermöglicht wurde, (Produkt-)Daten an den Suchmaschinenbetreiber zu übertragen. Während es in der Anfangszeit des Dienstes möglich war, jegliche Art von Information an Google zu senden, ist der Service später immer auf die Google Produktsuche ausgerichtet worden. Google nutzte das Interface von … „Was ist/war Google Base? Und welcher Dienst ist der Nachfolger?“ weiterlesen

Domainpopularität erklärt: Was ist mit DomPop gemeint?

Unter „Domainpopularität„, kurz DomPop oder DomainPop, versteht man eine SEO-Metrik, die darüber Auskunft gibt, wie häufig eine Webseite (eine Domain) von anderen Domains verlinkt wurde. Je mehr unterschiedliche Domains auf eine andere Domain verweisen, desto höher ist demnach die Domainpopularität. In manchen Tools wird diese Kennzahl als „Referring Domains“ (bzw. Verweisende Domains“ ausgewiesen. Wenn man … „Domainpopularität erklärt: Was ist mit DomPop gemeint?“ weiterlesen

Disavow Tool von Google richtig nutzen

Vielen Webmastern ist der Einfluss von Verlinkungen und des Ankertexts auf das Ranking innerhalb der Google-Websuche bekannt. Wie sich spätestens mit dem sogenannten „Pinguin-Update“ herausgestellt hat, muss dieser Einfluss aber nicht immer positiv sein. Durch das Pinguin-Update hat es Google geschafft, Manipulationen an der Verlinkungsstruktur besser zu erkennen und manipulierende Domains dafür zu bestrafen. In … „Disavow Tool von Google richtig nutzen“ weiterlesen

Breadcrumb Navigation: Vorteile und strukturierte Auszeichnung

Im Zusammenhang mit der Suchmaschinenoptimierung versteht man unter einem Breadcrumb (deutsch: Brotkrumen-Pfad) eine Navigationsmöglichkeit für Besucher und Suchmaschinen. Über den Breadcrumb-Pfad erhalten Nutzer die Möglichkeit, zum einen die Navigationsstruktur der aktuell aufgerufenen Seite nachzuvollziehen, und zum anderen auf höher gelegene Ebenen der Website zu navigieren. Breadcrumbs liefern also weitere semantische Informationen. Breadcrumbs werden häufig im … „Breadcrumb Navigation: Vorteile und strukturierte Auszeichnung“ weiterlesen

robots.txt erklärt: Mit der robots.txt das Crawling steuern

Über die robots.txt Datei kann das Crawling von Suchmaschinen gesteuert werden. Das bedeutet, dass Crawler darüber informiert werden, welche Inhalte einer Seite sie nicht abrufen dürfen. Dazu muss die robots.txt im sogenannten Root-Verzeichnis einer Domain abgelegt und folglich unter z.B. https://www.stephan-czysch.de/robots.txt abrufbar sein. Die Crawler großer Suchmaschinen halten sich an die dort definierten Angaben. Über … „robots.txt erklärt: Mit der robots.txt das Crawling steuern“ weiterlesen

Bilder SEO: Worauf es bei der Suchmaschinenoptimierung für Bilder ankommt

Kaum eine Website kommt ohne Bilder daher. Einer der Gründe dafür ist, dass Bilder von Menschen schneller aufgenommen werden können als Text. Die Kombination aus (Bewegt-)Bild und Texte liefert folglich eine gute Grundlage für ansprechende und erfolgreiche Websites. Und wenn man sich bereits viel Mühe macht, einen gut suchmaschinenoptimierten Text zu erstellen, warum dann auch … „Bilder SEO: Worauf es bei der Suchmaschinenoptimierung für Bilder ankommt“ weiterlesen

ALT-Attribut für Bilder SEO

Das Alt-Attribut, umgangssprachlich auch Alt-Tag genannt, ist für die Optimierung von Bildern für Suchmaschinen und aus Usability-Gesichtspunkten wichtig. Das Alt-Attribut erfüllt dabei mehrere Zwecke: Es wird angezeigt, wenn ein Bild nicht geladen werden kann Nutzer mit Screenreadern wird der Alt-Text vorgelesen Wenn Bild vom Browser nicht geladen werden, erscheint an deren Stelle die Alt-Attributinformation Um … „ALT-Attribut für Bilder SEO“ weiterlesen

SEO Browser Plugins & Bookmarklets: Der perfekte Browser für Suchmaschinenoptimierer

Die meisten SEO-Checks finden im Browser statt. Doch anstatt umständlich im Quelltext nach Überschriften, Canonical-Tags oder Robots-Angaben und Co., oder gar eine Seite auf einen Crawling-Ausschluss mittels robots.txt zu suchen, können diese Informationen von Browser Plugins direkt sichtbar gemacht werden. Steht die gerade aufgerufene Seite auf Noindex? Wurde das Canonical-Tag definiert? Das entsprechende SEO Browser … „SEO Browser Plugins & Bookmarklets: Der perfekte Browser für Suchmaschinenoptimierer“ weiterlesen

Sitemaps und SEO: XML-Sitemaps und HTML-Sitemaps erklärt

Webseiten können extrem umfangreich und unübersichtlich werden. Um Ordnung in immer größer werdende Webauftritte zu bekommen sind Sitemaps eine ausgezeichnete Lösung. Sitemaps geben eine Übersicht über (alle) auf der Website vorhandenen Adressen – idealerweise inklusive der Hierarchie zwischen den einzelnen Seiten. Je nach Dateiformat wird innerhalb der Suchmaschinenoptimierung zwischen HTML-Sitemaps und XML-Sitemaps unterschieden. Beide Typen … „Sitemaps und SEO: XML-Sitemaps und HTML-Sitemaps erklärt“ weiterlesen

Meta Robots Tag erklärt: Noindex, Nofollow & mehr

Meta-Angaben sind für die Suchmaschinenoptimierung weiterhin so wichtig wie eh und je. Dabei ist das Meta Robots Tag zusammen mit der Meta Description die wichtigste Angabe, die für einzelne Seiten vorgenommen werden kann. Welche Einstellungen es gibt und wie Sie die Meta Robots und X-Robots Angaben schnell kontrollieren können, erfahren Sie in diesem Artikel. Die … „Meta Robots Tag erklärt: Noindex, Nofollow & mehr“ weiterlesen

50+ kostenlose SEO-Tools für Ihren Erfolg

Für jede Online-Marketing Disziplin gibt es eine große Bandbreite an Tools – so natürlich auch für die Suchmaschinenoptimierung. Doch müssen es immer kostenpflichtige Tools sein? Reicht nicht der Funktionsumfang von kostenfreien Angeboten ebenfalls aus? Besonders private Webmaster und kleine Unternehmen verfügen nicht über das Budget, um jeden Monat 100 Euro und mehr für Tools zu … „50+ kostenlose SEO-Tools für Ihren Erfolg“ weiterlesen