Schlagwortarchiv für: Suchmaschinenoptimierung

Web Vitals: Bewertung der User Experience

Vor einige Wochen verkündete Google die Veröffentlichung von Web Vitals—einem neuen Set an Kennzahlen, die die Geschwindigkeit und Benutzerfreundlichkeit einer Webseite messen. Der Suchmaschinenanbieter fügte außerdem hinzu, dass die Metriken Teil eines zukünftigen Core Algorithm Updates werden sollen, um eine einheitliche Grundlage zur Bewertung und zum Ranking einer Seite zu schaffen—basierend auf der Nutzerfreundlichkeit, die eine Seite anbietet. Dieses Update soll nächstes Jahr anstehen.

Steigende Relevanz der Nutzererfahrung

2010 kündigte Google die Berücksichtigung der Geschwindigkeit einer Webseite an, um das Ranking in den Suchergebnissen zu bestimmen. Acht Jahre später setzte Google diese Entwicklung fort, indem sie die Geschwindigkeit auch in den mobilen Suchergebnissen miteinbezog. Nun veröffentlicht der Suchmaschinenanbieter ein neues Update, das sich einer Großzahl an neuen oder aktualisierten Kennzahlen bedient, und in Zusammenspiel mit anderen Faktoren zur Nutzererfahrung das Page Experience Update präsentiert.

Haben Sie sich schon mal Gedanken über Ihre persönliche Nutzererfahrung auf einer Seite gemacht? In einer ideal Welt würde man auf einen Link in den Suchergebnissen klicken und die entsprechende Seite würde sich öffnen. Doch leider ist das nicht immer der Fall. Seit Jahren schon werden Webseiten—auch einzelne Unterseiten—immer größer; dabei gilt auch beispielsweise JavaScript als eines der Faktoren, die eine Seite komplexer und schwieriger zu laden machen. Selbst mit blitzschnellen Internetverbindungen und kraftvollen Geräten kann sich das Laden einer Seite in die Länge ziehen.

Jahrelang galt die Devise, eine Webseite auf Geschwindigkeit zu optimieren. Aber Ladezeiten bilden nur ein Teil der Gleichung, und es ist eben der zweite Teil dieser Gleichung, der schwer zu definieren und messen ist. Es geht darum, wie ein Nutzer eine Webseite erlebt. Eine Seite mag den Zahlen zufolge schnell sein, aber fühlt sie sich auch schnell an? User Experience wird also immer mehr zu einem relevanten Faktor.

Great page experiences enable people to get more done and engage more deeply; in contrast, a bad page experience could stand in the way of a person being able to find the valuable information on a page.

Sowmya Subramanian‎, Google Director of Engineering for Search Ecosystem

Einführung von Web Vitals

Im Mai 2020 kündigte Google die Einführung von Web Vitals an. Innerhalb dieser neuen Kennzahlen, die im Rahmen dieses Projekts intensiv recherchiert und geschaffen wurden, existiert eine Gruppe an Metriken, auf die sich jeder Webseiteninhaber fokussieren sollte: die sog. Core Web Vitals. Laut Google sind diese Metriken „[…] a set of real-world, user-centered metrics that quantify key aspects of the user experience.

Core Web Vitals
Bild: Google

Jedes Core Web Vital widmet sich einem spezifischen Teil der Nutzererfahrung und gemeinsam helfen sie Google (und Ihnen als Nutzer), diese zu verstehen. Aktuell hat Google drei Faktoren spezifiziert:

  • Loading
  • Interactivity
  • Visual Stability

Diesen Faktoren entsprechen folgende Metriken:

  • LCP (Largest Contentful Paint): LCP misst die Ladezeit des größten Elements, das sich im sichtbaren Bereich einer Webseite befindet. Um eine positive Nutzererfahrung zu bieten, sollte dies laut Google innerhalb von 2,5 Sekunden eintreten.
  • FID (First Input Delay): FID misst, wie lange es dauert, bis der Browser auf die erste Aktion des Nutzers (beispielsweise Button-Klick) reagiert. Google sieht hier einen Wert von unter 100 Millisekunden als gut an.
  • CLS (Cumulative Layout Shift): CLS gilt als Metrik für die visuelle Stabilität der Seite und misst, wie oft sich Elemente verschieben.

Kombination neuer Kennzahlen mit existierenden Faktoren

Die Einführung von Web Vitals an sich ist schon bemerkenswert, doch Google ist noch einen Schritt weiter gegangen. Google wird diese neuen Kennzahlen mit den aktuell bestehenden Faktoren kombinieren, um das Ranking einer Webseite zu bestimmen. Manche Faktoren zählen bei der Gewichtung mehr, doch die meisten haben einen kleinen Einfluss. Wenn man alle kombiniert, bilden sie die Grundlage für das Ranking.

Die neuen Web Vitals kommen zu den folgenden Faktoren hinzu:

  • Mobile Friendliness: Ist Ihre Webseite für die mobile Ansicht optimiert?
  • HTTPS: Hat Ihre Webseite eine sichere Verbindung?
  • Interstitial Ads: Setzen Sie Werbebanner und Pop-Ups nur dann ein, wenn sie auch wirklich nötig sind?
  • Safe Browsing: Ist Ihre Webseite sicher für Nutzer?

Zusammen ergeben sie ein Gesamtbild mit allen Faktoren, die messen, was ein Nutzer auf einer Webseite erlebt.

Faktoren der Nutzerfreundlichkeit
Bild: Google

Webseitenbetreiber, SEO-Experten und Entwickler haben nun mehr als genug Zeit, um sich auf diese Veränderungen vorzubereiten. Wenn auch Sie eine Webseite betreiben und nun Ihre Webseite auf den neuesten Stand in Sachen SEO bringen möchten, kontaktieren Sie uns gerne! Unsere SEO-Experten besitzen langjährige Erfahrung in diesem Bereich und können Ihnen gerne behilflich sein.

6 nicht zu unterschätzende Rankingfaktoren

Im Netz gibt es unzählige Aufzählungen der Rankingfaktoren, die im SEO-Bereich unentbehrlich für ein erfolgreiches Ranking bei Google wichtig seien. Diese Listen sind aber meistens zu lang, da sie oftmals alle möglichen Faktoren aufzählen und somit keinen besonderen Fokus auf einzelne Kriterien legen. In unserem heutigen Beitrag möchten wir anders vorgehen – wir stellen ihnen hier 6 Rankingfaktoren von Google vor, die unseres Erachtens nicht zu unterschätzen sind.

Backlinks

Unsere Liste ist in loser Reihenfolge aufgebaut, doch Backlinks – also Links von anderen Seiten, die auf die eigene Seite verweisen – stellen wohl den wichtigsten Rankingfaktor dar. Wieso? Backlinks bilden die Grundlage für Google PageRank. PageRank wiederum stellt die Basis für Googles Ranking-Algorithmus dar – und nein, PageRank ist nicht tot.

Unabhängige Untersuchungen haben ebenfalls eine Abhängigkeit zwischen Backlinks und organischem Traffic bestätigt.

Abhängigkeit zwischen verlinkenden Domains und organischem Traffic
Quelle: https://ahrefs.com/blog/google-ranking-factors/ (Stand 20.04.2020, 16:12)

Jedoch sind nicht alle Backlinks gleich geschaffen. Viele Faktoren tragen zum Erfolg von Backlinks bei – und zwei von ihnen sind Relevanz und Autorität.

Relevanz

Stellen Sie sich vor, Sie suchen nach dem besten italienischen Restaurant in Ihrer Stadt. Sie fragen zwei Ihrer Freunde nach Empfehlungen. Einer Ihrer Freunde ist ein Koch, der andere ist ein Tierarzt. Wessen Empfehlung würden Sie eher in Betracht ziehen?

Wahrscheinlich die des Koches, da er Erfahrung mit der italienischen Küche hat. Wenn Sie auf der Suche nach Hundefutter wären, wäre eher das Gegenteil der Fall.

Diese Idee entspricht auch der Funktionsweise im Internet, denn Links von relevanten Webseiten besitzen den höchsten Wert für Ihre Online-Präsenz.

Autorität

Backlinks von starken Webseiten ausgehen und zu starken Webseiten führen, beinhalten normalerweise den größten Erfolg.

Darüber hinaus sind es interne Links, die zur Autorität einer Seite beitragen.

Freshness

Freshness ist in etwa mit Neuheit oder Aktualität zu übersetzen und ist in diesem Kontext abhängig von der individuellen Suchanfrage; das bedeutet, dass Freshness für manche Suchanfragen wichtiger ist als für andere.

Beispielsweise sind alle Suchergebnisse zum Thema „Corona“ sehr aktuell. Google zeigt sogar ein Feature mit „Schlagzeilen“ mit Ergebnissen der letzten Stunden und Minuten.

Aktualität der Google-Ergebnisse bei Suche nach "Corona"

Das passiert, weil Google weiß, dass Menschen aktuelle Nachrichten und Ereignisse zu diesem Thema sehen möchten. Für andere Suchanfragen spielt Freshness weiterhin eine Rolle – jedoch eine eher untergeordnete.

Sehen wir uns die Suchanfrage „Bester Bürostuhl“ an.

Da Hersteller für Büromöbel neue Produkte nur von Zeit zu Zeit ausfahren, ist ein Suchergebnis bzw. eine Empfehlung von November auch heute noch eine wertvolle Empfehlung.

Google weiß das auch, weshalb die Suchmaschine auch Ergebnisse aus relativ vergangener Zeit auf der ersten Seite anzeigt.

Suchergebnisse für "Bester Bürostuhl"
Quelle: https://ahrefs.com/blog/google-ranking-factors/ (Stand 20.04.2020, 16:16)

Für eine Suchanfrage wie „Krawatte binden“ ist Freshness kaum relevant, denn die Art und Weise, wie man eine Krawatte bindet, ändert sich kaum. Eine Anleitung, die vor zehn Jahren veröffentlicht wurde, kann genauso gut sein wie ein Tutorial, das gestern veröffentlicht wurde.

Das ist auch der Grund, wieso Google neue und alte Seiten auf der ersten Seite der Suchergebnisse rankt.

Screenshot Erläuterung Krawatte binden

Quelle: https://ahrefs.com/blog/google-ranking-factors/ (Stand 20.04.2020, 16:23)

Thematische Autorität

Google strebt danach, Seiten von autoritären Quellen zu ranken – und das geht über Backlinks hinaus. Woher wir das wissen?

Schauen Sie sich die SEO-Metriken der Topergebnisse für die Suchanfrage „cast iron seasoning“ (zu dt. „Gusseisenpfanne einbrennen“) an.

Suche nach "Gusseisenpfanne brennen"
Quelle: https://ahrefs.com/blog/google-ranking-factors/ (Stand 20.04.2020, 16:23)

Nur auf den Metriken basierend ist es schwer zu begreifen, wieso die ersten beiden Resultate das dritte Ergebnis rangmäßig übertreffen. Beide besitzen weniger Backlinks, weniger verweisende Domains, niedrigere UR-Ergebnisse und beruhen auf Webseiten mit geringer Autorität.

Aber wenn wir einen genaueren Blick auf die Webseiten werfen, macht es Sinn.

Die Seite auf dem dritten Platz ist ein generischer Blog zum Thema Kochen und Lifestyle. Jedoch verkaufen die beiden höherrangigen Seiten Eisengusswaren – und nichts Anderes.

In anderen Worten haben die beiden Webseiten mit dem höheren Rang thematische Autorität.

Gibt es, abgesehen von diesen anekdotischen Ergebnissen wirklich Beweise dafür, dass Google thematische Autorität als einer seiner Rankingfaktoren sieht? Absolut. Googles Search Quality Evaluator Guidelines bestätigt dieses dies in Bezug auf das E-A-T-Konzept an. Dieses Thema hatten wir in einem früheren Beitrag schon angesprochen.

Suchabsicht

Google rankt nicht immer dieselbe Art von Inhalt für jede Suchanfrage.

Wenn zum Beispiel jemand eine Suchanfrage zum Online-Kauf von Kleidern, ist diese Person im Kaufmodus. Sie möchte also wahrscheinlich Produkte sehen, die sie kaufen können. Aus diesem Grund zeigt Google Ergebnisse von verschiedenen E-Commerce-Shops.

Screenshot Erläuterung Kleidung online kaufen
Quelle: https://ahrefs.com/blog/google-ranking-factors/ (Stand 20.04.2020, 16:23)

Auf der anderen Seite ist eine Person, die nach Anleitung zum Binden einer Krawatte such, wahrscheinlich im Lernmodus. Sie möchte also wissen, wie man eine Krawatte bindet – nicht, wo man eine kaufen kann. Deshalb zeigt Google bei dieser Suchanfrage vermehrt Blogbeiträge.

Quelle: https://ahrefs.com/blog/google-ranking-factors/ (Stand 20.04.2020, 16:23)

Geschwindigkeit der Webseite

Die Geschwindigkeit einer Seite ist schon seit 2010 ein Rankingfaktor. 2018 wurde damit begonnen, mobile Webseiten zu berücksichtigen.

Die Wichtigkeit hierbei ist, dass es nicht unbedingt darauf ankommt Millisekunden schneller als die Konkurrenz zu sein, sondern die Erfahrung des Kunden auf Ihrer Seite nicht negativ zu beeinflussen.

Wie schnell sollte eine Seite also laden?

Im Jahre 2018 sagte Google, dass mobile Seiten weniger als drei Sekunden brauchen sollten, um dem Nutzer Inhalte anzuzeigen. Der Suchmaschinenanbieter sagte außerdem, dass die Größe einer mobilen Seite weniger als 500kb betragen sollte.

In diesem Zusammenhang ist auch der nächste Punkt relevant.

Mobile Friendliness

Beinahe 2/3 aller Suchanfragen laufen über mobile Geräte, also ist es kein Wunder, dass Google die mobile „Freundlichkeit“ einer Seite Im Jahre 2015 als Rankingfaktor aufgenommen hat. Im Juli 2019 fügte Google „mobile-first indexing“ als Rankingfaktor für Desktopsuchen hinzu.

Um einen der oberen Rankingplätze bei Google zu belegen, bedarf es nicht unbedingt der aktuellsten Tipps und Tricks. Wichtig ist, Arbeit in guten Content zu stecken, nach denen Nutzer suchen, die eine angenehme Nutzererfahrung bieten und Google deutlich macht, dass es das beste Ergebnis für ein bestimmtes Resultat ist.

Wenn auch Sie dabei sind, Ihre Webseite SEO-technisch und hinsichtlich Rankingfaktoren zu optimieren und dabei Unterstützung benötigen, kontaktieren Sie uns gerne! Unsere erfahrenen Mitarbeiter im Bereich Online-Marketing stehen Ihnen mit Rat und Tat zur Seite, sodass Ihre Webseite in den Suchergebnissen von Google höher rankt.

Was ist Black-Hat-SEO?

Klingt nach Magie und Illusion, aber nein – Black-Hat-SEO hat nur teilweise etwas mit der Verschleierung von Dingen zu tun. Der Begriff bedeutet zu Deutsch „Schwarzer-Hut-SEO“ und beschreibt eine bestimmte Vorgehensweise der Suchmaschinenoptimierung. Dabei werden unethische Praktiken angewendet, sodass eine Webseite höher in den Suchmaschinenergebnissen rankt. Oftmals besteht aber auch der Fall, dass sich der Betreiber einer Webseite nicht dessen bewusst ist, dass er Black-Hat-SEO betreibt –  und dafür vom Suchbot bestraft wird.

Obwohl Webseiten mithilfe von Black-Hat-SEO kurzzeitig ein höheres Ranking in Suchmaschinen erzielen, werden sie von Suchmaschinen früher oder später wieder zurückgestuft. Deshalb ist es wichtig, die Funktionsweise identifizieren zu können. Wir stellen hier fünf beliebte Techniken von Black-Hat-SEO vor, auf die Sie auf Ihrer eigenen Webseite und auf anderen Webseiten achten sollten. Google selbst listet diesbezüglich ebenfalls verschiedene Verfahren auf.

1. Bezahlte Links

Linkpopularität ist eines der bedeutendsten Faktoren, mit denen Google und andere Suchmaschinen Webseiten ranken. Je mehr andere Webseiten auf Ihre Webseite verlinken und je höher die Domain Authority dieser Webseiten ist, desto höher wird auch Ihre Autorität von Google eingeschätzt.

Googles Definition eines bezahlten Links lautet folgendermaßen: Ein bezahlter Link ist mit Geld oder gegen andere Waren gekauft. Der Suchmaschinenbetreiber investiert heute eine signifikante Menge an Ressourcen, um bezahlte Links und sogenanntes Linkfarming zu unterbinden.; doch SEO-Tools sind nicht unbedingt dazu nötig, um zu bestimmen, ob eine Webseite Links gekauft hat.

Zuerst schaut man sich den Ankertext an; also der klickbare Text, der auf einer Webseite als Hyperlink funktioniert. Wenn der Text willkürlich oder wahllos klingt, dann besteht eine Möglichkeit, dass der Link gekauft ist. Als nächstes bewertet man die Anzahl an Links auf einer beliebigen (Unter-)Seite der Webseite; wenn eine Seite voll von willkürlich gesetzten Links ist, die mit dem gelinkten Text nicht in Beziehung stehen, sind sie höchstwahrscheinlich gekauft.

SEO-Tools als Hilfe

Für eine detailliertere Identifizierung und Analyse von bezahlten Links stehen verschiedene SEO-Tools zur Verfügung, mit welchen man bezahlte Links ausfindig machen kann. Die besten SEO-Tools, die das Suchmaschinen-Ranking verbessern, erstellen ein vollständiges Linkprofil für die eigene Seite oder jede andere gewünschte Seite. Damit kann unter anderem bestimmt werden, wie viele Backlinks eine Webseite hat und von wo diese Backlinks ursprünglich kommen.

Typischerweise werden Links nicht einzeln, sondern in großen Massen gekauft. Wenn bei der Analyse einer Webseite auffällt, dass sehr viele minderwertige Backlinks von anderen Seiten mit geringer Autorität vorhanden sind, ist es sehr wahrscheinlich, dass diese Links gekauft sind.

2. Keyword Stuffing

Keyword Stuffing beschreibt ein Prinzip, bei dem Suchbegriffe oder das Keyword einer Seite permanent in den textlichen Inhalten, als Linktexte oder auch in den Metadaten wiederholt werden. So soll die Relevanz der Keywords erhöht werden; doch Suchmaschinen wie Google ahnden diese Vorgehensweise als Spamtechnik. Das bedeutet in der Folge normalerweise eine Abwertung der Seite.

Keyword Stuffing ist etwas schwieriger zu identifizieren. Am besten schaut man deshalb im Titel, in der Einleitung und in den Meta-Daten einer Webseite. Erscheint das Keyword an einer Stelle, an der es irrelevant wirkt? Wird das Keyword unnatürlich oft genutzt? Dann ist wahrscheinlich von Keyword Stuffing auszugehen. Am besten vertraut man hier seiner Intuition. Wenn man das Gefühl hat, dass das Keyword im normalen Lesefluss zu oft benutzt wurde, dann ist das wahrscheinlich auch der Fall.

3. Hidden Links

Unter Hidden Links versteht man die versteckte Platzierung von Links auf einer Seite. Sie kommen inzwischen nicht mehr so häufig vor wie es früher der Fall war, aber trotzdem begegnet man dieser Black-Hat-SEO-Technik auch heute noch. Hidden Links sind zwar für den normalen Nutzer nicht zu sehen, aber dennoch berücksichtigen Suchbots sie beim Ranking einer Webseite.

Googles Richtlinien zu Black-Hat-SEO verbieten folgende Techniken:

  • Platzierung von Texten hinter Bilder
  • Platzierung von Links außerhalb des Bildschirms
  • Texte mit der Schriftgröße null
  • Benutzen von weißem Hintergrund mit weißem Text
  • Verlinkung eines kleinen Teils eines Textes

Anstatt sich Seite für Seite durch das Backend einer Webseite zu graben, kann man sich auch verschiedene SEO-Tools zunutze machen. Die Software erstellt dann eine vollständige Liste aller Hyperlinks einer Webseite, inklusive der Links, die man mit dem bloßen Auge nicht sehen kann.

4. Cloaking und Umleitungen

Beide Begriffe beziehen sich grundlegend auf eine ähnliche Art der Black-Hat-SEO-Technik. In einfachen Worten werden hierbei dem Webcrawler und dem regulären Nutzer zwei verschiedene Seiten präsentiert – doch mit der gleichen URL. Haben Sie schon einmal eine Webseite besucht und wurden dann auf eine komplett andere Seite weitergeleitet? Suchmaschinen nennen dieses Prinzip einen „sneaky redirect“ – also eine tückische Weiterleitung.

Das Ziel solch einer Weiterleitung besteht darin, Traffic auf eine bestimmte Webseite zu leiten, während das Suchmaschinenranking der Webseite auf den Inhalten einer komplett anderen Webseite basiert.

Cloaking („Verhüllung“) funktioniert nach einem ähnlichen Prinzip; hier werden den Webcrawlern HTML vorgehalten, während der Nutzer Flash oder Bilder angezeigt bekommt.

5. Private Blognetzwerke (PBN)

Private Blognetzwerke bilden ein Netzwerk an Backlinks; typischerweise geschieht dies durch eine Reihe an miteinander verbundenen Blogs. Sie werden genutzt, um eine Art Domain Authority miteinander aufzubauen oder das Ranking einer bestimmten Seite zu verbessern. Google arbeitet stets daran, private Blognetzwerke zu bestrafen. Das Unternehmen ist in der Lage, ein Blognetzwerk mithilfe folgender Informationen ausfindig zu machen:

  • Gleiche IP-Adresse
  • Ähnlicher oder gleicher Webseiteninhalt
  • Gleiche Webseitenbesitzer
  • Gemeinsam benutzte Server

Diese Art von Black-Hat-SEO zu identifizieren ist relativ simpel für Suchmaschinen, denn es ist einfach, diese Muster zu erkennen.

Fazit: Black-Hat-SEO beeinflusst das Suchmaschinen-Ranking

In unserer heutigen Zeit sind Suchmaschinen-Algorithmen sehr fortgeschritten. Das ist ein Vorteil für Unternehmer und Firmen, die auf SEO ausgerichtet sind und darauf zielen, für bestimmte Keywords zu ranken. Mit der Unterstützung von Agenturen und SEO-Managern ist es möglich, eine erfolgreiche SEO-Strategie aufzubauen. Menschen, die sich die Black-Hat-SEO-Strategien zunutze machen, sind jedoch mit jedem neuen Google Update davon bedroht, dafür bestraft zu werden.

Um das Suchmaschinenranking der eigenen Webseite zu verbessern ist es alles in allem am besten, informativen Content zu produzieren und den Richtlinien von Google zu folgen. Diese Art der Suchmaschinenoptimierung wird im Übrigen auch als White-Hat-SEO bezeichnet.

Nielsen-Studie: Darstellung der SERP-Ergebnisse hat Einfluss auf unser Suchverhalten

Je nachdem, welche Suchbegriffe User in der Google-Suchmaschine eingeben, ändern sich auch die SERP-Ergebnisse, also die Suchergebnisseiten. Das hat nun eine aktuelle Untersuchung des Datenanalyseunternehmens Nielsen herausgefunden. Diese hat ergeben, dass die veränderte Darstellung der Suchergebnisse auch unser Suchverhalten dahingehend beeinflusst, wie wir die Ergebnisse lesen.

Ist es Ihnen schon einmal aufgefallen? Vorbei sind die Zeiten, in denen Google bei einer Suche eine simple Ergebnisliste von 10 Links anzeigte – jedes einzelne Ergebnis kompakt strukturiert mit einer URL, einem blauen Link und einem kleinen Textauszug. Heutzutage hat sich vieles verändert; Suchmaschinenergebnisseiten (SERPs) sind inzwischen viel komplexer im Aufbau, denn der Großteil von SERPs in Suchmaschinen wie Google und Bing enthält nun mindestens ein informatives und interaktives Feature.

SERP Vergleich

Links: Suchergebnisse für George Brett aus dem Jahr 2009. Rechts: Ergebnisse für dieselbe Suche aus dem Jahr 2019. Hinzugekommen sind eine Reihe an Features, Inhalten und Präsentationsweisen.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:31)

Das „Pinball-Muster“

Das sich fortwährend weiterentwickelnde SERP hat auch Einfluss darauf, wie Nutzer Suchen tätigen. Jedes neue Feature, das implementiert wird, ändert den Fokus bzw. die Konzentrationsrichtung der User. In der Vergangenheit konzentrierten sich Nutzer mit sehr großer Wahrscheinlichkeit auf die ersten drei oder vier Suchergebnisse ganz oben auf der Seite und bewegten sich dann der Reihe nach von Ergebnis zu Ergebnis weiter nach unten. In der 2013 von Nelson veröffentlichten Ausgabe des Berichts „How People Read on the Web“ fand das Unternehmen heraus, dass in 59% der Fälle, die Suchergebnisse von Nutzern sequenziell nach unten gelesen werden – vom ersten, zum zweiten, zum dritten Ergebnis, ohne eines der Ergebnisse zu überspringen oder den rechten Teil der Webseite zu beachten.

Dieses lineare SERP-Verhalten existiert auch heute noch, aber inzwischen ist es eher die Ausnahme als die Regel. Heutzutage ist beobachtbar, dass die Aufmerksamkeit von Nutzern auf die ganze Seite verteilt ist und dass sie Ergebnisse auf non-lineare Art und Weise wahrnehmen. Nelson stellte fest, dass so viel zwischen verschiedenen Ergebnissen und Teilen der Webseite rumgesprungen wurde, dass sie dieses Phänomen mit einer neuen Bezeichnung betiteln: dem „Pinball-Muster“.

Beim „Pinball-Muster“ scannt der Nutzer die Suchergebnisseite auf eine höchst non-lineare Weise und springt zwischen den Suchergebnissen an sich und den SERP-Features hin und her.

Pinball Muster

Links: Eine traditionelle Flipperautomat mit verschiedenen Hindernissen, Bumpern und Zielen. Rechts: Das Pinball-Muster einer SERP. Der Blick des Nutzers wechselt hier auf ähnliche Art und Weise von einer Stelle zur anderen, zwischen verschiedenen Elementen hin und her.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:36)

Wie kommt das „Pinball-Muster“ zustande?

In heutiger Zeit beinhalten SERPs nicht nur einfache Links, sondern auch Bilder, Videos, eingebettete Textinhalte und sogar interaktive Features. Jede mögliche Suchanfrage kann durch eine Auswahl verschiedenster visueller Elemente dargestellt werden. Die Vielfalt der Informationen und die Präsentation dieser spielt eine wichtige Rolle dabei, wie sich der Nutzerfokus beim Aufruf von SERPs verändert.

Suchanfrage

Links: Beim Experiment hat eine Teilnehmerin nach einer bestimmten Art Abflussrohr gesucht. Die Suche lieferte Textergebnisse, eine Shopping-Liste, Videos, ein Featured Snippet und mehr. Der Blick der Teilnehmerin folgte hier dem Prinzip einer Pinball-Maschine.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:43)

Das visuelle Gewicht der Seitenelemente ist es, was das Scanmuster von Nutzern vorantreibt. Denn diese Elemente sind über die ganze Seite verteilt und manche SERPs haben mehr visuelle Elemente als andere – deshalb ist das Blickmuster nicht linear. Die Präsenz und Position der visuellen Elemente beeinflusst oftmals die Sichtbarkeit der organischen Suchergebnisse, die sich in der Nähe befinden.

Suchanfrage Zwei

Das Bild zeigt die Blickrichtung eines Teilnehmers. Die Zahlen beziffern die Anzahl der Blicke auf eine Stelle. Zuerst fokussierte sich der Teilnehmer auf die Preise der gesponsorten Artikel auf der rechten Seite, sprang dann zum Featured Snippet und dann wieder hoch zum ersten und dritten Suchergebnis (beides Werbung). Erst dann blickte der Teilnehmer weiter nach unten auf der Seite.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:51)

Der komplexe und dynamische Inhalt einer Ergebnisseite erhält sehr viel Aufmerksamkeit. Die Studie von Nelson hat herausgefunden, dass, wenn SERP-Elemente (wie Featured Snippets) auf einer SERP vorhanden waren, sie in 74% der Fälle angeschaut wurden.

Organische Suchen

Sogar organische Suchergebnisse sind inzwischen komplexer als sie es früher waren. Manche Ergebnisse werden mit Links zu Untersektionen der Seite präsentiert. Auch Suchleisten, die sich speziell auf eine bestimmte Seite beziehen, kommen vor.

Untersektionen und Suchleiste

Untersektionen und Suchleiste einer Webseite bei einer Suchanfrage.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:56)

Suchergebnisseiten sind heutzutage von Suchanfrage zu Suchanfrage so verschieden, dass Nutzer oftmals dazu gezwungen sind, erstmal die erscheinende Seite einzuschätzen. Das bedeutet, das Layout einer SERP kann bestimmen, welchen Links (mehr) Sichtbarkeit und Klicks bekommen.

Die Inkonsistenz des SERP-Layouts bedeutet auch, dass Nutzer mehr Anstrengungen darin reinstecken müssen, die Seite einzuschätzen und zu bewerten. Auf der einen Seite könnte es sein, dass Suchmaschinen Nutzer dazu ermutigen möchten, sich mehr als nur die ersten paar Suchergebnisse anzuschauen. Auf der anderen Seite entscheiden sich Nutzer sehr schnell für ein bestimmtes Suchergebnis. Nelson hat in diesem Zusammenhang herausgefunden, dass sich Nutzer die Suchergebnisse für durchschnittlich 5,7 Sekunden anschauen bevor sie ihre erste Entscheidung treffen.

Wenn jedoch SERP bzw. ein Suchanfragengerüst für die eigene Seite erstellt wird, dann sollte man darauf achten, dass sich Nutzer nicht auf der Suchseite verlieren. Ein konsistentes Layout, das sich nicht von Suchanfrage zu Suchanfrage ändert, ist hierbei geeignet. So können sich Nutzer und potenzielle Kunden auf die Inhalte konzentrieren anstatt von der Seitengestaltung abgelenkt zu werden.

Was bedeutet dieses Muster für Content Creator und Webseitenbetreiber?

In vergangener Zeit sagte man in Bezug auf SEO: „Wenn du nicht der Erste bist, bist du der Letzte.“ Früher war es so, dass man nicht viele Klicks bekam – oder dass jemand die Seite beachtet hat – wenn man nicht an erster Stelle der Suchergebnisse stand. Die Zeiten haben sich aber geändert; inzwischen sind Klicks und Blicke über die ganze Seite verteilt – auch je weiter unten sich die Ergebnisse befinden.

Im Jahr 2006 war es noch so, dass das erste Suchergebnis 51% der Klicks erhielt. Nielsen hat bei der Durchführung der eigenen Studie jedoch herausgefunden, dass das erste Suchergebnis – das Item, was sich immer als erstes unter der Suchleiste befindet – nur 28% der Klicks erhielt. Der Anteil ist also fast zur Hälfte runtergegangen, was eine dramatische Verhaltensänderung innerhalb einer relativ kurzen Zeit von einem Jahrzehnt bezeichnet. 59% der Klicks verteilten sich laut Nelson auf die ersten drei Suchergebnisse. Ergebnisse, die sich noch weiter unten befanden, erhielten mehr etwas mehr Klicks als sie es 2006 taten.

Verteilung der Klicks

Verteilung der Klicks auf die ersten fünf Suchergebnisse bei SERP-Anfragen.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:58)

Art der Suchanfrage

Nelson zufolge spielte hierbei auch die Art der Suchanfrage eine Rolle. Bei einfachen Anfragen nach kurzen Informationen (Beispiel: „Was ist das höchste Gebäude der Welt?“) verließen sich die Nutzer zumeist auf die ersten paar Suchergebnisse der Seite und waren seltener dazu bereit, sich die Ergebnisse weiter unten auf der Seite anzuschauen. Anders jedoch bei komplexen Suchanfragen, die etwas mehr Recherche erforderten (Beispiel: „Wieviel Kies brauche ich für meinen Garten?“). Hier waren Nutzer bereit, auch die weiter untenliegenden Suchergebnisse durchzuforsten.

Selektionen Above and Below Fold

Selektionen Above and Below Fold.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 16:01)

Dieses Resultat bedeutet, dass Webseitenbetreiber, die tiefgründiges Wissen über ein bestimmtes Thema zur Verfügung stellen, nicht daran verlieren, selbst wenn sie weiter unten in den Suchergebnissen auftauchen.

Nelson fand in einer Untersuchung im Jahr 2010 heraus, dass in 59% der Fälle, Nutzer nicht über das dritte Suchergebnis hinausgehen. Der aktuellen Studie zufolge ist es aber so, dass sogar das Suchergebnis auf Platz 6 in 36% der Fälle Aufmerksamkeit bekommt.

Verteilung der Klicks und Blicke

Verteilung der Klicks und Blicke für die ersten zehn Suchergebnisse.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 16:06)

Ergebnis der Studie

Diese Ergebnisse klingen vielversprechend für Webseitenbetreiber. Wenn die eigene Seite nicht an erster Stelle rankt, ist das natürlich nicht ideal. Aber solange die Webseite weiter oben erscheint – also innerhalb der ersten fünf Ergebnisse – hat sie eine 10 bis 20-prozentige Chance, geklickt zu werden und eine 40 bis 80-prozentige Chance, dass ein Blick darauf geworfen wird.

Ein Blick mag unwichtig klingen, aber es hat das Potenzial, sehr wertvoll zu sein. Laut Nelson entdecken Nutzer während einer Suche ihnen vorher unbekannte Webseiten. Selbst wenn sie einen Link zum ersten Mal sehen und nicht darauf klicken, bleibt der Name der Webseite in der Erinnerung und hat das Potenzial, bei der nächsten Suche angeklickt zu werden.

Ein klassischer Tipp der SEO-Branche bleibt jedoch weiterhin bestehen: Auf der ersten Seite der Suchergebnisse zu erscheinen ist ein Muss. Nelsons Analyse zeigt, dass Nutzer nur in 2% der Fälle weiter auf die zweite Seite der Suchergebnisse klickten.

Fazit

Wenn sich auf einer Suchergebnisseite komplexe und visuell ansprechende Elemente befinden, ist die Wahrscheinlichkeit höher, dass Nutzer von diesen Elementen angezogen werden und ihre Aufmerksamkeit über die gesamte SERP verteilen.

Wenn Webseitenbetreiber es schaffen, unter die ersten fünf Suchergebnisse zu kommen, haben sie gute Chancen (40 bis 80%), einen wertvollen Blick der Nutzer zu erhalten.

Trotzdem ist es weiterhin wichtig, auf der ersten Seite der Suchergebnisse zu erscheinen, da die Wahrscheinlichkeit, angeklickt zu werden, sinkt, je weiter hinten man sich befindet.

SEO Rankingfaktor E-A-T

E-A-T: Nicht etwa das englischsprachige Verb, sondern ein Akronym für die Begriffe „Expertise, Authoritativeness, Trustworthiness“. Ins Deutsche übersetzt bedeutet das so viel wie Expertise, Autorität und Vertrauenswürdigkeit. Diese drei Begriffe spielen bei der Bewertung der Qualität von Webseiten eine entscheidende Rolle und sind auch von Google offiziell als Rankingfaktoren bestätigt. In den von Google veröffentlichten „Search Quality Evaluator Guidelines“ wird das Akronym E-A-T häufig genannt; vor allem in Bezug auf Webseiten aus dem Bereich YMYL – eine Abkürzung für „Your Money, Your Life“. Damit sind vor allem sensible Branchen wie Gesundheit, Recht oder Finanzen gemeint. Hier ist es für Webseitenbetreiber besonders wichtig, ein gutes E-A-T-Ranking zu erhalten.

Wofür steht E-A-T?

  1. E für Expertise: Der englische Begriff hat in diesem Zusammenhang grundlegend dieselbe Bedeutung wie im Deutschen, denn damit ist an erster Stelle ein tiefgründiges Wissen über ein bestimmtes Thema gemeint. Dies wird beispielsweise Menschen zugeschrieben, die sich auf wissenschaftlicher Ebene mit einem Thema beschäftigen; so zum Beispiel Akademiker oder Sachverständige.
  2. A für Authoritativeness: Übersetzt mit „Autorität“ beschreibt der Begriff vor allem Menschen mit einer hohen Autorität zu einem bestimmten Thema. Wenn an einer Webseite also Personen mit speziellen Qualifikationen arbeiten bzw. mitschreiben, ist es sicherlich von Vorteil, dies auch zu präsentieren; so zum Beispiel in Form von akademischen Titeln, biographischen Angaben und Links zu professionellen Webseiten dieser Personen.
  3. T für Trustworthiness: Hier ist es wichtig, vor allem auf die User einer Webseite einzugehen, denn Vertrauen zwischen beiden Parteien ist sehr wichtig, wenn Nutzer auf der Webseite verweilen bzw. diese nutzen sollen. Wie auch weiter oben genannt, ist dies einer der wichtigsten Faktoren für Webseiten aus dem Bereich „YMYL“. Diese Seiten haben in Sachen Vertrauen einen höheren Anspruch, da oftmals sensible Daten gehandhabt werden.
E-A-T

Rankingfaktoren E-A-T: Expertise, Authoritativeness, Trustworthiness
Quelle: https://static.googleusercontent.com/media/guidelines.raterhub.com/en//searchqualityevaluatorguidelines.pdf
(Stand: 18.11.2019, 14:07)

Bedeutung von E-A-T für die Suchmaschinenoptimierung

E-A-T ist bei der Qualitätsbeurteilung von Webseiten, insbesondere bei YMYL-Seiten, eine große Rolle. Aus diesem Grund ist es auch ein Thema, mit dem sich SEO-Manager früher oder später befassen müssen. E-A-T ist definitiv ein Rankingfaktor, dessen Wichtigkeit seit dem Core Update letztes Jahr deutlich zugenommen hat.

Für E-A-T ist sowohl die Qualität der Webseite als auch die der Autoren der Inhalte von großer Bedeutung. Das bedeutet, dass eine Webseite, die aktuelle, tiefgründige und gut recherchierte Inhalte enthält, von Google als genauso wichtig empfunden wird wie der Autor, der die Inhalte verfasst hat. Außerdem ist an dieser Stelle festzuhalten, dass sich E-A-T-Faktoren laut Gary Illyes von Google per Link zwischen Autoren übertragen lassen.

https://twitter.com/Marie_Haynes/status/1182323804812374016

Quelle: https://twitter.com/Marie_Haynes/status/1182323804812374016
(Stand: 18.11.2019, 14:12)

Damit Google erkennt, welche Inhalte von welcher Person stammen und welchen Grad der Expertise diese Person besitzt, ist es sinnvoll, von verschiedenen Hilfsmitteln in diesem Bereich Gebrauch zu machen.  So zum Beispiel die Nutzung von „Authorship Markups“, mit denen Google Seiteninhalte mit einem bestimmten Autor verbinden. Dazu ist es hilfreich, am Ende eines Artikels eine Autorenbox mit grundlegenden Informationen bezüglich des Autors einzufügen. Darüber hinaus kann der Autor auch auf einer separaten Seite vorgestellt und mit vorhandenen Qualifikationen präsentiert werden.

Natürlich ist der Aufbau eines funktionierenden E-A-T-Rankings nicht von heute auf morgen getan. E-A-T ist etwas, das man sich über einen längeren Zeitraum hinweg erarbeiten muss. Deshalb ist hier an erster Stelle darauf zu achten, dass man stets am Ball bleibt. Inhalte einer Webseite sollten regelmäßig überprüft und aktualisiert werden. Dazu ist es auch unabdingbar, neuen Content zu produzieren.

Maßnahmen zur Verbesserung des E-A-T-Rankings

Um den eigenen Rankingfaktor im Bereich E-A-T zu steigern, gibt es viele Maßnahmen zur Durchführung. Wir präsentieren hier eine kleine Auswahl.

  • Fokussierung auf ein Themengebiet
  • Inhalt mit Mehrwert (Beispiel: Beantwortung von konkreten Nutzerfragen)
  • Transparente Informationen zum Webseitenbetreiber
  • Schaffen von Vertrauen durch Referenzen, Zertifikate, etc.
  • Regelmäßige Aktualisierung der Webseiteninhalte

Fazit

Die Verbesserung des eigenen Rankings im Bereich E-A-T sollte eigentlich nicht allzu viele Sorgen machen. Denn als Webseitenbetreiber ist es sicherlich unser aller Wunsch, Nutzern glaubwürdige und wertvolle Inhalte zur Verfügung zu stellen. Als Content-Ersteller sollte man deshalb nicht zu sehr verkrampfen. Das wirkt unnatürlich und früher oder später fällt das Google auch auf. Ob man schon einen gewissen Qualitätsstandard besitzt oder ob man noch ganz am Anfang steht – mit unseren Tipps schaffen Sie es, Inhalte zu schaffen, die erfolgreich ranken und gerne geteilt werden.

BERT: Das größte Google Update der letzten fünf Jahre

Vor nicht allzu langer Zeit hat der Suchmaschinenanbieter Google eine Algorithmus-Änderung bekannt gegeben. Die Auswirkung ist groß – ungefähr zehn Prozent aller englischsprachigen Suchanfragen sollen die Veränderungen betreffen. Das Akronym BERT steht dabei für Bidirectional Encoder Representations from Transformers und gilt als eines der größten Sprünge der Suchmaschinenentwicklung. Transformer, so erklärt Google, steht für „Modelle, die Wörter in ihrem Verhältnis zu allen anderen Wörtern des Satzes verarbeiten“ und nicht nur Wort für Wort.

With the latest advancements from our research team in the science of language understanding–made possible by machine learning—we’re making a significant improvement to how we understand queries, representing the biggest leap forward in the past five years, and one of the biggest leaps forward in the history of Search.

– Pandu Nayak, Google Fellow and Vice President (Search)

BERT soll die menschliche Sprache besser verstehen als der bisherige Algorithmus. Vor allem der Zusammenhang von Wörtern durch beispielsweise Präpositionen ließ dieser außen vor. Dazu fehlte dem Algorithmus das Verständnis. BERT dient nun als Weiterentwicklung: Nutzer sollen Suchanfragen auf eine natürlichere Art und Weise stellen können und dementsprechend sollen auch die Suchergebnisse anders bzw. genauer ranken.

Wie funktioniert BERT?

Google veranschaulicht das Update anhand von verschiedenen englischsprachigen Such-Beispielen. Eine davon ist die Eingabe der Frage „Darf ich Medikamente für jemand anderen in der Apotheke holen“. Hierbei wurden früher die Wörter „Medikamente“ und „Apotheke“ verarbeitet. Daraufhin schlussfolgerte die Suchmaschine, dass mit dieser Suchanfrage nach einer lokalen Apotheke gesucht wird. BERT ist nun in der Lage, den semantischen Kontext der Suchanfrage zu verstehen und dementsprechend zu verarbeiten.

Google BERT

Änderungen für SEO-Manager?

Konkrete Optimierungsmaßnahmen im Bereich SEO gibt Google währenddessen nicht an. Es ist aber nicht zu vergessen, dass es sich um ein Update zum verbesserten Verständnis von Google-Suchanfragen handelt. Deshalb ist es SEO-technisch wichtig, natürliche Inhalte zu verfassen, die der menschlichen Intention entsprechen. Der alte Algorithmus von Google arbeitet aber noch. Deshalb sollte man weiterhin Gebrauch von einfachen, nicht verschachtelten Sätzen machen.

Der neue Algorithmus greift laut Google zunächst nur in den USA. Ein Termin, wann die optimierte Version des Algorithmus auch in die deutsche Suchmaschine integriert wird, steht noch nicht fest.

SEO in einer Welt des „Machine Learning“

Artificial Intelligence, Machine Learning – von Begriffen wie diesen hören wir seit geraumer Zeit immer öfter. Doch wissen wir wirklich, was diese Wörter bedeuten und welchen Einfluss sie auf die organischen Suchergebnisse in Suchmaschinen haben? Welche Veränderungen kommen auf uns zu? Im folgenden Beitrag sollen diese Unklarheiten aufgedeckt werden.

Was ist Machine Learning?

Maschinelles Lernen ist grundsätzlich ein Zweig der Künstlichen Intelligenz (KI/AI). Das Ziel hierbei ist es, Computern beizubringen, bestimmte Entscheidungen zu treffen, die den Entscheidungen bzw. natürlichen Entscheidungsprozessen von Menschen ähneln. Das geschieht mithilfe von vorher erfassten Daten, auf deren Basis eine automatisierte Entwicklung von Algorithmen entsteht. Durch einen stetigen Lernprozess werden so die Ergebnisse optimiert bzw. die Vorhersagen verbessert. Beim Maschinellen Lernen geht es also im Grunde genommen darum, dass Algorithmen aus großen Mengen an Information Regeln ableiten – so zum Beispiel aus Bildern und Texten.

„The machine learning model is not a static piece of code — you’re constantly feeding it data. We are constantly updating the models and learning, adding more data and tweaking how we’re going to make predictions. It feels like a living, breathing thing. It’s a different kind of engineering.“

Christine Robson, Product Manager bei Google

Wie funktioniert Machine Learning?

Ein Beispiel, um das Konzept von Machine Learning zu erläutern ist Google Fotos. Dieses Produkt von Google ist in der Lage, Bilder aufgrund eines bestimmten Befehls zu durchsuchen und die passenden Bilder anzuzeigen. Bei Google Fotos kann man seine Bilder auf die Cloud hochladen, ohne sie dabei mit bestimmten Keywords taggen zu müssen. Wenn man sich die Bilder zu einem späteren Zeitpunkt wieder anschauen bzw. durchsuchen möchte, reicht es – dank Maschinellem Lernen – zu sagen, dass man Bilder sehen möchte, die zum Beispiel an einem bestimmten Standort aufgenommen wurden.

Beispiel: ML durchsucht und erkennt passende Urlaubsbilder

Sagen wir beispielsweise, Sie unternehmen einen Wochenendtrip nach Paris. Sie nehmen Bilder von Touristenattraktionen auf, fotografieren Plätze, Menschen und Tiere, die Sie auf Ihrer Reise antreffen. All diese Bilder speichern Sie in Ihrer Kamera, wodurch Sie diese auch auf die Cloud hochladen können. Wenn Sie nun aus dem Urlaub zurückkommen und die Bilder beispielsweise Ihren Freunden zeigen möchten, erleichtert Machine Learning dieses Vorhaben. Indem Sie zum Beispiel sagen „Zeige mir alle Bilder, die ich am Eiffelturm aufgenommen habe“, kann Google Fotos diese Bilder finden, ohne dass sie getaggt sind. Allein dadurch, dass aus großen Mengen an Daten Informationen herausgezogen werden, kann der Algorithmus bestimmten Orten bestimmte Informationen zuordnen. Je öfter ein bestimmter Begriff in Verbindung mit anderen Informationen gesucht wird, desto wahrscheinlicher ist es laut des Algorithmus folglich auch, dass diese Daten wirklich zusammenhängen.

Wie beeinflusst Machine Learning das SEO einer Webseite?

Spätestens seit dem Beginn von Google’s Rankbrain – ein Suchalgorithmus veröffentlicht im Jahr 2015 – ist es klar, dass sich das Unternehmen im Bereich der Künstlichen Intelligenz (KI) positioniert und die Absicht hat, dieses Feld weiter voran zu treiben. Künstliche Intelligenz wird in der Zukunft also eine immer größere Rolle für uns spielen. Das gilt auch für die Suchmaschinenoptimierung, wo es Algorithmen schaffen (werden), auch unbekannte Suchanfragen zuverlässig zu beantworten. Es ist also absehbar, dass im SEO-Bereich so einige Änderungen anstehen: der qualitative Wert von Inhalten wird sicherlich steigen. Auch werden in der Zukunft die Suchabsichten der User einen höheren Stellenwert einnehmen.

Änderung der Sucheingaben

Durch die ständige Fortentwicklung von Machine Learning müssen sich auch SEO-Manager an die entsprechenden Veränderungen anpassen, denn immer mehr erleben wir einen Wechsel von textbasierten Google-Suchen zu mobilen Suchen. So zum Beispiel beim Nutzen der Suchfunktion auf Handys oder mit stationären Geräten wie der virtuellen Assistentin Amazon Alexa.

Dabei ist festzuhalten, dass sich auch die Art und Weise, wie wir eine Suche über Google durchführen, verändert. Während man bei einer textbasierten Suche in Google die Begriffe „beste Pizza Stuttgart“ eingibt, spricht man bei der sog. Voice Search zumeist ein vollständiger Satz aus: „Wo gibt es die beste Pizza in Stuttgart?“. Das führt dazu, dass der Inhalt einer Webseite genau an die Bedürfnisse der User angepasst werden müssen. Das funktioniert am besten, indem man beispielsweise eine Art FAQ (Frequently Asked Questions) aufbaut, wo die meistgesuchten Fragen beantwortet werden.

Fazit

Machine Learning ist ein grundlegender Ansatz, um die Forschung rund um das Gebiet der Künstlichen Intelligenz voranzutreiben. Eine große Stärke des ML ist hierbei sicherlich, dass der Computer von sich aus Dinge erlernt, solange ihm die benötigten Informationen zur Verfügung stehen. Mit Machine Learning eröffnen sich uns eine große Bandbreite an neuen Möglichkeiten – allen voran die Digitalisierung und Automatisierung fast aller Lebensbereiche. Einige dieser Fortschritte haben wir in einigen Bereichen schon beobachten können, seien es autonome Fahrzeuge oder selbstoperierende Staubsaugergeräte.

Dennoch sollte man nicht vergessen, dass ML-basierte Computer nicht immer schlauer als Menschen sind oder schneller als diese arbeiten, denn an erster Stelle funktionieren sie so effizient aufgrund von großer Rechenleistung. Dies ist bisher das einzige, was sie dazu befähigt, mehr Daten zu erfassen und zu analysieren als ein Mensch es kann. Es ist also festzuhalten, dass existierende Sorgen über die absolute Selbstständigkeit von ML-basierten Computern zum jetzigen Zeitpunkt unbegründet sind.

Google-Analytics-Tutorial

Inhaltsanalyse mit Google-Analytics

Was kann ich mit Google-Analytics erreichen?

Sie haben Inhalte passend zu Ihrer Zielgruppe erstellt und über Ihre Webseite verbreitet? Nun wollen Sie bestimmt wissen, wie dieser Inhalt von dem Nutzer aufgenommen wird. Google-Analytics bietet Ihnen hierfür viele Möglichkeiten, Ihren Content zu analysieren. Sie können feststellen, welchen Inhalt der Nutzer auf Ihrer Seite wie nutzt und ob der Content dazu beiträgt, die definierten Ziele zu erreichen.

Das hilft ihnen beim Erstellen von neuen oder dem Optimieren von vorhandenen Inhalten, um den Traffic auf Ihrer Seite zu steigern und mehr potenzielle Neukunden zu gewinnen.

Berichte einsehen und auswerten

Im Bereich „Berichte“ können Sie unter dem Punkt „Zielgruppe“ verschiedene Analysewerte einsehen. Sie können z.B. demografische Merkmale wie Alter und Geschlecht einsehen oder auch geografische Merkmale wie Sprache und Standort. Diese Daten helfen Ihnen eine genaue Zielgruppenanalyse zu erstellen und Ihre Webseite kontinuierlich zu verbessern.

Um zu sehen welche Unterseite der eigenen Webseite am meisten verwendet werden geht man in Analytics unter Berichte auf Verhalten → Webseitencontent → Alle Seiten. Hier werden alle Seiten und viele interessante Daten dazu angezeigt. So können Sie ermitteln, welche Seiten am meisten aufgerufen werden und auf welche am wenigsten zugegriffen wird. Für diese Webseiten können Sie nun den Content optimieren um somit mehr Traffic, Leads und letztendlich mehr Umsatz generieren. 

Google Analytics Berichte

Google Analytics Berichte

Google Analytics Benutzerbereich – Berichte einsehen

Google-Analytics Convertion Tracking

Mit dem Convertion Tracking von Analytics können Sie genau analysieren mit welchem Ihrer verwendeten Werbemittel (Banner, Textanzeigen, Youtube-Video, Newsletter-Links etc.) Sie am meisten Umsatz generieren.
Das Convertion Tracking bringt einige hochinteressante Features mit sich, wie z.B.:

  • Analysieren Sie Ihre Werbemittel mithilfe einer Werbemittel-Tracking-URL nach Wertigkeit
  • Nehmen Sie Ihre festgelegten Ziele hingehend Umsatz und Marketing genausten unter die Lupe. Verwenden Sie die Erfolgsmessung für Landingpages, Verkaufsseiten, Danke-Seiten, Online-Shops etc.
  • Ein weiteres interessantes Feature ist der sogenannte “Conversion-Trichter/-Funnel”. Hiermit lässt sich ermitteln, über welche Quellen ein Besucher auf die eigene Internetseite gelangt ist, wodurch man genau feststellen kann, welche Verbesserungen an den einzelnen Werbemitteln vorgenommen werden sollten.

Weitere Informationen die zum Nutzerverhalten erhoben werden:

  • Herkunft (Land und Stadt)
  • Sprache
  • Betriebssystem
  • Gerät (PC, Tablet oder Smartphone)
  • Webbrowser
  • Besucher-Quelle (Facebook, Twitter und Co., Suchmaschine oder Webseite)
  • Welche Dateien wurden heruntergeladen?
  • Welche Videos wurden angeschaut?
  • Wurden Werbebanner angeklickt?
  • Wohin ging der Nutzer? Hat er Unterseiten besucht oder ist er direkt abgesprungen?
  • Wie lange blieb der Nutzer auf der Seite?

Welche Daten liefert Analytics?

Analytics liefert Ihnen eine Menge an ausgewerteten Daten. Hier ein paar Beispiele, welche Daten Sie einsehen können:

e-commerce Statistik Bild

  • E-Commerce-TrackingUm die Kaufaktivität auf Ihrer Seite zu analysieren, können Sie die E-Commerce-Berichte von Analytics verwenden. Die Berichte liefern Ihnen Informationen zu Produkten und Transaktionen, die Zeit, die ein Besucher auf der Seite verbringt, bis ein Kauf erfolgt, den durchschnittlichen Bestellwert und weitere Daten. Wie rufen Sie die Berichte ab? Um diese einsehen zu könne müssen Sie zuerst E-Commerce aktivieren. Klicken Sie auf Verwalten und wählen Sie unter Datenansicht E-Commerce-Einstellungen aus. Aktivieren Sie nun hier E-Commercer, klicken Sie danach auf „Nächster Schritt“ und dann auf „Senden“.

    Google Analytics Auswertung

  • Interne Webseiten-SucheMit der Webseiten-Suche könne Sie die interne Suche Ihrer Webseite analysieren. Sie können auswerten, nach welchem Begriff in Ihrem Blog oder Shop am meisten gesucht wird und welche Begriffe z.B. am häufigsten zu einem Kauf führen. Mit der Analyse der Keywords des Besuchers wissen Sie nun genau was diese wollen und können Ihre Landingpages dahin gehend optimieren.

Google Analytics bietet viele Vorteile

Die Wichtigsten sind:

  • umfangreiche Auswertungsmöglichkeiten
  • Optimierungsempfehlungen
  • einfaches Erkennen von Potenzialen und Fehlern
  • Datenexport
  • kostenlose Nutzung

Was lange Zeit als Nachteil galt ist, dass Analytics in Bezug auf den Datenschutz nicht rechtssicher sei. Dies hat sich nun auch geändert und jeder Nutzer kann das Tracking von Google-Analytics sicher nutzen.

SEO-Schulung

In unseren SEO-Workshops in Heilbronn und Stuttgart bringen wir Ihnen die Grundlagen der Suchmaschinenoptimierung bei und zeigen Ihnen, wie sie diese effektiv einsetzten.
Mit unseren Workshops selbstständig und erfolgreich für Suchmaschinen optimieren.