Beitragsbild SERP

Nielsen-Studie: Darstellung der SERP-Ergebnisse hat Einfluss auf unser Suchverhalten

Je nachdem, welche Suchbegriffe User in der Google-Suchmaschine eingeben, ändern sich auch die SERP-Ergebnisse, also die Suchergebnisseiten. Das hat nun eine aktuelle Untersuchung des Datenanalyseunternehmens Nielsen herausgefunden. Diese hat ergeben, dass die veränderte Darstellung der Suchergebnisse auch unser Suchverhalten dahingehend beeinflusst, wie wir die Ergebnisse lesen.

Ist es Ihnen schon einmal aufgefallen? Vorbei sind die Zeiten, in denen Google bei einer Suche eine simple Ergebnisliste von 10 Links anzeigte – jedes einzelne Ergebnis kompakt strukturiert mit einer URL, einem blauen Link und einem kleinen Textauszug. Heutzutage hat sich vieles verändert; Suchmaschinenergebnisseiten (SERPs) sind inzwischen viel komplexer im Aufbau, denn der Großteil von SERPs in Suchmaschinen wie Google und Bing enthält nun mindestens ein informatives und interaktives Feature.

SERP Vergleich

Links: Suchergebnisse für George Brett aus dem Jahr 2009. Rechts: Ergebnisse für dieselbe Suche aus dem Jahr 2019. Hinzugekommen sind eine Reihe an Features, Inhalten und Präsentationsweisen.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:31)

Das „Pinball-Muster“

Das sich fortwährend weiterentwickelnde SERP hat auch Einfluss darauf, wie Nutzer Suchen tätigen. Jedes neue Feature, das implementiert wird, ändert den Fokus bzw. die Konzentrationsrichtung der User. In der Vergangenheit konzentrierten sich Nutzer mit sehr großer Wahrscheinlichkeit auf die ersten drei oder vier Suchergebnisse ganz oben auf der Seite und bewegten sich dann der Reihe nach von Ergebnis zu Ergebnis weiter nach unten. In der 2013 von Nelson veröffentlichten Ausgabe des Berichts „How People Read on the Web“ fand das Unternehmen heraus, dass in 59% der Fälle, die Suchergebnisse von Nutzern sequenziell nach unten gelesen werden – vom ersten, zum zweiten, zum dritten Ergebnis, ohne eines der Ergebnisse zu überspringen oder den rechten Teil der Webseite zu beachten.

Dieses lineare SERP-Verhalten existiert auch heute noch, aber inzwischen ist es eher die Ausnahme als die Regel. Heutzutage ist beobachtbar, dass die Aufmerksamkeit von Nutzern auf die ganze Seite verteilt ist und dass sie Ergebnisse auf non-lineare Art und Weise wahrnehmen. Nelson stellte fest, dass so viel zwischen verschiedenen Ergebnissen und Teilen der Webseite rumgesprungen wurde, dass sie dieses Phänomen mit einer neuen Bezeichnung betiteln: dem „Pinball-Muster“.

Beim „Pinball-Muster“ scannt der Nutzer die Suchergebnisseite auf eine höchst non-lineare Weise und springt zwischen den Suchergebnissen an sich und den SERP-Features hin und her.

Pinball Muster

Links: Eine traditionelle Flipperautomat mit verschiedenen Hindernissen, Bumpern und Zielen. Rechts: Das Pinball-Muster einer SERP. Der Blick des Nutzers wechselt hier auf ähnliche Art und Weise von einer Stelle zur anderen, zwischen verschiedenen Elementen hin und her.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:36)

Wie kommt das „Pinball-Muster“ zustande?

In heutiger Zeit beinhalten SERPs nicht nur einfache Links, sondern auch Bilder, Videos, eingebettete Textinhalte und sogar interaktive Features. Jede mögliche Suchanfrage kann durch eine Auswahl verschiedenster visueller Elemente dargestellt werden. Die Vielfalt der Informationen und die Präsentation dieser spielt eine wichtige Rolle dabei, wie sich der Nutzerfokus beim Aufruf von SERPs verändert.

Suchanfrage

Links: Beim Experiment hat eine Teilnehmerin nach einer bestimmten Art Abflussrohr gesucht. Die Suche lieferte Textergebnisse, eine Shopping-Liste, Videos, ein Featured Snippet und mehr. Der Blick der Teilnehmerin folgte hier dem Prinzip einer Pinball-Maschine.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:43)

Das visuelle Gewicht der Seitenelemente ist es, was das Scanmuster von Nutzern vorantreibt. Denn diese Elemente sind über die ganze Seite verteilt und manche SERPs haben mehr visuelle Elemente als andere – deshalb ist das Blickmuster nicht linear. Die Präsenz und Position der visuellen Elemente beeinflusst oftmals die Sichtbarkeit der organischen Suchergebnisse, die sich in der Nähe befinden.

Suchanfrage Zwei

Das Bild zeigt die Blickrichtung eines Teilnehmers. Die Zahlen beziffern die Anzahl der Blicke auf eine Stelle. Zuerst fokussierte sich der Teilnehmer auf die Preise der gesponsorten Artikel auf der rechten Seite, sprang dann zum Featured Snippet und dann wieder hoch zum ersten und dritten Suchergebnis (beides Werbung). Erst dann blickte der Teilnehmer weiter nach unten auf der Seite.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:51)

Der komplexe und dynamische Inhalt einer Ergebnisseite erhält sehr viel Aufmerksamkeit. Die Studie von Nelson hat herausgefunden, dass, wenn SERP-Elemente (wie Featured Snippets) auf einer SERP vorhanden waren, sie in 74% der Fälle angeschaut wurden.

Organische Suchen

Sogar organische Suchergebnisse sind inzwischen komplexer als sie es früher waren. Manche Ergebnisse werden mit Links zu Untersektionen der Seite präsentiert. Auch Suchleisten, die sich speziell auf eine bestimmte Seite beziehen, kommen vor.

Untersektionen und Suchleiste

Untersektionen und Suchleiste einer Webseite bei einer Suchanfrage.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:56)

Suchergebnisseiten sind heutzutage von Suchanfrage zu Suchanfrage so verschieden, dass Nutzer oftmals dazu gezwungen sind, erstmal die erscheinende Seite einzuschätzen. Das bedeutet, das Layout einer SERP kann bestimmen, welchen Links (mehr) Sichtbarkeit und Klicks bekommen.

Die Inkonsistenz des SERP-Layouts bedeutet auch, dass Nutzer mehr Anstrengungen darin reinstecken müssen, die Seite einzuschätzen und zu bewerten. Auf der einen Seite könnte es sein, dass Suchmaschinen Nutzer dazu ermutigen möchten, sich mehr als nur die ersten paar Suchergebnisse anzuschauen. Auf der anderen Seite entscheiden sich Nutzer sehr schnell für ein bestimmtes Suchergebnis. Nelson hat in diesem Zusammenhang herausgefunden, dass sich Nutzer die Suchergebnisse für durchschnittlich 5,7 Sekunden anschauen bevor sie ihre erste Entscheidung treffen.

Wenn jedoch SERP bzw. ein Suchanfragengerüst für die eigene Seite erstellt wird, dann sollte man darauf achten, dass sich Nutzer nicht auf der Suchseite verlieren. Ein konsistentes Layout, das sich nicht von Suchanfrage zu Suchanfrage ändert, ist hierbei geeignet. So können sich Nutzer und potenzielle Kunden auf die Inhalte konzentrieren anstatt von der Seitengestaltung abgelenkt zu werden.

Was bedeutet dieses Muster für Content Creator und Webseitenbetreiber?

In vergangener Zeit sagte man in Bezug auf SEO: „Wenn du nicht der Erste bist, bist du der Letzte.“ Früher war es so, dass man nicht viele Klicks bekam – oder dass jemand die Seite beachtet hat – wenn man nicht an erster Stelle der Suchergebnisse stand. Die Zeiten haben sich aber geändert; inzwischen sind Klicks und Blicke über die ganze Seite verteilt – auch je weiter unten sich die Ergebnisse befinden.

Im Jahr 2006 war es noch so, dass das erste Suchergebnis 51% der Klicks erhielt. Nielsen hat bei der Durchführung der eigenen Studie jedoch herausgefunden, dass das erste Suchergebnis – das Item, was sich immer als erstes unter der Suchleiste befindet – nur 28% der Klicks erhielt. Der Anteil ist also fast zur Hälfte runtergegangen, was eine dramatische Verhaltensänderung innerhalb einer relativ kurzen Zeit von einem Jahrzehnt bezeichnet. 59% der Klicks verteilten sich laut Nelson auf die ersten drei Suchergebnisse. Ergebnisse, die sich noch weiter unten befanden, erhielten mehr etwas mehr Klicks als sie es 2006 taten.

Verteilung der Klicks

Verteilung der Klicks auf die ersten fünf Suchergebnisse bei SERP-Anfragen.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 15:58)

Art der Suchanfrage

Nelson zufolge spielte hierbei auch die Art der Suchanfrage eine Rolle. Bei einfachen Anfragen nach kurzen Informationen (Beispiel: „Was ist das höchste Gebäude der Welt?“) verließen sich die Nutzer zumeist auf die ersten paar Suchergebnisse der Seite und waren seltener dazu bereit, sich die Ergebnisse weiter unten auf der Seite anzuschauen. Anders jedoch bei komplexen Suchanfragen, die etwas mehr Recherche erforderten (Beispiel: „Wieviel Kies brauche ich für meinen Garten?“). Hier waren Nutzer bereit, auch die weiter untenliegenden Suchergebnisse durchzuforsten.

Selektionen Above and Below Fold

Selektionen Above and Below Fold.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 16:01)

Dieses Resultat bedeutet, dass Webseitenbetreiber, die tiefgründiges Wissen über ein bestimmtes Thema zur Verfügung stellen, nicht daran verlieren, selbst wenn sie weiter unten in den Suchergebnissen auftauchen.

Nelson fand in einer Untersuchung im Jahr 2010 heraus, dass in 59% der Fälle, Nutzer nicht über das dritte Suchergebnis hinausgehen. Der aktuellen Studie zufolge ist es aber so, dass sogar das Suchergebnis auf Platz 6 in 36% der Fälle Aufmerksamkeit bekommt.

Verteilung der Klicks und Blicke

Verteilung der Klicks und Blicke für die ersten zehn Suchergebnisse.
Quelle: https://www.nngroup.com/articles/pinball-pattern-search-behavior/
(Stand: 27.11.2019, 16:06)

Ergebnis der Studie

Diese Ergebnisse klingen vielversprechend für Webseitenbetreiber. Wenn die eigene Seite nicht an erster Stelle rankt, ist das natürlich nicht ideal. Aber solange die Webseite weiter oben erscheint – also innerhalb der ersten fünf Ergebnisse – hat sie eine 10 bis 20-prozentige Chance, geklickt zu werden und eine 40 bis 80-prozentige Chance, dass ein Blick darauf geworfen wird.

Ein Blick mag unwichtig klingen, aber es hat das Potenzial, sehr wertvoll zu sein. Laut Nelson entdecken Nutzer während einer Suche ihnen vorher unbekannte Webseiten. Selbst wenn sie einen Link zum ersten Mal sehen und nicht darauf klicken, bleibt der Name der Webseite in der Erinnerung und hat das Potenzial, bei der nächsten Suche angeklickt zu werden.

Ein klassischer Tipp der SEO-Branche bleibt jedoch weiterhin bestehen: Auf der ersten Seite der Suchergebnisse zu erscheinen ist ein Muss. Nelsons Analyse zeigt, dass Nutzer nur in 2% der Fälle weiter auf die zweite Seite der Suchergebnisse klickten.

Fazit

Wenn sich auf einer Suchergebnisseite komplexe und visuell ansprechende Elemente befinden, ist die Wahrscheinlichkeit höher, dass Nutzer von diesen Elementen angezogen werden und ihre Aufmerksamkeit über die gesamte SERP verteilen.

Wenn Webseitenbetreiber es schaffen, unter die ersten fünf Suchergebnisse zu kommen, haben sie gute Chancen (40 bis 80%), einen wertvollen Blick der Nutzer zu erhalten.

Trotzdem ist es weiterhin wichtig, auf der ersten Seite der Suchergebnisse zu erscheinen, da die Wahrscheinlichkeit, angeklickt zu werden, sinkt, je weiter hinten man sich befindet.

Google News Update

Google News ist nun zweisprachig

Heutzutage ist mehr als 60% der Weltbevölkerung in der Lage, zwei oder mehr Sprachen zu sprechen und Inhalte bilingual bzw. multilingual zu konsumieren. Jedoch ist es in der Welt der Online-Inhalte nicht immer einfach, Artikel und Nachrichten bequem in beiden Sprachen (gleichzeitig) zu finden. So auch mit Google News. User konnten hier Nachrichten bis zuletzt nur in einer Sprache lesen. Für Neuigkeiten in anderen Sprachen musste man so auf andere News-Portale ausweichen. Das hat Google nun geändert und ermöglicht es, zweisprachige Nachrichten zu lesen – ohne die App bzw. Seite verlassen zu müssen.

Wie funktioniert das Update?

Über die Einstellungen ist es nun möglich, eine zweite Sprache auszuwählen und sich somit inhaltlich auf verschiedene Regionen der Welt zu konzentrieren. So zum Beispiel, wenn der Wunsch danach besteht, Englisch als zweite Sprache neben Deutsch einzustellen. Hier kann man aus einer Zahl an Einträgen auswählen und News aus vielen verschiedenen Ländern abdecken, die diese auf Englisch veröffentlichen.

Dabei ist es nicht allzu wichtig, dass Englisch als eine Muttersprache in diesem Land gilt. Neben Ländern wie den Vereinigten Staaten, Großbritannien oder Indien ist es auch möglich, Nachrichten aus anderen Ländern wie Kroatien und Estland zu konsumieren. Selbst wenn diese Länder Englisch nicht als offizielle Sprache verankert haben.

Mit zwei Sprachen ist es dann aber auch getan; mehr lassen sich nicht auswählen. Außerdem gibt Google die Bedingung vor, eine der beiden Sprache als Primärsprache auszuwählen. In der ausgewählten Sprache werden dann mehr Nachrichtenthemen angezeigt als in der zweiten Sprache. Wenn wir als deutsche Nutzer beispielsweise Englisch als zweite Sprache wählen, werden englische Nachrichten oben in einem speziellen News-Bereich angezeigt. Darüber hinaus erscheinen einzelne Nachrichten auch verstreut im eigentlichen News-Feed.

Wie erhalte ich das Update?

Dieses Update der Google News App ist nun verfügbar für Android und iOs und beinhaltet alle 141 Länder und 41 Spracheinstellungen. Um dieses Feature zu aktivieren, muss man in die Spracheinstellungen der Google News App navigieren und die persönlichen Präferenzen dort entsprechend anpassen.

Google News Spracheinstellungen

Spracheinstellungen der Google News App
Quelle: https://www.blog.google/products/news/news-multiple-languages
(Stand: 13.11.2019, 09:55)

Beitragsbild Digitaler Wandel

Der digitale Wandel: Worauf kommt es an?

Der digitale Wandel unseres Alltags schreitet seit geraumer Zeit voran; in manchen Lebensbereichen etwas schneller, in manchen Bereichen etwas langsamer. Um die Digitalisierung als festen Ankerpunkt im Unternehmensbereich zu integrieren, braucht es nicht nur einfallsreiche Technologien. Auch wenn dies ein weit verbreiteter Gedanke ist, sind es nicht bestimmte physikalische Tools, die die Wandlung vorantreiben. Eine Studie von Oracle und der WHU Otto Beisheim School of Management in Vallendar präsentiert fünf grundlegende Punkte, worauf es im digitalen Wandel wirklich ankommt.

Die Studie mit dem Titel „The Adaptable Business“ beinhaltet die zentrale Frage: Wie stehen Faktoren wie Organisation, Technologie und Produktivität in Relation zueinander? Die Antwort darauf: Eine digitale Veränderung wird fundamental von der Technologie vorangebracht. Jedoch sind laut der Studie fünf weitere Faktoren vorhanden, die den digitalen Wandel erst erfolgreich machen.

1. Datengestütztes Entscheidungstreffen

Eine der vielen Hürden, die ein Unternehmen im Rahmen des digitalen Wandels bewältigen muss, ist die Erforschung von unbekanntem Terrain. Hier ist es ungemein wichtig, Entscheidungen basiert auf einer gründliche recherchierten Informationsmenge zu treffen. Diese Informationen müssen vor allem logisch miteinander korrespondieren.

2. Aufgeschlossenheit gegenüber Veränderungen

Egal ob Individuum oder Gemeinschaft – Veränderungen stehen wir oft skeptisch gegenüber. Unsere innere Haltung spielt hierbei eine große Rolle. Man muss sich klar machen, dass die Digitalisierung unserer Umgebung uns bestimmte Chancen bietet. Dabei ist es ungemein wichtig, überzogene Sorgen wie die des Arbeitsverlustes durch Roboter in den Hintergrund zu legen. Mit einem kritischen aber konstruktivem Blick auf den digitalen Wandel ist man so auf einem guten Weg.

3. Spezielle Lernkultur für jeden

Der Prozess des digitalen Wandels führt über neue Wege. Das ist natürlich nicht immer leicht. Doch um sich an veränderte Arbeitsweisen und Strukturen anzupassen, müssen alle Beteiligten die Möglichkeit haben, ihre Fähigkeiten den Umständen entsprechend anzupassen. Ein Umfeld, in welchem es den Individuen leichtfällt, Fähigkeiten auszubilden, ist Voraussetzung. Das kann beispielsweise spezielle Schulungen (anstatt von universalen Kursen und Trainingseinheiten).

4. Kritisches Denken

Wir sind es gewohnt, zu jeder Zeit Information zur Verfügung zu haben. Das ist bis zu einem bestimmten Punkt natürlich gut. Je leichter wir aber an Informationen rankommen und diese konsumieren, desto wichtiger wird es auch, Inhalte zu hinterfragen. Anstatt Informationen nur hin zu nehmen, ist es wichtiger, Inhalte analytisch zu betrachten und sinnvoll zusammenzusetzen.

5. Passendes Mindset

Abgesehen von Individuen ist es vor allem für Führungskräfte wichtig, ein bestimmtes Mindset für den Prozess des digitalen Wandels an den Tag zu legen. Dinge wie die Anpassung der Arbeitsorganisation eines Unternehmens, aber auch offene Kommunikation mit regelmäßigem Feedback sind feste Bestandteile, um den digitalen Wandel voranzutreiben.

Fazit

Der digitale Wandel – um mit diesem Prozess Schritt zu halten, sind sicherlich einige strukturelle Veränderungen nötig. Doch der Mehrwert dieses Modells ist offensichtlich: Die Auswertung der Studie hat offenbart, dass sich die totale Effizienz eines Unternehmens um ca. 66% steigert. Vorausgesetzt, man beachtet beim Fortschritt des digitalen Wandels die oben genannten Punkte. Ein anschauliches Beispiel dafür, wie lohnend die digitale Transformation ist, wenn man sich die geeigneten Tools zunutze macht.

Stoppuhr Test My Site

Neues Update für Google Tool „Test My Site“

Neues Update für Google-Tool „Test My Site“ für mobile Page-Speed-Optimierung

Content und Ladezeit optimieren – Dank „Test My Site“ noch einfacher!

Seit 2016 hilft das Google-Tool dabei, die Ladezeit von Webseiten zu verbessern. Im Fokus steht dabei vor allem die mobile Ladezeit.

Die neue Version von „Test My Site“, die Ende Februar auf dem Mobile World Congress vorgestellt wurde, ermöglicht es, Ihre Homepage und alle Unterseiten auf Performance zu untersuchen. Das Tool stellt dabei auch einen Vergleich zu den Vormonaten an. Verbesserungen bzw. Verschlechterungen in der mobilen Ladezeit lassen sich dadurch einfacher herausfinden.

Darüber hinaus wird die Homepage mit der Konkurrenz verglichen und im Bericht, der von „Test My Site“ generiert wird, gibt es individuelle Handlungsanweisungen und Tipps, welche Optimierungen auf Ihrer Homepage die Page Speed am besten boosten. Bei einem Online-Shop schätzt das Online-Tool auch die Auswirkungen auf die Conversion Rate.

Mit den Tipps von „Test My Site“ lässt sich die User Experience dauerhaft verbessern. Das ist besonders wichtig, da mittlerweile fast jeder zweite Einkauf in einem Online-Shop von unterwegs aus passiert und etwa 60% der User mobil im Internet sind.

Google Test My Site im Überblick

Mit dem neuen Update umfasst „Test My Site“ also folgende Features:

  • Ladezeit der gesamten Webseite prüfen
  • Entwicklung der Ladezeit im Laufe der Zeit anzeigen
  • Vergleich zu Mitbewerbern
  • Auswirkungen der Ladezeit auf Conversion Rate
  • Schätzung einer möglichen Umsatzsteigerung durch bessere Page Speed
  • Individuelle Handlungsempfehlungen

Jetzt mobile Page Speed prüfen

Als Webseitenbetreiber kommt man ohnehin nicht drumherum, seine Homepage in regelmäßigen Abständen zu prüfen. Besonders die Optimierung für Mobilgeräte steht in Zukunft immer mehr im Fokus. Mit „Test My Site“ gibt Google uns ein mächtiges und dennoch kostenloses Hilfsmittel an die Hand. Es gibt keinen Grund, dieses Hilfsmittel nicht zu nutzen und die mobile Performance seiner Webseite selbst zu prüfen. Hier geht’s zu Test My Site

Blogbeitrag Update von TLS

Das neue TLS 1.3

Wie das Update Ihre Datenübertragung sicherer macht!

Das Verschlüsselungsprotokoll TLS bekommt nach 8 Jahren und 28 verschiedenen Entwürfen nun endlich ein Update. Vier Jahre lang wurde an der neuen Version getüftelt, bis sie von der IETF (= Internet Engineering Task Force) freigegeben wurde.

Was ist TLS überhaupt?

TLS ist die Abkürzung für Transport Layer Security und bedeutet übersetzt Transsportsicherungsschicht. Besser bekannt ist TLS unter dem Namen SSL („Secure Sockets Layer“). SSL ist ein Verschlüsselungsprotokoll und sorgt für eine sichere Datenübertragung im Internet. Es basiert auf verschiedenen kryptografischen Verschlüsselungen. Es sorgt beispielsweise dafür, dass bei der Eingabe von Benutzerdaten Dritte nicht mitlesen können.

Verbindung ohne TLS

 

 

 

 

Sichere Verbindung

 

 

 

 

Chrome Verbindung mit TLS

 

 

 

Was bringt das neue Update?

Das neue Update verspricht stärkere Verschlüsselung, da auf veraltete Verschlüsselungsalgorithmen verzichtet wird. Außerdem soll die Performance des Zertifikats verbessert werden. Das geschieht mit einer neuen Funktion namens „Zero Round Trip Time Resumption“. Sie beschleunigt den Verbindungsaufbau häufig besuchter Seiten. Die Latenzzeit auf mobilen Geräten soll auch deutlich reduziert werden. Beim Verbindungsaufbau werden weniger sogenannte „Handshakes“ zwischen Server und Gerät gemacht. Dadurch ist das Zertifikat weniger angreifbar.

Wieso dauerte es solange bis die neue Version freigegeben wurde?

Ein Update, das so viele Webseiten im Internet betrifft, muss gut geplant und bestenfalls ohne Probleme verlaufen. Deswegen wurde das Update immer wieder verschoben, um weitere Tests und Verbesserungen vorzunehmen.

Ein großes Problem, dem sich die neue Version stellen musste, waren die „Middleboxes“. Die Middleboxes sind Bestandteile von Security-Devices, wie z. B. Virenscanner. Sie verhinderten den Aufbau von TLS 1.3 Verbindungen. Das verlängerte die Freigabe des Updates.

Ist das neue TLS wirklich sicherer?

Ende 2017 hatten gerade mal 0,06 % der Webseiten das TLS 1.3 Zertifikat. Das liegt vor allem daran, dass die benutzte Zertifikatsversion von den Browsern voreingestellt wird. Bisher haben die Browser noch die Version 1.2 als Voreinstellung, doch das wird sich nach der Freigabe ändern.

Denn die neue Version ist sicherer!

So sicher, dass viele Unternehmen den neuen Standard zu schwächen versuchten. Unternehmen und vor allem Banken wollen die Möglichkeit erhalten, die Sitzungen auf Ihren Seiten „mitzulesen“. Das ist mit der neuen Version nicht mehr möglich, was zu vielen Diskussionen und der Verschiebung der Veröffentlichung des Updates führte.

Blogbeitrag Januar Bitcoin

Die neue Währung: Bitcoin

Fluch oder Segen?

Spätestens nach dem rasanten Wertanstieg des Bitcoin im Dezember letzten Jahres ist dieser nun in aller Munde. Nur Wenige wissen, welche hochkomplexen technischen Abläufe dahinterstecken. In diesem Beitrag versuchen wir, ein wenig Klarheit zu schaffen.

Was genau ist Bitcoin?

Bitcoin gehört zu den Kryptowährungen und ist vereinfacht gesagt „digitales Geld“. Es wurde am 3. Januar 2009 von dem Pseudonym „Satoshi Nakamoto“ ins Leben gerufen. 2009 folgte die dazu passende Open-Source-Software „Bitcoin-Core“.

Bitcoin hat einige große Unterschiede zu dem Geld, wie wir es kennen. Die Währung ist nur digital abrufbar und hat daher keine materielle Form. Zur Nutzung der Bitcoins wird deshalb ein elektronisches Gerät, wie z. B. ein Rechner oder ein Smartphone mit Internetzugang benötigt. Die Währung existiert somit ohne geografische Begrenzung und jeder mit Internetzugang kann von überall auf der Welt Transaktionen starten.

Im Weiteren ist die Währung dezentral. Das bedeutet, dass keine Banken oder staatliche Einrichtungen beim Transfer von Bitcoins beteiligt sind. Somit stellen sich die Fragen:

Wie werden Bitcoins verwaltet? Und wer sorgt für Sicherheit?

Vereinfacht gesagt: die Teilnehmer und ihre Rechner. Die Transaktionen werden mit einem dezentralen Buchungssystem (auch „Blockchain“ genannt) über eine spezielle Peer-to-Peer Übertragung getätigt. Die benötigte Rechenleistung für die Transaktionen kommt von den Teilnehmern, die alle mit einem bestimmten Programm miteinander vernetzt sind.

Die Rechenleistung der teilnehmenden Rechner erzeugt dabei ebenfalls neue Bitcoins: Dieses Verfahren nennt sich „Mining“. Die verschiedenen Transaktionen, die in einem bestimmten Zeitraum ablaufen, werden zu einem sogenannten Block zusammengefasst. Dieser Block muss verifiziert und verwaltet werden. Hier kommen die Teilnehmer ins Spiel. Sie geben ihre Rechenleistung ab, damit das Netzwerk sicher und arbeitsfähig ist, und bekommen dafür als Belohnung die neu erzeugten Bitcoins. Pro Block werden zurzeit 12,5 Bitcoins neu erzeugt. Diese werden anteilmäßig an die Teilnehmer verteilt. Mittlerweile reicht die Rechenleistung von normalen Computern nicht mehr aus, um neue Einheiten zu schürfen (Der Begriff „schürfen“ ist abgeleitet von dem Prozess des Goldabbaus um das Erzeugen von Bitcoin bildlicher darzustellen). Es gibt spezielle „Mining-Computer“, welche aus Grafikkarten und Kühlungen bestehen. Grafikkarten werden genutzt, da sie am effektivsten Rechenleistung aufbringen. Die Kühlung ist wichtig, da die Grafikkarten schnell zu heiß werden.

Wenn zwei Personen eine Transaktion durchführen, kostet dies umgerechnet etwa 20 Euro „Transportkosten“, die ebenfalls in Bitcoins gezahlt werden. Diese anfallenden Bitcoins werden nach dem „Proof of Work“-Verfahren an die Teilnehmer, die ihre Rechenleistung abgeben, verteilt. Beim dem „Proof of Work“-Verfahren müssen die Teilnehmer eine Art Mathematik Rätsel lösen. Der Erste, der dieses „löst“, bekommt die Bitcoins gutgeschrieben. Das verringert die Gefahr von Angriffen. Je mehr Rechenleistung abgegeben wird, desto stabiler und sicherer ist das Netzwerk.

Was sind die Merkmale von Bitcoin?

Ein Merkmal von Bitcoin ist die Fälschungssicherheit. Die Blockchain verzeichnet jede einzelne Transaktion öffentlich auf einer Datenbank. Dadurch kann keine Transaktion zweimal getätigt werden und jeder Bitcoin kann nur einen Besitzer haben. Der Besitz der Bitcoins wird durch einen kryptografischen Schlüssel nachgewiesen. Auf diesen sollte gut aufgepasst werden. Es gibt keine „Passwort vergessen“-Funktion. Ist der Schlüssel weg, können Sie nicht mehr auf die Bitcoins zugreifen.

Eins der wichtigsten Merkmale dieser Währung ist die Anonymität. Die Bitcoins sind nahezu anonymisiert. Wenn zwei Teilnehmer einen Handel eingehen, werden keine persönlichen Daten ausgetauscht, sondern die kryptografischen Schlüssel. Dennoch können die Transaktionen aufgrund der IP-Adressen zurückgeführt werden und sind somit nur nahezu anonym. Die Anonymität hat aber auch Nachteile. Bitcoins werden z. B. beim Handel von illegalen Waren im sogenannten „Dark-Net“ genutzt. Auch kann sie zum Erpressen von Geldsummen genutzt werden.

Das zeigt, dass Bitcoins auch für kriminelle Taten ausgenutzt werden.

Lohnt es sich in Bitcoin zu investieren?

Schlagzeilen wie „Durch Bitcoin in kurzer Zeit zum Millionär geworden“ verlocken einen in dieses Geschäft einzusteigen. Doch der Handel mit Bitcoin ist sehr riskant.

 

Gesamter Kurs des Bitcoin

Quelle: https://www.coingecko.com/de/kurs_chart/bitcoin/eur (17.01.2018/10:51 Uhr)

 

An dem Diagramm sieht man, dass der Kurs sehr unbeständig ist. Nerven aus Stahl sind erforderlich. Der Einstieg in das Bitcoin Geschäft ist jedoch sehr einfach. Benötigt wird nur eine digitale Brieftasche („Wallet“), einen Marktplatz (z. B. eine Internetseite auf der mit Bitcoin gehandelt wird) und Internetzugang. Zu beachten ist, dass der Markt durch Angebot und Nachfrage bestimmt wird. Mittlerweile sind von dem Maximum von 21 Millionen Bitcoin, etwa 16 Millionen ausgeschöpft. Es ist schwer vorherzusehen, wie der Kurs weitergeht. Wirtschaftswissenschaftler sind zwiegespalten. Einige sagen der Kurs bricht bald zusammen, anderer sagen, dass Bitcoin noch weiter steigt.

Bitcoins werden meist von Privatperson zu Privatperson verkauft. Hierfür gibt es einige Internetseiten und Software. Eine bekannte internationale Seite ist Kraken.com. Das ist jedoch nicht der einzige Weg. Bitcoins können auch offline verkauft werden. Jeder Bitcoin hat einen Schlüssel, der auf z. B. einem Stück Papier niedergeschriebenen werden kann. Dieser kann dann offline verkauft werden. Auch lassen immer mehr Händler Bitcoin als Zahlungsmittel gelten.

Das Problem ist, dass man viel investieren muss, um mit dem Bitcoinhandel zu beginnen. Ein Bitcoin kostet zurzeit etwa 11.000 Dollar (Stand 21.01.2018). Auf der Seite bitcoinity.org ist der aktuelle Wert von Bitcoin jederzeit abrufbar. Es gibt aber immer mehr andere erfolgreiche Kryptowährungen.

Alternativen zu Bitcoin

Es gibt insgesamt 1326 verschiedene Kryptowährungen auf dem heutigen Markt. Hier stellen wir Ihnen 3 der bekanntesten bzw. erfolgreichsten Kryptowährungen nach dem Bitcoin vor:

  1. Ethernum: Wurde 2015 von Vitalik Buterin, Gavin Wood, Jeffrey Wilcke entwickelt. Ethereum ist die Kryptowährung mit der zweitgrößten Marktkapitalisierung nach dem Bitcoin. Die Währung nennt sich „Ether“ und kostet 1300 Dollar pro Einheit (Stand Januar 2018).
  2. Ripple: Wurde von Ryan Fugger, Chris Larsen, Jed McCaleb 2012 entwickelt. Die Währung heißt „XRP“ und hat den Preis von 1.82 Dollar pro Einheit (Stand Januar 2018). Sie ist keine freie Währung, sondern wird nur in den Netzwerken von Ripple genutzt.
  3. Litecoin: Litecoin wurde von Charlie Lee 2011 entwickelt und ist beinahe identisch zu Bitcoin. Ein großer Unterschied zu Bitcoin ist die schnellere Transferzeit von 2,5 Minuten statt 10 Minuten. Die Einheit kostet 240.40 Dollar (Stand Januar 2018).
Beitragsbild Bildformate: JPG, PNG, SVG

Bilder und Grafiken im Web – Tipps zu Bildformaten

JPEG, PNG und SVG – Wann verwende ich welches Bildformat?

Trotz der etlichen digitalen Bildformate, die heute existieren, hat man sich in der modernen Webentwicklung inoffiziell auf drei Dateiformate geeinigt: JPEG, PNG und SVG. Jedes der Formate hat ganz spezielle Vor- und Nachteile und deckt eigene Anwendungsgebiete ab. Oft überschneiden sich die Anwendungsgebiete und es lassen sich mehrere Formate für denselben Zweck verwenden. Doch woher weiß man, wann ein JPEG oder PNG verwendet werden sollte und wann sich der Einsatz einer SVG-Grafik lohnt? Wir nehmen die drei Formate in diesem Beitrag etwas genauer unter die Lupe.

JPEG als Bildformat auf Webseiten

Das JPEG ist das wohl am häufigsten verwendete Bildformat im Internet. Und das aus gutem Grund. Die JPEG-Komprimierung erlaubt es, selbst komplexe Fotografien und detaillierte Grafiken auf kleine Datenmengen herunterzurechnen. Das wirkt sich positiv auf die Ladezeit einer Webseite aus. Außerdem lässt sich die Qualität der JPEG-Komprimierung in den meisten Bildbearbeitungsprogrammen relativ frei skalieren: Möchte man besonders hohe Qualität und nimmt dafür höhere Datenmengen in Kauf, oder liegt einem die Ladezeit der Webseite mehr am Herzen? Der Web-Entwickler hat hier die freie Wahl.

Leider ist das JPEG-Bildformat nicht fehlerfrei. Die Komprimierung einer JPEG-Datei ist verlustbehaftet, das bedeutet, bei jedem erneuten Speichern gehen wichtige Bildinformationen verloren und die Qualität leidet. Das Speichern eines Bildes als JPEG sollte also immer erst ganz am Ende eines Bearbeitungsprozesses geschehen. Während der Bildbearbeitung sollten verlustfreie Bildformate (bspw. PNG) verwendet werden.

Der Qualitätsverlust der JPEG-Komprimierung zeigt sich besonders in Bildern mit starken Kontrasten. An den Übergangskanten zwischen zwei Farbflächen sind, besonders bei niedriger Qualität, Bild-Artefakte zu erkennen. Das sind Verunreinigungen der Bildqualität, verursacht durch die Komprimierung.
Außerdem unterstützt das JPEG-Format keine transparenten Farbwerte. Für einige Anwendungsbeispiele ist das bereits ein Ausschlusskriterium. Beispielsweise, wenn man das JPEG auf einem Hintergrund mit Farbverlauf platzieren möchte.

Die 16 Bit Farbtiefe, die den meisten JPEG-Formaten zugrunde liegt, reicht für normale Fotografien und Grafiken komplett aus. Bei Fotografien mit sehr schwachen Verläufen, beispielsweise vom Himmel oder anderen, großen, einfarbigen Farbflächen, kann man die Limitierungen des 16-Bit-Farbraums manchmal aber erkennen. Dann sollte auf ein Format ausgewichen werden, das 24 Bit oder 32 Bit unterstützt, beispielsweise das PNG oder TIFF.

PNG für hochwertige Grafiken und Bilder

Das PNG-Format hat eine weniger effiziente Kompression als das JPEG, wodurch PNG-Bilder in aller Regel die größere Datenmenge haben. Dafür bietet das PNG aber auch eine bessere Bildqualität und Features, die andere Formate nicht unterstützen.

PNG-Bilder besitzen einen Alpha-Kanal für Transparenzen, wodurch weiche Schlagschatten und dynamische Übergänge zwischen Bild und Hintergrund möglich werden. Außerdem kann das PNG dank der 24 Bit Farbtiefe deutlich mehr Farben anzeigen, als das JPEG. Erkennbare Abstufungen in Farbverläufen, wie das bei manchen JPEG-Bildern der Fall ist, gibt es beim PNG nicht. Grundsätzlich gilt daher: Das PNG bietet die beste Bildqualität und einen sehr großen Farbbereich.

Der Preis für die gute Bildqualität und die Transparenzen ist die größere Datenmenge. Bei sehr großen Bildern oder übermäßiger Verwendung von PNG-Bildern kann die Ladezeit einer Webseite in die Knie gehen. Bilder im PNG-Format sollten daher immer mit Bedacht eingesetzt werden. Ist Transparenz oder eine besonders gute Bildqualität nicht unbedingt nötig, sollte auf JPEG zurückgegriffen werden. Das schont die Nerven und mobiles Datenvolumen der Besucher.

SVG – kleinste Datenmenge, eingeschränkte Anwendungen

Die SVG-Grafik ist – im Gegensatz zu JPEG und PNG – keine Pixelgrafik, sondern gehört zu den vektorbasierten Formaten. Die Dateigröße steht bei vektorbasierten Formaten nicht in direktem Zusammenhang mit der Größe/Auflösung der Grafik und fällt in der Regel deutlich kleiner aus, als die pixelbasierten JPEG- und PNG-Bilder.

Ein weiterer Vorteil der vektorbasierten Bildformate ist, dass diese sich beliebig groß oder klein skalieren lassen, ohne dass das zu einem Qualitätsverlust führt. Das kann ein großer Vorteil sein.
Leider ist das SVG-Format aber auch kein Allheilmittel. Vektorbasierte Formate können nur für weniger-komplexe Grafiken verwendet werden. Fotografien und Gemälde besitzen einen viel zu hohen Detailreichtum für die Konvertierung in ein vektorbasiertes Bildformat.

Für Logos, Icons und Diagramme eignet sich das SVG-Format aber hervorragend. Häufig verwendet man sogenannte Sprite-Grafiken, in denen alle Icons und Logos einer Webseite in einer einzelnen Datei zusammengefasst werden. Dadurch wird die Dateigröße je Icon auf ein Minimum reduziert. Die Ladezeit einer Webseite wird dadurch enorm entlastet.

Alles auf einen Blick

Liegen einem Ladezeiten und Performance einer Webseite am Herzen, sollte so oft, wie möglich, auf SVG zurückgegriffen werden. Typische Verwendungszwecke sind Icons, Logos und Diagramme.

Wenn die Art der Grafik den Einsatz einer vektorbasierten SVG-Grafik nicht gestattet, muss abgewogen werden, welches der beiden Formate JPEG und PNG sich besser eignet.
JPEG kann in großen Mengen für Bildergalerien oder bildschirmfüllende Fotografien verwendet werden. Beim Arbeitsprozess sollte aber darauf geachtet werden, niemals JPEG als Ausgangsformat zu verwenden.

Das PNG bietet die beste Bildqualität und kann dank der verlustfreien Komprimierung auch während des Arbeitsprozesses verwendet werden. Die Möglichkeit der transparenten Farbflächen und Schattierungen macht das PNG weitaus flexibler, als das JPEG. Es sollte aber in Maßen verwendet werden, um die Ladezeit zu schonen. Typische Anwendungsgebiete sind besonders kontrast- und detailreiche Bilder, Kunst und Landschaftsfotografie und freigestellte Bilder mit transparenten Hintergründen.

Beitragsbild Barrierefreiheit

Barrierefreiheit im Internet

Erreichen Sie Ihre Zielgruppe effizienter durch Quellcode-Optimierungen

Barrierefreiheit beschreibt im allgemeinen Sprachgebrauch die Einbindung von Menschen mit körperlichen oder geistigen Benachteiligungen in den Alltag. Im Kontext von Internetseiten wird der Begriff Barrierefreiheit weiter ausgedehnt. Barrierefreiheit im Internet bedeutet, dass alle Nutzer – unabhängig von deren technischen Equipment, sprachlichen Barrieren oder tatsächlichen, körperlichen Einschränkungen eine Webseite bedienen und deren Inhalte verstehen können. Nennenswerte Einschränkungen, die beachtet werden sollten, sind beispielsweise Blindheit, Sehschwäche, fehlendes Farbsehen, Gehörlosigkeit, Muttersprache des Nutzers und sprachliches Level der Zielgruppe.

Heutzutage schließt Barrierefreiheit im Internet aber auch ein, dass Webseiten auf 4K-Bildschirmen, Notebooks, Tablets, Smartphones und manchmal sogar Smartwatches angezeigt und bedient werden können. Außerdem sollten sowohl die Inhalte als auch der HTML-Code einer Webseite für gute Lesbarkeit und das Auslesen mit Textreader-Software optimiert sein.

Wieso Barrierefreiheit wichtig ist

Neben der Einbindung von Menschen mit Behinderungen, die ohne Frage wichtig ist, gibt es auch ganz praktische und wirtschaftliche Gründe, seinen Internetauftritt barrierefrei zu gestalten. Klickt beispielsweise ein User in seiner Facebook-App auf eine Werbeanzeige und wird auf eine Webseite weitergeleitet, die nicht für Smartphones optimiert ist, gehen wichtige Conversions (Umsätze und Interaktionen) verloren.

Grundstruktur und semantische Elemente in HTML5

Die semantischen Elemente, wie <header> oder <nav>, sind bereits seit 2004 Teil des HTML5-Standards, aber noch lange nicht in der Realität der Web-Programmierung angekommen. Sie helfen nicht nur bei der Suchmaschinenoptimierung, sondern sind auch wichtig für moderne Text-Reader-Softwares. Text-Reader sind Tools, mit denen sehgeschädigte Menschen die Inhalte einer Webseite von einem Programm vorlesen lassen können. Die Text-Reader werden aber auch bei Internet-Nutzern ohne Sehschwäche immer populärer, da sie bequem sind und Zeit sparen.

Verwenden Sie deshalb immer semantische Elemente, um wichtige Seiten-Elemente, wie die Hauptnavigation, den Hauptinhalt und den Fußbereich zu kennzeichnen.

Wichtige semantische Elemente:

<header>: Der Kopfbereich der Webseite, umschließt üblicherweise die Hauptnavigation und ein Titelbild

<nav>: Die Hauptnavigation der Webseite

<main>: Hauptinhalt der Webseite

<section>: Normaler Inhaltsbereich der Webseite

<article>: Unabhängiger Teilabschnitt, beispielsweise ein Blog-Posting oder News-Artikel

<footer>: Der Fußbereich der Webseite, üblicherweise mit Links auf Unternehmens-Partner, Impressum und Datenschutz

Intuitive Menüführung statt experimenteller Designs

Kreative und extravagante Designs sind verlockend und verleihen einem Internetauftritt eine individuelle Identität. Ein ausgefallenes Design darf aber nie auf Kosten der Usability gehen. Damit die Inhalte einer Seite barrierefrei aufgenommen werden können, muss sich ein Besucher schnell und einfach auf der Seite zurechtfinden. Um das zu gewährleisten, müssen vorhandene Erwartungsmuster der Besucher berücksichtigt werden.

Beispiele für solche Erwartungsmuster sind:

  • Die Hauptnavigation befindet sich am oberen oder linken Seitenrand
  • Der Warenkorb befindet sich im oberen, rechten Bereich des Online-Shops
  • Über Klick auf das Unternehmenslogo kommt man zur Startseite
  • Impressum, Datenschutz und Kontakt finden sich im Fußbereich

In Ausnahmefällen kann man aus solchen Konventionen durchaus ausbrechen. Es sollte aber immer gewährleistet sein, dass Grundfunktionen einer Webseite intuitiv bleiben. Ein Besucher sollte sich mit den Inhalten der Webseite beschäftigen, Käufe tätigen oder Interaktionen durchführen, aber nicht auf der Suche nach der Hauptnavigation genervt die Seite verlassen.

Klare Hierarchien und kurze, prägnante Überschriften

Die Inhalte der Webseite sollten klar strukturiert sein. Durch eindeutige Hierarchien in Überschriften und eine übersichtliche Struktur kann der Inhalt der Seite schnell und einfach erfasst werden. Die HTML-Elemente <h1> bis <h6> definieren Überschriften und geben Ihnen eine Hierarchie. Die Überschriften werden relevanter in Absteiger Reihenfolge. Die <h1> repräsentiert dabei das Hauptthema der Seite und sollte nur einmal verwendet werden. Ebenso die <h2> Überschrift. Dementsprechend prägnant und aussagekräftig müssen die Überschriften sein.

Die optimale Länge einer Überschrift sollte 5 Wörter nicht übersteigen und mindestens ein Schlüsselwort enthalten, an dem das Kernthema des folgenden Absatzes erkennbar ist. Das erleichtert das Überfliegen des Textes und ermöglicht es dem Besucher, die Informationen oder Produkte zu finden, die er sucht.

Eine sinnvolle Gliederung könnte beispielsweise so aussehen:

<h1>Hauptüberschrift (Themenname)</h1>

<h2>Unterüberschrift (Kurzbeschreibung des Themas)</h2>

<p>Einleitungstext</p>

<h3>Absatzüberschrift zu Teilthema</h3>

<p>Artikeltext</p>

Optimierung für Mobilgeräte

Tablets und Smartphones gehören nun schon länger zum Alltag der meisten Zielgruppen. Neue Endgeräte sind Smartwatches und hochauflösende 4K-Monitore. All diese Geräte benötigen in der Regel spezielle Template-Optimierungen, damit eine Webseite auch auf diesen Geräten bedient und deren Inhalte wie gewünscht kommuniziert werden können.

Für die Optimierung für Mobilgeräte werden in der CSS-Datei Media Queries (Abschnitte im CSS, welcher der Optimierung einer speziellen Bildschirmauflösung dienen) mit festen Pixelwerten definiert, ab diesen sich das Layout der Webseite auf die entsprechenden Endgeräte anpasst. In der Regel werden dafür die Werte der Standard-Bildschirmauflösungen von modernen Desktop-PCs, Notebook, Tablets, Smartphones und Smartwatches verwendet: 1920px, 1024px, 768px, 480px, 320px.

Innerhalb dieser Media Queries kann man die Komplexität des Webseiten-Layouts schrittweise reduzieren. Das ist wichtig, weil ein Besucher auf seinem Desktop-PC ganz andere Wünsche und Ansprüche hat, wie jemand der mit seinem Smartphone (möglicherweise unter Zeitdruck) eine Webseite besucht. Inhalte und Funktionen, die in der Desktop-Variante einer Webseite sinnvoll sind, können auf Mobilgeräten zu einem Störfaktor werden.

Slider-Funktionen und große Bildergalerien haben in einer mobilen Webseite beispielsweise nichts zu suchen. Auch die Komplexität und die Bedienung von Menüs, insbesondere der Hauptnavigation, sollte gezielt reduziert werden.

Um eine saubere Struktur im CSS-Code zu gewährleisten, sollten sinnvolle Abschnitte definiert werden. Styles, welche zu einem bestimmten Teil der Webseite gehören, können unter einer passenden Überschrift zusammengefasst werden. Außerdem sollte man darauf achten, dass die Optimierungen der einzelnen Bildschirmauflösungen in absteigender oder aufsteigender Reihenfolge vorgenommen werden und nicht wild durcheinander. Innerhalb der Media Queries sollte ebenfalls auf eine sinnvolle Gliederung geachtet werden. Das macht die CSS-Datei nicht nur übersichtlicher, sondern spart auch Arbeitszeit und erleichtert Anpassungen zu einem späteren Zeitpunkt.

Eine Serie an Media Queries im CSS könnte wie folgt aussehen:

/* Desktop-Styling */
[Desktop-Styles]

/* Tablet Querformat */
@media (max-width:1024px) {
[Tablet-Styling]
}

/* Tablet Hochformat */
@media (max-width:768px) {
[Smartphone-Styling]
}

Blogbeitrag über Web 3D

Die Zukunft des Web3Ds

3D IM WEB

Heutzutage ist vieles in 3D – vom Kino-Film bis hin zum Videospiel. Auch im Web sind immer öfter 3D-Grafiken zu sehen. Gerade in den letzten Jahren hat Web 3D immer mehr an Bedeutung gewonnen: aus dem statischen 2D Info-Net wird eine interaktives 3D Experience-Net.

Geschichte des Web 3Ds

VRML97 (Virtual Reality Markup Language) war der Anfang des Web 3D. Doch brauchte man ein Plug-in für den Browser um die Dateien ansehen zu können, weshalb es sich nie durchsetzte. Im Jahr 2004 wurde von einem zuvor gegründeten Web-Konsortium die Beschreibungssprache X3D als neuer Web-3D-Standard erklärt. Doch auch hier wurden Plug-ins gebraucht.

Dann kam der neue Webstandard HTML 5 und die Khronos Group, welche sich vor Jahren aus bekannten Firmen wie z.B. Apple zusammenschloss, um an der Weiterentwicklung der Grafik-API OpenGL zu arbeiten. OpenGL wurde in JavaScript eingebunden und unter dem Namen WebGL wiedergeboren. Somit waren Plug-ins nicht mehr erforderlich, denn WebGL war in den Browser eingebunden.

3d-im-web-vergleich

Unterschied zwischen VRML97 (links) und WebGL (rechts)
Quelle: https://www.heise.de/ix/artikel/In-die-Tiefe-gehen-1108267.html?view=zoom;zoom=4
(Stand: 25.09.2017 17:11)

Web 3D heute

Heutzutage unterstützen fast alle gängigen Browser WebGL. Daher ist es möglich echte 3D-Modelle ohne Plug-ins und auf mobilen Geräten ohne großen Aufwand darzustellen. Gerade auf mobilen Geräten mit Touchscreen bietet sich interaktive 3D-Modellen sehr gut an, da diese sich kinderleicht bedienen lassen. Das macht eine Webseite anschaulicher und bleibt dem User im Kopf.

Aber auch WebGL hat Nachteile. Damit keine weiteren Plug-ins benötigt werden, greift WebGL direkt auf die Grafikkarte des Gerätes zu. Das stellt natürlich ein Sicherheitsrisiko dar.  Eine weitere Kritik an WebGL ist der enorme Programmieraufwand, für welchen man in bestimmten Programmiersprachen und Mathematik fit sein muss.

Aus diesen Gründen wurde die Variante mit Plug-ins noch nicht ganz verworfen. Ihr Vorteil ist die Verwendung von 3D Grafiken ohne Programmieraufwand. Man kann die 3D-Anwendung direkt aus der Entwicklungsumgebung laden. Doch darin liegt auch der Nachteil. Plug-ins sind sogenannte „closed boxes“, d.h. sie können keine Informationen mit dem Rest der Webseiten austauschen. Das verhindert bzw. erschwert das interaktive Webdesign.

Bei WebGL ist dies möglich, weshalb sich deutlich mehr Freiheiten bei der Gestaltung und weniger Grenzen für die Umsetzung neuer Ideen ergeben. Deshalb bleibt WebGL wohl der neue und maßgebende Standard.

Als moderne Internetagentur arbeiten auch wir mit 3D-Effekten, welche sie z.B. auf unsere Startseite sehen könne. Schon durch kleine 3D-Effekte wie Bilder, die in die Seite „reinfliegen“, wirkt Ihre Webseite interessanter und lebhafter. Mit Hilfe von unserem Webdesign wird Ihre Webseite modern und interaktiv!

Die Zukunft des Web 3D

Der nächste Schritt des Web 3Ds ist WebVR (Virtual Realität). Und daran wird fleißig gearbeitet.

Mozilla und Google haben vor einiger Zeit begonnen die Grundlagen für VR in ihren jeweiligen Browsern zu legen.

Zukunft des Web 3D

So sieht WebVR im Browser ohne VR-Brille aus.
Quelle: https://roadtovrlive-5ea0.kxcdn.com/wp-content/uploads/2014/11/hud-2.jpg
(Stand: 26.09.2017, 14:19)

Zwar gibt es schon viele Ansätze und auch schon Webseiten für WebVR, dennoch steckt es noch in seinen Kinderschuhen.  Aber Firefox ist schon so weit, dass der WebVR Standard am Ende des Jahres in dem Browser mitgeliefert wird und Chrome zieht nächstes Jahr mit. Jetzt ist der ideale Moment um sich über den Einstieg in WebVR Gedanken zu machen. Es handelt sich um eine spannende und zukunftsweisende Technologie, die in den letzten Monaten schon große Sprünge gemacht hat und es bestehen noch Chancen als Pionier ganz vorne dabei zu sein.

Dennoch sollte der Einsatz von WebVR auf Webseiten sinnvoll und überdacht sein, da es zum einen teuer ist und zum anderen noch wenige Menschen die Hardware besitzen. Für z.B. einzelne Produktpräsentationen kann WebVR ein interessantes Feature sein.