Alle Expert Tracks auf dem Searchmetrics Summit 2017
Der Searchmetrics Summit 2017, das war für mich in der Recap-Kurzfassung ein voller Tagesablauf, hochinteressante Inhalte, gutes Essen, gute Gespräche und dazu noch ein bisschen Kicker. Aber kommen wir zum eigentlich Wichtigen: den Vorträgen auf dem Searchmetrics Summit! Alles ist schön chronologisch geordnet, damit Ihr Euch auch alle gut zurecht findet. Und noch ein Hinweis: Von den beiden angebotenen Tracks habe ich mir ausschließlich die Expert-Track-Vorträge angeschaut.
Markus Tober kennt seine Audience – und wir SEOs sollten das auch!
In seinem Vortrag auf dem Searchmetrics Summit gab Gründer und CTO Markus Tober einen knackigen Überblick darüber, wie man seine Content Strategy besser auf Suchdaten aufbauen kann. Hier die wichtigsten Learnings und ein unterhaltsames Beispiel, wie sich die typisch deutsche von einer typisch amerikanischen Suchanfrage unterscheidet.
Man kennt die Klischees über den grüblerischen, wenig spontanen Deutschen sowie seinen amerikanischen Freund, der immer nur in Superlativen denkt. Und, wenn man Markus Tober glauben darf, zeigt sich das auch in den Google Querys. Während der Deutsche bzgl. eines Akkuschraubers recherchiert und den Produktname sowie den Zusatz „Akkuschrauber“ in den Suchschlitz tippt, weiß der US-Amerikaner, wonach er suchen muss und gibt „the best cordless screwdriver“ ein.
Neueste Entwicklungen im Ranking!
- Das Keyword im Titel der URL ist 2017 nicht mehr so wichtig wie bisher.
- Der Anteil der rankenden Seiten mit viel Content steigt. Im Zeitraum von 2015 bis 2017 zeigt sich eine deutliche Veränderung, die vor allem die Posistionen 1 bis 10 betrifft.
- Die Ranking-Faktoren sind je nach Branche unterschiedlich. Searchmetrics hat in einer aktuellen Studie Hinweise auf individuelle Rankings gefunden.
- Wenn alte Inhalte, die keine Aufrufe haben, entfernt werden, kann das das Seiten-Ranking nachhaltig boosten. Es gilt die Devise: „Mehr Inhalt sorgt nicht zwangsläufig für bessere Rankings.“ Denn Schrottinhalte verschwenden nur das Crawlerbudget.
- Der General Marco Janck hat es ja schon auf dem SEO-Day in Köln verkündet, aber auch Markus Tober ist sich sicher: Die Tendenz geht hin zu Holistic Landingpages!
Wenn Ihr Euch Markus Tobers Präsentations-Slides anschauen möchtet, dann könnt Ihr das hier!
Und hier noch das Video von Markus Tobers Auftritt auf dem Searchmetrics Summit:
Bartosz Goralewicz verrät Geheimnisse über den Google Bot
Was die eigenen Geheimnisse angeht, ist Google in der Regel mehr als diskret. Bestes Beispiel hierfür sind die ab und zu getätigten Aussagen John Muellers, die es mit ihrem Inhalt oft eher an die Sprüche des Orakels von Delphi erinnern. Auftritt Bartosz Goralewicz, der den Zuhörern einen „Advanced Technical SEO-in-depth Look into Java-Script SEO und die Technologie, die hinter dem Google-Bot steckt“ ermöglichte.
Die Enthüllungen über den Google Bot auf dem Searchmetrics Summit
- Die Basis des Google Bots ist Chrome 41 (sagt laut dem Vortragenden „ein Google- Mitarbeiter“).
- Anschließend gab er eine Übersicht der indexierbaren JS Frameworks. In einem aufwändigen Test, nachzulesen hier, wurden alle Frameworks untersucht. Die Ergebnisse des Tests in kompakter Form:
- Teilweise werden Seiten auch nach sechs (6!) Monaten immer noch nicht indexiert.
- Für die Top-Seiten gilt das nicht, denn diese werden größtenteils immer schnell indexiert. Unterseiten hingegen gehören zu den Verlierern, denn sie werden meist überhaupt nicht vom Google Bot angeschaut, geschweige denn, indexiert.
- Der Google Bot ist nicht gerade geduldig und wartet deshalb erst, bis client-seitig gerendert wurde. Das hat sich Netflix zu Herzen genommen und es geschafft, dank einem Wechsel von einem client-seitigen JS-Rendering der react.js zu einem server-seitigen Rendering die Startup Time um 70 % zu verringern. Infolgedessen hat sich die Performance der Seite um 50 % verbessert. Konkurrent Hulu hat indes auf einen Wechsel verzichtet. Das Resultat: Seitdem stürzt die Seite ab, wenn man die Sistrix-Sichtbarkeiten anschaut (siehe hier)
- Noch ein wichtiger Tipp im Bezug aufs Indexing: Der Google Bot nutzt nur http/1.1 und ist damit wesentlich langsamer als http/2, weil er die Requests in einzelne Blöcke aufsplittet – limitiert durch die browser settings. Mehr dazu findet Ihr im Blog von moz.com
Bastian Grimm bringt Ihre Webseite auf Usain-Bolt-Speed
Bastian Grimm von Peak Ace ist SEO-Experte und leidet, genau wie der durchschnittliche Online-User, extrem unter Seiten, die sich nur im Schneckentempo aufbauen und haut nach etwa 2 Sekunden ab, wenn bis dahin nichts oder kaum etwas zu sehen ist.
Und da auch Suchmaschinen lahme Seiten abstrafen, gab er in seinem Vortrag „International Site Speed: A complete Guide to Super-Speed around the world“ ein paar kluge Tipps und Lösungen dafür, wie und mit welchen wichtigen Tools er der Schnecke Beine macht und sie zum Geparden tunt. Hier seine wichtigsten Anmerkungen, aufgegliedert in a) Die großen Speedkiller, b) Lösungsansätze und c) Die wichtigsten Tools:
a) Die Speedkiller
- Es ist wichtig, den Unterschied zwischen First Paint, First Contentful Paint, First Meaningful Paint und Time to Interactive zu kennen. Finde ich auch, wäre aber zu ausführlich, um es hier auszuwalzen. Deshalb mein Tipp: Hier findet Ihr alles kompakt erklärt von Google selbst!
- Verantwortlich als größte Speed-Killer im Sinne der Anklage sind TTFB und die Anzahl der http-Requests, u. a. von Java-Scripts und Tracking-Pixeln
- Ebenfalls weit vorne beim Verlangsamen der Ladezeiten: Custom Fonts! Z. T. werden 115 kb an Fonts nachgeladen, ehe die Seite weiterlädt. Eine Lösung hierfür: Fontloader! Doch Achtung: Sobald diese geladen sind, ändert sich die Schrift automatisch.
b) Lösungsansätze für Probleme mit der Site Speed
- Verkleinert die CSS-Styles und das Java Script!
- Komprimiert Eure Bilder (z. B. mit tinyjpg)!
- Nutzt asynchrone Requests, denn der Browser wartet nicht, bis die Inhalte komplett geladen sind, bevor er weitermacht.
- Lasst externe Domains nachladen (die dann wieder in IP-Adressen aufgelöst werden müssen). Also: DNS-Prefetch und DNS Pre-Connect nutzen, denn diese beschleunigen die Seite deutlich. Mehr Infos hierzu findet Ihr hier.
- Schaut Euch häufige Conversion-Pfade an und ladet beim Aufruf einer bestimmten Seite direkt die oft darauffolgenden Seiten via Pre-Render vor (z. B. in einem Warenkorb-Pfad)!
- Bringt Eure Seite schnellstmöglich auf http/2, denn diese Seiten laden Inhalte parallel ohne Request-Begrenzung.
c) Die wichtigsten Tools, die für Speed sorgen
- Hört auf, Google Pagespeed zu benutzen (Dieser Score wird demnächst entfernt)!
- Nutzt stattdessen lieber Webpagetest.org. Mit diesem Tool könnt ihr Ladezeiten von verschiedenen Browsern und in unterschiedlichen Regionen testen.
- Ebenfalls sehr hilfreich: Google Lighthouse. Dieses Tool ist im Chrome Inspector unter den Audits versteckt.
- Track Paint Timings könnt Ihr Euch via Script und Google Analytics anschauen, siehe hier.
- Das Tool Critical CSS lädt wichtige CSS Styles bereits inline im Header, kostet 2 $, gibt es ganz ähnlich aber auch hier als Freeware.
Wenn Ihr Euch Bastian Grimms Präsentations-Slides anschauen möchtet, dann könnt Ihr das hier!
Und hier noch das Video von Bastian Grimms Auftritts auf dem Searchmetrics Summit:
Björn Beth vs. the Big Hairy Relaunch Monster
Relaunches sind wichtig, aber, jeder im Online Marketing weiß es, Relaunches können auch furchtbar anstrengend sein und schrecklich schiefgehen. Wie Ihr es schafft, das „Big Hairy Relaunch Monster“ möglichst klein zu halten, das erklärte Björn Beth auf dem Searchmetrics Summit ausführlich. Hier sein Beitrag in Kurzform, in 6 Punkten.
6 Regeln für den Relaunch
- Vor einem Relaunch sollte sichergestellt werden, dass die Verantwortlichkeiten klar definiert sind. Björn Beth empfahl als Methode, um Ärger und Probleme zu vermeiden, die RACI-Methode! Achtung: NICHT die Raki-Methode mit „k“, die bestenfalls nach einem misslungenen Relaunch angewendet werden sollte:
Klicken Sie auf den unteren Button, um den Inhalt von giphy.com zu laden.
- Ein Staging Environment MUSS unbedingt vorhanden sein.
- Als SEO-Tool empfiehlt er Fetch & Render as any Bot.
- Wer heute relauncht, sollte immer HTTP2 nutzen!
- Ein weiteres sinnvolles Tool, das das Verhalten der Suchmaschinen-Bots in Echtzeit verfolgt, außerdem noch andere Bots erkennt und auch Alerting bietet: Logrunner.io.
- Zwar bekannt, aber dennoch wird es oft bei einem Relaunch vergessen oder verhuddelt: Die Disavow-Files sollten, z. B. bei einer Umstellung von http auf HTTPS, immer ein Update erhalten.
Wenn Ihr Euch Björn Beths Präsentations-Slides anschauen möchtet, dann könnt Ihr das hier!
Und hier noch das Video von Björn Beths Auftritts auf dem Searchmetrics Summit:
Christian Oliveira, AMP und das lügnerische Analytics-Tool
Ein ganzes Jahr hat es gedauert, bis nach dem Relaunch von AMP endlich ein massiver Fehler gefixt wurde. Das Problem, an dem Google so lange herumdokterte: Durch den Einsatz von AMP wurde ein einzelner User teilweise bis zu vierfach gezählt.
Nicht schön, aber wir als Berliner freuen uns, wenn ein Vorhaben in nur einem Jahr fertiggestellt werden kann. Stichwort BER, Stichwort Googles 2. Campus, Stichwort Auszählung der Bundestagswahl-Stimmen … Danke, Christian Oliveira, für den unterhaltsamen Beitrag auf dem Searchmetrics Summit.
Wenn Ihr Euch Christian Oliveiras Präsentations-Slides anschauen möchtet, dann könnt Ihr das hier!
Und hier noch das Video von Christian Oliveiras Auftritts auf dem Searchmetrics Summit:
Gianna Brachetti-Truskawa und typische HREFLANG-Fehler
Gianna Brachetti-Truskawa klärte die Anwesenden über die zehn üblichsten Fehler, die beim hreflang passieren, auf. Für mich besonders interessant in ihrer Liste waren zwei Sachen. Zum einen der Tipp, kein Canonical mit hreflang zu verwenden, da dies sonst zum Crawling-Stopp der Copy-Domain führen kann. Ebenfalls sehr hilfreich: Das hreflang Tags Testing Tool.
Spiegel Online erklärt Google News
Insa Winter und Raphael Raue von Spiegel Online präsentierten einen Einblick in bzw. Überblick über Google News. Zuerst zeigten Sie sechs Regeln auf, die über die Aufnahme in die News-Funktion entscheiden:
Die 6 Regeln für Google News
- Es muss regelmäßig Content erstellt werden.
- Es muss mehr als einen Autor geben.
- Die Themen müssen aktuell sein.
- Der Text muss aus wenigstens 1.000 Zeichen bestehen.
- Die Artikel müssen einen Neuigkeitswert haben – Wiederveröffentlichungen von Evergreens haben keine Chance auf Veröffentlichung.
- Im Artikel selbst sollten auch anerkannte Experten erwähnt werden.
Sind alle die o. g. Kriterien erfüllt, wird man von Google manuell freigeschaltet und kann seine Artikel in Basic HTML, also ohne jedweden Schnickschnack wie z. B. JS vor dem Artikel, uploaden. Wichtig hierbei: Es ergibt wenig Sinn, jedweden Content rauszuballern! Stattdessen sollte nur dann publiziert werden, wenn ein Interesse am Thema bei möglichen Lesern vorhanden ist.
Die Veröffentlichung auf AMP zielt weniger darauf ab, Conversions zu erzielen. Im Mittelpunkt steht die Stärkung der eigenen Brand. Gelingt es einem, die News richtig auszuspielen, kann man Nachrichten zur eigenen Brand sogar dominieren.
Wenn Ihr Euch Insa Winters und Raphael Raues Präsentations-Slides anschauen möchtet, dann könnt Ihr das hier!
Und hier noch das Video ihres Auftritts auf dem Searchmetrics Summit:
Das Maschinengewehr des Digital Marketings entführt uns in die Zukunft
Das Beste kommt zum Schluss! Nichts gegen die anderen Speaker, aber Jono Alderson von Distilled lieferte mit Abstand den unterhaltsamsten Vortrag des gesamten Searchmetrics Summit. Der Titel: „Digital Marketing is dead. Survival Tips for what comes next.“ Also lassen wir den gleichzeitig auch rasantesten Speaker mal vortragen, der in seinem Rede-Ttempo an Menschen wie den hier erinnerte:
Los geht’s, yada yada yada … mit den generellen Trends:
Die Zukunft des Digital Marketings. Yada, yada, yada
- Eine Milliarde neuer Nutzer werden ganz bald ins Internet kommen.
- 3D-Druck wird immer mehr in unseren Alltag integriert. Die Folge: Dadurch entfällt bald der Zwischenschritt der Lieferung.
- Assistants werden in naher Zukunft klassische Hilfsfunktionen übernehmen.
- Software und Roboter ersetzen jetzt schon viele Arbeitskräfte.
- Brands sind sehr vertikal aufgestellt, haben aber gleichzeitig kaum oder keine Einsicht in die Tiefe.
- Diverse Marken werden vom Markt verschwinden. Ursache: Sie sind Neuem gegenüber wenig aufgeschlossen und zu sehr im Traditionellen verhaftet. Die Konkurrenz hingegen wächst und es gibt immer mehr alternative Produkte. So weit so gut, yada, yada, yada …
Klicken Sie auf den unteren Button, um den Inhalt von giphy.com zu laden.
Aber überall, wo es ein Problem gibt, ist immer die Chance für eine Lösung vorhanden. Und das gilt erst recht, wenn man sich auf dem Searchmetrics Summit befindet. Zwei Lösungen nannte dann auch Jono Alderson. Die erste: „Weg vom Kanaldenken!“ und „Hin zu einem ganzheitlichen Prozess!“ Das Beispiel, das er nannte: „Eine Aufteilung in Creation, Fulfillment und Retention“. Ebenfalls für jede Marke ein absolutes Muss bzw. ideal: Bevor überhaupt ein Bedarf entsteht, sollte man die Möglichkeit zur Deckung eben dieses Bedarfs schon besitzen.
Wenn Ihr Euch Jono Alderson Präsentations-Slides anschauen möchtet, dann könnt Ihr das hier!
Und hier noch das Video von Jono Aldersons Auftritt auf dem Searchmetrics Summit: