Immer up-to-date bleiben!? Jetzt Newsletter abonnieren

BrightonSEO 2018 – Recap

Am 27. und 28. September waren wir international unterwegs: Wir hatten das Vergnügen die BrightonSEO in England besuchen zu dürfen.

Auch wenn Brighton mit circa 270.000 Einwohnern eine verhältnismäßig kleine Stadt ist, ist die gesamte Konferenz riesig. So viele Besucher und parallel stattfindende Vorträge haben wir auf einer Konferenz noch nie gesehen. Dies stimmt auch gut mit dem Slogan „das größte SEO-Event Europas“ überein. Laut der Webseite besuchen 4.000 Marketingbegeisterte diese Veranstaltung.

Hier eine Auswahl unserer BrightonSEO Highlights & Learnings:

Site speed optimization course | Chris Simmance

Am Tag vor der BrightonSEO hatten die Besucher die Möglichkeit an Trainings zu bestimmten Themen teilzunehmen. Einen der Kurse gab hier Chris Simmance von der Under2-Agency, welche sich auf Site-Speed-Optimierung spezialisiert hat.

Unsere Top Learnings:

  • Für WordPress-Seiten sind Site-Speed-Plugins eigentlich nie die beste Lösung, da sie erst nach einem initialen Request ihre „Wirkung“ entfalten. Eine gut programmierte Seite ist ohne diese Plugins meist deutlich schneller.
  • Sehr große Potenziale liegen bei der Site-Speed-Optimierung in der Verbesserung des Server-Setups. Shared Server sind häufig problematisch, da man die Bandbreite mit anderen, ggf. hochfrequentierten Websites, teilen muss. Auch nicht aktualisierte Server, welche bspw. noch auf PHP5 statt 7.2 laufen, sind ein gängiges Problem. Mit einem einfachen Server-Update kann so die Anzahl der Requests pro Sekunde verdreifacht werden.
  • Mit dem Tool unused-css.com kann man ungenutztes CSS auf einer Seite identifizieren und einen bereinigten Quelltext herunterladen.
  • Bei der Erstellung einer Website sollte man auf vorgefertigte Themes oder Frameworks verzichten und diese lieber selbst bauen. Sonst werden sehr viele ungenutzte Elemente mit geladen.
  • Externe Scripte (wie APIs, Tracking-Pixel, Map-Integrationen) reduzieren die Ladezeit einer Website deutlich. Viele dieser Elemente können nachgeladen werden, da sie für den initialen Aufbau der Seite nicht erforderlich sind. Alle weiteren externen Scripte können via Google Tag Manager integriert werden, wodurch die Scripte asynchron und parallel zu den anderen Ressourcen geladen werden können.

 

„Psychology and neuroscience of online behaviour“ | Danny Richmach

Unsere Top Learnings:

  • Die Ziele eines Nutzers stimmen nicht immer mit den des Website-Betreibers überein. So ist auf den ersten Blick das Ziel des Besuches einer Website zum Thema Asien-Reisen, eine solche Reise zu buchen. Das ist wiederum auch das Ziel des Website-Betreibers. Die den Nutzer antreibende Emotion könnte aber auch eine andere sein, wie das Verlangen nach neuen Erlebnissen oder Wunsch nach Erholung. Das Ziel der Nutzer soll durch detaillierte Analysen aufgedeckt werden, damit die Website dementsprechend aufgebaut werden und das finale Bedürfnis des Nutzers erfüllen kann.
  • Limbic Maps eignen sich hervorragend zur Eingrenzung der vermutlichen Bedürfnisse der Zielgruppe einer Webseite.

Limbic Map Deutsch B2C

  • Das Ziel dabei ist, die relevanten Elemente einer Website an die Bedürfnisse der Nutzer anzupassen, um dem Nutzer die bestmögliche Erfahrung zu ermöglichen und letztlich die Zahl der Conversions zu erhöhen.
  • Kategorisierungen der Zielgruppe nach der Limbic Map können auch bereits vor dem Besuch der Website die Klickattraktivität und -wahrscheinlichkeit erhöhen. Danny zeigte verschiedenste Beispiele von SEA-Anzeigen, die basierend auf dieser Technik optimiert wurden und starke Anstiege in der Click-Through-Rate vorweisen konnten.

 

Technical SEO in the real world | Barry Adams

SEO-Urgestein Barry Adams berichtete in seiner Session am Morgen der BrightonSEO von den Problemen seines Arbeitsalltags, denen er als Gründer der bekannten Agentur Polemic Digital begegnet.

Unsere Top Learnings:

  • Wenn man Structured-Data-Elemente (wie z.B. Aggregate Rating) im <head>-Bereich einer Seite einbaut, hat man deutlich bessere Chancen auf eine Ausspielung in den SERPs, als wenn man es weiter unten im Quelltext verortet.
  • Die Suchmaschinen erwarten iframes im Body einer Seite. Wenn sie im <head>-Bereich einer Seite auftauchen, wertet es Google als Signal, dass nach dem iframe der Body beginnt. So kann es vorkommen, dass beispielsweise eine hreflang-Angabe, die im <head>-Bereich einer Website nach einem iframe eingebaut wird, von Suchmaschinen ignoriert wird.
  • Die Beseitigung von internen Redirects kann Rankings und Traffic stark steigern, da weniger Linkjuice verloren geht. Eigentlich ist dies keine neue Erkenntnis, dennoch war der gezeigte Trafficzuwachs von über 30% erstaunlich.

 

Learnings of migrating 100,000 subdomains to subfolders | Esteve Castells

Auch Esteve Castells, SEO Spezialist bei Softonic, erzählte von seinen Erfahrungen, insbesondere den Learnings aus Migrationen von Subdomains zu Subfolders.

Unsere Top Learnings:

  • Migrationen von Subdomains zu Subfolders sind in den meisten Fällen sehr erfolgsversprechend und sorgen für deutliche Trafficzuwächse, wenn eine inhaltliche Verbindung zwischen den Seiten besteht.
  • Aber nicht in allen Fällen ist die Migration eine gute Idee. Bei Subdomains für Länderversionen hat eine Subdomainmigration deutliche Trafficverluste mit sich gebracht.
  • Hier war eine stark fallende CTR der Grund für die Verluste. Daher sollte im Vorhinein unbedingt evaluiert werden, wie sich die URL-Änderung auf die CTR auswirken kann.

 

What I learned from crawling 10 billions of Pages and analysing 5 Trillions of log lines“ | Francois Goube

Crawling- und Logfile-Analysen sind im technischen SEO immer spannend. Die dabei aufkommenden Datenmengen können sehr herausfordernd sein. Als CEO von Oncrawl, einem Tool-Anbieter für Crawling- und Logfile-Analysen, hat Francois die technische Möglichkeit eine extrem große Menge an Daten gleichzeitig auszuwerten. So konnte er 250.000 zufällig ausgewählte Seiten aus der Majestic Million und die Crawl- und Logfile-Daten von 97 Kunden von Oncrawl auswerten, was in der Summe 10 Milliarden URLs und 5 Billionen Logfile-Zeilen ergab.

 

 

Unsere Top Learnings:

  • Googlebot und Baiduspider machen den größten Anteil an Crawler-Zugriffen von Suchmaschinen aus. Jedoch machen sie im Vergleich zu anderen Bots und dem vorgetäuschten Googlebot nur einen sehr geringen Prozentsatz aller Zugriffe aus.
  • Die Zeit zwischen dem ersten Crawl einer URL durch Google und dem ersten organischen Traffic variiert je nach Industrie sehr stark. Im Medienbereich sind es im Durchschnitt weniger als 5 Tage, wohingegen im E-Commerce-Bereich der Durchschnitt bei 70 Tagen liegt.

Google Javascript Render

  • Der Googlebot rendert im Schnitt alle 24 Tage die JavaScript-Ressourcen.
  • AMP scheint bisher noch nicht sehr weit verbreitet zu sein.
  • Anhand des Crawlingverhaltens des Web- versus Mobile-Bots lässt sich am besten erkennen, ob eine Seite in den „Mobile First Index“ migriert ist. Fun Fact: In UK scheint der „Mobile-First Index“ am weitesten verbreitet zu sein.

 

Die Lage von AMP
 

Fazit:

Die BrightonSEO ist im Vergleich mit den Konferenzen in Deutschland was völlig anderes. Die Größe des Events ist sehr beeindruckend – für jeden ist etwas dabei. Daher können wir diese Veranstaltung auf jeden Fall empfehlen. Unser Tipp: Nehmt auch die Trainings (finden einen Tag vor der BrightonSEO Konferenz statt) mit, diese sind sehr empfehlenswert und durch die kleinen Gruppen auch super hilfreich.



Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Wir sind bekannt aus...

  • Werben und Verkaufen
  • Internet World Business
  • lead Digital
  • t3n
  • https://www.trustagents.de/wp-content/uploads/2016/07/5.png
  • IHK
  • n-tv