Immer up-to-date bleiben!? Jetzt Newsletter abonnieren

SEO Campixx Recap 2018 – Trust Agents in Berlin

Für Trust Agents zählt die SEO CAMPIXX zu den Pflichtkonferenzen. Seit mehreren Jahren sind wir dort Besucher und Speaker. So auch dieses Jahr. In gewohnt entspannter Atmosphäre konnten wir uns zwei Tage lang mit anderen Online Marketern austauschen und in den Dialog gehen.

Zwei spannende SEO-Workshops in der Pipeline

Gleich zweimal konnten wir die Besucher der Konferenz in unseren Bann ziehen. Darius brachte das Thema „SEO Cases aus der Praxis“ mit und zeigte im überfüllten Raum 60 Minuten lang spannende Entwicklungen und Beobachtungen aus seiner Consultant-Tätigkeit auf. Da er reale Kundendaten verwendet hat, können wir die Slides hier leider nicht veröffentlichen.

Von Eduard und Johannes gab es einen Workshop zum Thema „Crawling Analysis to the fullest“. Darin haben sie sich ganz konkret der Frage gewidmet, was das Crawl-Budget eigentlich ist und wie dieses ausgewertet werden kann. Die Empfehlung der beiden dazu lautete: Logfile-Analysen regelmäßig durchführen. In der abschließenden Diskussion konnten viele Fragen geklärt und heiße Tipps mit auf den Weg gegeben werden.

Sketcnotes Crawling Analysis

Sketchnotes zum Workshop von katjasays.com

Hier findet ihr die Slides zum Workshop:

 

Unsere Highlights der SEO CAMPIXX 2018:

Lisa Bastian: 10 Jahre SISTRIX – Was du von den besten Case Studies lernen kannst

Lisa Bastian hat in ihrem Vortrag Themen beleuchtet, die Leser des SISTRIX Blogs bis dato am meisten interessiert haben. Dabei stellte sie 6 Topics mit den daraus zu ziehenden Learnings genauer vor.

  1. Indexierung: Jeder SEO sollte sich ab und zu mit den tatsächlich indexierten Inhalten beschäftigen und Snippet-Optimierung betreiben.
  2. Interne Verlinkung: Harte Ankertexte sind bei der internen Verlinkung erlaubt. Häufig geklickte Links haben eine große Relevanz.
  3. Relaunch: Um die Website erfolgreich zu gestalten, muss der Nutzer in den Mittelpunkt gestellt werden.
  4. Länderspezifische Inhalte: Google samt Nutzern sollten zwingend die gleichen Inhalte ausgespielt werden. Cloaking kann negative Folgen haben, wie es Netflix im Jahr 2017 bewiesen hat.
  5. Nutzerintentionen: Die Bedeutung von Keywords immer wieder hinterfragen. Die Intention hinter den Suchbegriffen kann sich je nach verwendeten Variablen ändern. Dadurch sollten auch die Suchergebnisse angepasst werden.
  6. Interne Suche: Achtung bei der Indexierung der internen Suchergebnisseiten. Google bevorzugt es, dem Nutzer die relevantesten Suchergebnisse zu liefern aber keine weitere Suche anzuzeigen.

 

Martin Mißfeldt: Bilder-SEO 2018 – viele neue Rankingfaktoren

Wenn man sich  intensiv mit dem Thema „Bilder-SEO“ auseinandersetzt, war die Session von Martin sehr nützlich, da man sich bei spezifischen Fragen absichern konnte. Nach einer grundlegenden Einführung in das Thema, hat Martin den Anwesenden praktische Tipps gegeben. Dazu zählte z.B. sein Hinweis,  dass die Bilderoptimierung zur Stärkung der organischen Rankings führen kann. Das Bilder-Ranking ist zwar, aufgrund von Googles Designumstellungen, nicht mehr der große Traffic-Bringer. Trotzdem kann sich der oft vergessene Einsatz von Bilder-SEO lohnen. Wer mehr zu der Session erfahren will, schaut am besten in Martins Blog.

 

Artur Kosch: JavaScript SEO – Crawling, Indexierung und Auditing von JavaScript Websites

Die Bewertung von JavaScript angereicherten oder komplett mit JavaScript umgesetzten Webseiten fällt auch alten SEO-Hasen nicht leicht. In seinem Vortrag erläuterte Artur Kosch umfangreich das aktuelle Wissen zu JavaScript und SEO. Er zeigte, welche technischen Möglichkeiten die Suchmaschinen in der Bewertung von JavaScript-reichen Webseiten haben und wo noch Verbesserungspotenziale vorhanden sind. Artur gab außerdem Tipps dazu, wie die Umsetzungen getestet werden können. Die Slides aus dem Vortrag findet ihr hier: Ein Muss für jeden, der sich in die Materie einarbeiten oder vertiefen möchte.

 

Eoghan Henn: JavaScript SEO – Experimente mit dem Google Tag Manager

Eoghan hatte über mehrere Wochen hinweg getestet, ob mittels Google Tag Manager HTML-Titles, Meta-Descriptions, Hreflang-Tags, Canonical-Tags, Meta-Robots-Tags, interne Verlinkungen und strukturierte Daten von Google interpretiert werden. Dabei stellte er fest, dass alle Einbindungen und Änderungen, die über den Google Tag Manager vorgenommen werden, von Google erfasst und genutzt werden. Dies bedeutet, dass Google das gerenderte HTML wertet. Diese Art der Einbindungen hat aber auch viele Nachteile hinsichtlich der Skalierung, des zeitlichen Horizonts etc. Bei technischen Engpässen kann man allerdings schnell handeln und dem Development die Zeit für die korrekte Integration verschaffen. Auf Eoghans Blog gibt es eine Menge Informationen zum Nachlesen. Absolut lesenswert.

 

Kaspar Szymanski:  Google-Strafen verstehen und vermeiden – erklärt vom ehemaligen Search Quality Googler 

Vorträge des ehemaligen Google-Mitarbeiters enthalten immer nützliche Empfehlungen. Der Autor des ultimativen Google-Penalty-Guides zeigte den Sinn hinter den Google-Abstrafungen. Er ging darauf ein, welche Probleme Seitenbetreiber haben könnten, wenn sie Google negativ auffallen und was man beachten sollte, um Abstrafungen zu vermeiden. Aus seiner Sicht ist die Dokumentation aller Schritte zur Behebung der negativen Signale essenziell. Dabei sollten wiederum positive Signale gesendet werden, um zu zeigen, dass in der Zukunft die gleichen Probleme nicht auftreten werden. Auch dieser Expertenvortrag verdient das Prädikat: extrem hörenswert!

 

Unser Fazit

Auf der SEO Campixx durften wir unser Know-how mit den Besuchern teilen und eine Menge Input von den anderen Branchenexperten mitnehmen. Unsere nächste Aufgabe – das neue Wissen in der täglichen Arbeit einzusetzen.



Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Wir sind bekannt aus...

  • Werben und Verkaufen
  • Internet World Business
  • lead Digital
  • t3n
  • https://www.trustagents.de/wp-content/uploads/2016/07/5.png
  • IHK
  • n-tv