Archiv des Autors: Martin Gaulke

Über Martin Gaulke

Wenn Dir der Artikel gefällt abonniere den RSS-Feed & folge mir auf Google +

Google Quality Rater Guidelines – Key Facts

Zusammen mit Holger Etzel habe ich am Wochenende auf der sehr coolen SEO Campixx über das Thema „Google Quality Rater Guidelines“ gesprochen (thx Marco Janck). Leider kann sollte ich meine Folien zum Thema  nicht 1 zu 1 online stellen. Trotzdem möchte ich kurz die wichtigsten Erkenntnisse stichpunktartig zusammenfassen.

Wofür sind die Guidelines bestimmt?

  • Bewerten der Qualität von SERPS
  • Bewerten der Qualität von Seiten
  • Bewerten der Search Experience

 Zielgruppe

  • Armada von externen Google Mitarbeiter (Teilzeitkräfte, Studenten etc.)
  • arbeiten von zu Hause aus
  • Vorwiegend bei Leapforce und Lionbridge beschäftigt
  • bewerten Websites nach vorgegebenen Kriterien

Herangehensweise – Warum das Ganze?

  • Google „traut“ seinen eigenen Ergebnissen nicht und möchte diese ständig überprüft haben.
  • Gutes Ranking ≠ Gutes Rating

Verwendung der Ergebnisse

  • „Ergebnisse werden ausschließlich dazu verwendet den Algorithmus zu verbessern.“
  • Google bestreitet, dass Erkenntnisse direkt für bzw. gegen betreffenden Websites verwendet werden.
    Weiterlesen

Google Penguin Update

Am 24. April 2012 wurde von Google das Penguin- bzw. Pinguin-Update eingespielt. Ziel war es zu stark optimierte Seiten abzuwerten und damit hochwertigere, natürlichere Seiten nach oben zu bringen. Hinzu kam am 19. April, dass Google das Panda Update 3.5 launchte. Diese schnelle Hintereinanderschaltung von Updates macht es extrem schwierig genau zu analysieren, wie genau sich diese auswirken. Absicht oder Zufall?

Mario Fischer hat bisherige Meinungen zusammengetragen und macht sich Gedanken zu den Signalen die das Update zur Bewertung heranzieht und welche Konsequenzen man aus dem Updates ziehen sollte:

„Wer sein Geld also hauptsächlich damit verdient, „nur“ durch Top-Positionen gefunden und geklickt zu werden, der sollte mit Bedacht und sorgfältig arbeiten. Die Zeiten der schnellen Methoden scheinen definitiv vorbei zu sein.“

Mario Fischer: Das Penguin Update von Google, der „SEO-Filter“

SEO CAMPIXX 2012

Am Berliner Müggelsee ging gestern einmal mehr eine fulminante SEO CAMPIXX zu Ende. Auch 2012 war das, was Marco, sein Team, die Sponsoren & 500 angereisten SEOs an Output ablieferten enorm. Bis sich das geballte Wissen vollständig setzt wird es gewiss noch ein paar Tage dauern. In der Zwischenzeit  möchte ich einen Mini-Abriss über meine Einsichten & Highlights  der CAMPIXX 2012 geben.

Freitag: CAMPIXX Kicker Tunier
Der Startschuss für mich fiel am Freitagabend. Mit ein bisschen Glück konnten Gereon und ich einen Startplatz für das SEO CAMPIXX Kicker-Tunier ergattern. Insgesamt nahmen 31 Teams teil. Mit hervorragendem Einsatz, jeder Menge Spaß, Schweiß und Tränen erreichten wir einen sehr guten vierten Platz. Sieger wurden übrigens die Hamburger Profi-Kicker von TRG / Tchibo.

Sessions
Ausnahmslos fand ich die Qualität der von mir dieses Jahr besuchten Workshops  gut bis sehr gut. Für mich besonders spannende Workshops möchte ich kurz anschneiden:

Einen guten Überblick über die Erfolgskriterien wurden im Vortrag Local SEO & Google Places wurden im  Vortrag Möglichkeiten & Tücken von Roman Firnkranz vermittelt: local Content sollte über Sitemaps und onpage über schema.org und ausgezeichnet werden, Citations (Name, Adresse, Telefonnummer) können mit whitespark.ca, getlisted.org oder yext.com geprüft & optimiert werden, Google Places Einträge sind vollständig auszufüllen und geclaimte Google Profile sollten mindestens 5 Erfahrungsberichte haben. Sehr gut aufbereitet.

Für die tägliche Arbeit mit Excel hat mich auch die Session A Fool with a Tool – Excel Magie für SEOs von Markus Uhl aka SEOdiot weitergebracht. Insbesondere die grafische Aufbereitung von Xenu Linksleuth bzw. Screaming Frog Crawls werde ich in Zukunft auch für meine Kunden anwenden. Näher an der Praxis kann ein Workshop wohl nicht mehr ausgerichtet werden. – Merci dafür! 8 gute SEO Excel Tips gibt es auch bei John Doherty nachzulesen.

Markus Ostertag widmete sich dem Thema Amazon Web Services (AWS). Klarer Vorteil dieses Dienstes ist der vollständige Wegfall von Kosten für die Anschaffung von neuer, eigener Infrastruktur. Stattdessen fallen für AWS niedrige, variable Kosten an, die sich nach den Anforderungen des Unternehmens richten. Weiterer großer Vorteil: AWS ist ad hoc nutzbar und kann z.B. für das Hosting von statischen Bildern oder komplette Images von virtuellen Rechnerinstanzen (z.B. für Crawling) genutzt werden. Auch wenn das Thema  AWS ziemlich technik-lastig ist, war die Session von Movie-Maze-Markus – wie immer – sehr informativ und abwechslungsreich.

Weiterlesen

schema.org Video Markup

Google empfiehlt Videos nun mit einem speziellen schema.org Video Markup auszuzeichnen. Das Markup ist recht einfach und kann ziemlich leicht in Websites eingearbeitet werden. Ein typischer Video Player mit Markups könnte dabei so aussehen:

<div itemscope itemtype=“http://schema.org/VideoObject“>
<h2>Video: <span itemprop=“name“>Title</span></h2>
<meta itemprop=“duration“ content=“T1M33S“ />
<meta itemprop=“thumbnailURL“ content=“thumbnail.jpg“ />
<meta itemprop=“embedURL“
content=“http://www.example.com/videoplayer.swf?video=123″ />
<object …>
<embed type=“application/x-shockwave-flash“ …>
</object>
<span itemprop=“description“>Video description</span>
<div>

Hier wurden name, duration, thumbnail, embedURL (der Ort des Video Players) und contentURL (Ort des Video File) eingearbeitet.

Das neue schema.org Video Markup wird sich weder auf Video Sitemaps noch auf mRSS feeds auswirken. Google empfiehlt ausdrücklich weiterhin Video Sitemaps einzusetzen. Sinn und Zweck der Auszeichnung ist, dass Videos besser als solche erkannt und indexiert werden können. Hier gab es in der Vergangenheit immer wieder Probleme, so dass Videoseiten trotz Video Sitemaps als normales Textergebnis indexiert wurden.

SEO Ranking Faktoren Searchmetrics

Searchmetrics hat heute eine Studie zu den wichtigsten Ranking Faktoren 2012 veröffentlicht. Analysiert wurden URLs auf Grundlage einer breiten Datenbasis:

  • 10.000 ausgewählte Top-Keywords
  • 300.000 Websites
  • mehrere Millionen Backlinks, Facebook Shares und Tweets

Erhoben wurden die Daten zwischen Mitte Dezember 2011 und Januar 2012. Zusammengefasst hier die wichtigsten Erkenntnisse:

Erklärung:

  • Hohe Werte auf der x-Achse haben eine positive Korrelation.
  • Je höher die Korrelation, umso mehr URLs haben bessere Rankings.

Achtung: Korrelation ≠ kausaler Effekt!

Die Frage „bekommt man Social Signals weil man gut rankt, oder rankt man gut weil man Social Signals hat?“ kann durch die vorliegenden Daten nicht beantwortet werden.

Erkenntnisse:

  • Facebook- und Twittersignale korrelieren am stärksten mit besseren Rankings.
  • Bei allen untersuchten Werbefaktoren sind die Korrelationen negativ (zu viel Werbung wird ja schon seit dem Panda-Updates als negativ gesehen)
  • Backlinks sind und bleiben wichtig. Gut rankende URLs haben i.d.R.auch Nofollowlinks.
  • Brand Domains werden bevorzugt behandelt.
  • Keyworddomains haben immernoch einen Bonus.
  • Seiten, die Bildern beinhalten ranken nicht automatisch besser.

Weitere Ergebnisse der Studie können in einem zur Verfügung gestellten Whitepaper nachgelesen werden. Außerdem sei in diesem Zusammenhang auf die von SEOmoz zuammengetragenen Ranking Faktoren hingewiesen.