Nachrichten-medien

Neues aus der SEO-Welt: Update Dezember 2022

Yext

28 Dez. 2022

6 min

Willkommen bei „Neues aus der SEO-Welt“, unserem monatlichen Überblick über Neuigkeiten aus der Welt der Suchmaschinen. In diesem Monat gab es eine Reihe

Willkommen bei „Neues aus der SEO-Welt", unserem monatlichen Überblick über Neuigkeiten aus der Welt der Suchmaschinen.

In diesem Monat gab es eine Reihe interessanter Updates von Google. Künstliche Intelligenz, ihr Potenzial und ihre Auswirkungen auf die Suchmaschinenoptimierung sind nach wie vor ein beliebtes Gesprächsthema – und es sieht so aus, als hätte unsere Branche bei der Suche nach dem besten Weg, KI in die eigene Content-Strategie einzubinden, noch viel Arbeit vor sich.

Events

Letzten Monat fand in Manchester, Großbritannien, die Benchmark-Konferenz statt, organisiert vom fantastischen Team von Click Consult. Bestaunen konnte man dort unter anderem Reden und Präsentationen von Nick Wilsdon, Omi Sido, John Warner, Giulia Panozzo und Roxana Stingu, um nur einige zu erwähnen.

Wir empfehlen die Präsentation von Roxana Stingu: The internet for SEOs, die man sich auf der Website von Omi Sido ansehen kann. Nick Wilsdon stellte Tipps zusammen, wie Sie Ihr CDN zur Verbesserung der Suchmaschinenoptimierung nutzen können, und John Warner gab einige großartige Einblicke in anonyme Inhalte. Die vollständige Zusammenfassung der Veranstaltung finden Sie auf Website von Click Consult.

Toolkit für Suchmaschinen

Google hat seine Dokumentation um einige bereits bekannte Fakten aktualisiert und damit eine offizielle Referenz dafür erstellt. Eines dieser Updates betraf JavaScript-Links. Das Einfügen des richtigen -Tags mit einem href-Attribut über JavaScript ist etwa seit 2008 eine Möglichkeit, von Google nachverfolgbare Links (crawlable) zu erstellen, wie Barry Swartz beim Search Engine Roundtable erklärte. Der Schlüssel dabei ist, sicherzustellen, dass die Links richtig formuliert sind und daher nachverfolgt werden können. (Beachten Sie, dass ein Link, der crawlable ist, nicht automatisch die beste Lösung für Ihre Website darstellt. Bei dieser Implementierung werden Faktoren wie Einschränkungen im Crawling- und Rendering-Budget nicht berücksichtigt, die letztlich dazu führen könnten, dass diese Links schlechter funktionieren als statische HTML-Links.)

Ein weiteres Update der Google-Dokumentation betraf nicht unterstützte Meta-Tags. Auch hier sind keine neuen Informationen enthalten, aber immerhin gibt es jetzt eine offizielle Quelle von Google, die besagt, dass Meta Keywords und HTML-Tag-lang-Attribute nicht unterstützt werden.

Google hat für berechtigte Onlineshops Shopping-Tab-Listings in Google Search Console integriert. Über diesen Link können Benutzer in einem vereinfachten Verfahren ein Merchant Center-Konto erstellen, ohne ihr Konto erneut verifizieren zu müssen. Es muss außerdem kein Produkt-Feed eingereicht werden. Die Benutzer müssen lediglich dafür sorgen, die strukturierten Produktdaten auf dem neuesten Stand zu halten. Das Update kann im Google Search Central-Blog eingesehen werden.

SERP-Updates

Google hat vor einigen Monaten angekündigt, Verbesserungen bei den SERPs vorzunehmen, um User zu unterstützen, nachhaltigere Entscheidungen beim Kauf von Produkten zu treffen. In diesem Monat war vermehrt das grüne Blatt, Googles neues Label für gebrauchte und Refurbished-Produkte, innerhalb der SERPs zu sehen. Der Suchmaschinen-Roundtable hat die Beispiele gut zusammengefasst. Die neuen Labels erscheinen jetzt sowohl auf Mobilgeräten als auch auf Desktop-PCs. Wenn man bedenkt, dass das Google Merchant Center über ein Condition-Attribut verfügt, das auch als Teil der strukturierten Produktdaten gekennzeichnet werden kann, erscheint es sehr wahrscheinlich, dass diese Informationen in die neuen Labels innerhalb der SERPs einfließen.

Algorithmus-Updates

In diesem Monat gab es keine bestätigten Updates, aber Sie können sich darauf verlassen, dass Barry Swartz Sie über die neuesten Diskussionen rund um die Volatilität der SERPs immer auf dem neuesten Stand hält. Es war jedenfalls eine Menge los, aber ob das an der Jahreszeit, der herannahenden Feiertagssaison oder der Fußballweltmeisterschaft liegt – oder an einigen unbestätigten Google Algo Updates –, bleibt unklar. Google veröffentlicht jedes Jahr eine große Anzahl von Algorithmus-Updates, aber nur die wichtigsten und diejenigen mit großer Auswirkung werden offiziell angekündigt. (Falls Sie mehr über Google-Updates erfahren möchten: Bei Wix finden Sie einen tollen Blogbeitrag dazu).

Oft ist es schwer zu sagen, ob eine Auswirkung auf Ihre Website, die Sie festgestellt haben, durch ein Algorithmus-Update verursacht wurde oder nicht. Wenn Sie vermuten, dass ein Update die Ursache sein könnte, können Sie jederzeit in Erfahrung bringen, ob andere SEOs ebenfalls Veränderungen gemeldet haben, hinter denen sie ein Algo Update vermuten. Die beste Anlaufstelle dafür sind Barrys Updates oder Marie Haynes Blog – und für offizielle Updates die Google-Ranking-Seite.

Tatsächlich hat Google eine interessante Änderung an seiner Terminologie in Bezug auf Updates vorgenommen: Das Unternehmen hat einen neuen Leitfaden und eine neue Terminologie eingeführt. Die neue Terminologie bezieht sich auf Ranking-Systeme und deren Aktualisierungen, um Benutzern das Verständnis des Konzepts und der Entwicklung dieser Systeme zu erleichtern. Im Moment umfasst der neue Leitfaden 19 Hauptgruppen von Systemen, die alle einzeln erläutert werden:

  1. BERT

  2. Kriseninformationssysteme

  3. Deduplizierungssysteme

  4. Exact-Match-Domain-System

  5. Freshness-Systeme

  6. Hilfreiche-Inhalte-System

  7. Link-Analyse-System und PageRank

  8. Lokale-Nachrichten-Systeme

  9. MUM

  10. Neural Matching

  11. Original-Content-Systeme

  12. Entfernungsbasierte Rückstufungssysteme

  13. Page-Experience-System

  14. Passage-Ranking-System

  15. System für Produktrezensionen

  16. RankBrain

  17. Systeme zur Bewertung der Zuverlässigkeit von Informationen

  18. Site-Diversity-System

  19. Spam-Erkennungssysteme

Google hat außerdem seine ausgemusterten Systeme für historische Zwecke aufgelistet. Dazu gehören Hummingbird, Panda, mobilfreundliche Systeme und andere. Sie wurden entweder in Nachfolgesysteme integriert oder in die grundlegenden Ranking-Systeme aufgenommen. So wurde beispielsweise das Panda-System zum Coati-Algorithmus weiterentwickelt, der Teil des Ranking-Algorithmus ist, und die Page-Speed-Updates von 2010 und 2018 wurden durch Core Web Vitals ersetzt, die wichtige Kennzahlen für die Bewertung der Page Experience darstellen. Außerdem hat Lily Ray gemeinsam mit Hyung-Jin Kim, VP Search bei Google, die 7 wichtigsten Erkenntnisse aus der SMX Next-Keynote veröffentlicht. Diese verdeutlichen das Hauptziel, das Google bei der Verbesserung seiner Algorithmen verfolgt – und schon immer verfolgt hat –, nämlich Inhalte aus aller Welt zu organisieren und den Nutzern die relevantesten Informationen zur Verfügung zu stellen.

Denkanstöße

Eine interessante, von Ziemek Bućko veröffentlichte Studie zeigt, dass das Crawling von JavaScript bis zur Indexierung neunmal länger dauern kann als bei statischem HTML. Zwar hört man viel über die verbesserten Fähigkeiten des Googlebots beim Umgang mit JavaScript-Inhalten und -Links (wie oben erwähnt). Dennoch herrscht weiter Uneinigkeit darüber, ob es die richtige Wahl für Websites ist. Bei der Betrachtung von JavaScript-Inhalten sind viele Aspekte zu berücksichtigen, da sie Benutzern beim Erstellen ansprechender und effizienter Websites große Flexibilität bieten. Optionen wie Server-Side-Rendering oder Pre-Rendering sind definitiv eine Überlegung wert, wenn Sie mit einer großen JavaScript-intensiven Website arbeiten und/oder wenn sich Ihre Inhalte häufig ändern.

Schließlich scheint es, als vergehe kein Monat, an dem wir nicht über KI-Inhalte sprechen. Künstliche Intelligenz ist ganz klar eines der größten Schlagworte derzeit. Es gibt noch viel zu erforschen, zu testen und zu lernen.

Während der Office Hours im November sagte Duy Nguyen vom Google-Suchqualitätsteam, dass das Unternehmen über spezielle Algorithmen verfügt, die KI-plagiierten Inhalten nachgehen und dazu dienen, Website-Scraping-Inhalte und anderen Spam zurückstufen.

Auch Mike King hat einen sehr umfassenden Artikel über Künstliche Intelligenz veröffentlich, in dem er erklärt, warum KI möglicherweise nicht die große Bedrohung für SEO ist, für die sie jeder zu halten scheint. Er geht im Detail darauf ein, wie sich KI entwickelt hat und welche Risiken sie birgt, und hebt die Do's and Don'ts der Verwendung von Sprachmodellen in der SEO hervor. Seine unserer Meinung nach wichtigsten Lehren sind die Wichtigkeit menschlicher Überprüfung und der Einbeziehung von Daten sowie sein Appell, Inhalte auf keinen Fall direkt nach dem Generieren zu veröffentlichen (Zitat Mike: „Do. Not. Generate. Copy. And. Immediately. Publish. It. Please.")

Das war es für diesen Monat. Wenn Sie über alle SEO-Trends auf dem Laufenden bleiben wollen, empfehlen wir Ihnen folgende SEO-Newsletter:

SEOFOMO von Aleyda Solis (wöchentlich)

Search News You Can Use von Marie Haynes (wöchentlich)

Rich Snippets von TrafficThinkTank (wöchentlich)

Women in Tech SEO von Areej AbuAli (monatlich)

Diesen Artikel teilen