Seitenbetreiber stellen seit einigen Wochen vermutlich erschrocken fest, dass ihre Blogs in der Search Console nicht mehr so florieren wie bisher. Zahlreiche URL´s werden aus dem Index genommen und lassen sich manuell nicht mehr wieder zurückmelden. Damit werden auch die Backlinks entwertet, die in diesen Artikeln gesetzt wurden und verlieren somit für das SEO der Abnehmer ihren Wert. Was ist das passiert? Und wie lässt sich das Problem lösen?

Einen ersten Hinweis darauf, was gerade so passiert, gibt ein Artikel von SEO Südwest. Dort wird erläutert, dass die Suchmaschine drastisch die Daumenschrauben angezogen hat. Viele Inhalte werden nicht mehr automatisch indexiert, weil sie von der Qualität nicht geeignet sind, um noch in die SERPS zu gelangen. Man kann es manuell versuchen. Wird ein Artikel durchgelassen, dann ist das dennoch kein gutes Zeichen. Immer, wenn eine manuelle Indexierung erforderlich wird, dann heißt das, dass der Text gerade gut genug war. Ein Zeichen für Qualität ist das sicher nicht. Hinzu kommt die Tatsache, dass es eine Art Crawling Budget gibt für jede Domain. Werden von 10 durchsuchten Seiten dann nur 6 oder 8 aufgenommen, dann sind 20-40% offenbar minderwertig. Diese schlechte Quote wertet offenbar den gesamten Blog ab.

Wie wirkt sich das auf den Markt für SEO Agenturen aus?

In der Branche ist es ein offenes Geheimnis. Wer heute sinnvoll ranken möchte, der muss quasi themenrelevante Backlinks kaufen für seine Projekte oder für Kunden. Anders geht es fast nicht. Zudem sollten die Augen nach kostenlosen Backlinks offen gehalten werden.

Google sagt zwar immer, dass nur der Content relevant ist, aber das ist nachweislich Quatsch. Im Gegenteil, in letzter Zeit häufen sich sogar immer mehr die Anfragen, wo die User bei weitem nicht das bekommen, wonach sie suchen. Aus individueller Erfahrung finden sich häufig Seiten, die wunderbar strukturiert sind und tolle Infos liefern. Da sie aber nicht von Profis betrieben werden, landen sie leider nur weit hinten. Google driftet immer mehr ab in Richtung selbstgerechte Zensurmaschine. Sie bestimmen im Endeffekt darüber, ob jemand im Netz präsent sein darf und wer nicht.

Für SEO Agenturen bedeutet es, dass sie bei der Erstellung von Content und Links die Messlatte heraufsetzen müssen. Bessere Artikel sind notwendig, echter Mehrwert ist erforderlich. Doch wie schafft man diesen? Allein über die Länge geht es sicherlich nicht. Stattdessen ist wohl eine zusätzliche Portion Hirnschmalz zuzufügen.

Wie erhöht man die Qualität von Contnet für den Google Index?

Grundsätzlich sollte man wohl aufhören in Textlängen zu denken. Ein Artikel muss dann eben so lang sein, wie er sein muss. Man listet all sein Wissen auf, gibt alle Fakten an, die einem bekannt sind. Und wenn es 350 Wörter sind, dann reichen sie aus. Und wenn 750 Wörter nötig sind, dann ist das eben so.

Google macht A/B-Tests. Es gibt zwar ein ziemlich stabiles Ranking, doch zu manchen Keywords werden hin und wieder einzelne Seiten vorgelassen, nur um zu testen, ob die User diese mögen. Ist die Absprungrate hoch und die Verweildauer niedrig, dann weiß der Algorithmus: schlechter Content. Werden dagegen lange Besuchszeiten vorgewiesen, dann bekommt der Beitrag möglicherweise sogar einen Boost und wird besser platziert.

Gleiches gilt für zusätzliche Elemente. Strukturierte Daten zu pflegen ist sicherlich hilfreich. Zudem sollte man bedenken, dass es auch eine Bildersuche gibt. Daher sind eigene Bilder, die dem Content weiteren Mehrwert bieten sicherlich ebenfalls eine Hilfe. Es gibt sogar eine eigene „Wissenschaft“ vom Bilder-SEO – extra für diesen Zweck.

Sinnvoll ist es natürlich auch ein Video zum Thema zu erstellen. Eines, welches zum Beispiel auf YouTube Traffic generiert und die Zuschauer auf den Blog verweist. Kommt von diesem Clip Traffic auf den Beitrag, dann wird er so gut wie sicher in den Index gelangen.

Ähnlich ist es mit Shares in den sozialen Medien. Guter Content generiert Traffic aus allen Kanälen. Kommen von diesen Verweisen Besucher, dann ist das für den Wert einer Seite ebenfalls ein Bonuspunkt.

Fazit:

Wer in der heutigen Zeit Backlinks aufbauen will, der muss auf erhöhte Qualität der Inhalte setzen. Google hat die Barriere angehoben und lässt immer weniger gekaufte Artikel in den Index. Blogbeiträge müssen Mehrwert bieten und die Inhalte natürlich sein.

Fragen und Antworten:

Gecrawlt – zurzeit nicht indexiert – was heißt das?

In der Search Console erscheint der Hinweis, dass eine Seite durchsucht, aber nicht indexiert wurde. Der Live-URL Test zeigt jedoch, dass die Seite indexierbar wäre. Dieser Hinweis ist ein eindeutiges Zeichen dafür, dass der Content einfach zu schwach ist, um in die Websuche aufgenommen zu werden.

Gefunden – zurzeit nicht indexiert – was bedeutet das?

Eine ähnlich schlechte Nachricht. Google möchte damit zeigen, dass es erfahren hat, dass eine neue Seite erstellt wurde. Aufgenommen wird sie jedoch nicht. Auch hier ist manuelle Nachrarbeit erforderlich.

Wo sehe ich in der Search Console die ausgeschlossenen Seiten?

Hierfür müssen Sie im linken Menü auf den Bereich Abdeckung. Anschließend lassen sich die ausgeschlossenen Seiten mit einem Button aktivieren. Dort ist sofort ersichtlich, welche URL´s nicht gut genug waren für eine Indexierung.

Diesen Beitrag als Video-Podcast anhören / ansehen:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert