#Service

Dein Content ist online — aber Google zeigt ihn nicht an?

Warum viele KMU-Websites Seiten haben, die Google schlicht ignoriert — und wie automatisierte Indexierung das Problem löst.

Du veröffentlichst einen neuen Blogartikel, eine Landingpage oder aktualisierst deine Services-Seite. Alles sieht gut aus, die URL ist in der Sitemap. Aber Wochen später taucht die Seite in der Google-Suche einfach nicht auf.

Das ist keine Ausnahme. Wir haben bei unserer eigenen Website — 108 Seiten, sauber aufgebaut — festgestellt: 6 von 30 geprüften Seiten waren nicht im Google-Index. Und das, obwohl sie technisch einwandfrei waren. Keine Fehler, keine Blockierungen — Google hat sie einfach nicht für wichtig genug gehalten.

In diesem Artikel zeigen wir dir, warum das passiert, wie du es erkennst und was du konkret dagegen tun kannst.

Warum Google nicht automatisch alles indexiert

Viele denken: «Seite ist online → Google findet sie.» Die Realität ist komplizierter. Google hat ein sogenanntes Crawl-Budget — und das ist begrenzt.

Für grosse Websites wie 20 Minuten oder Ricardo ist das kein Problem. Google crawlt dort ständig. Aber für eine typische KMU-Website mit 50 bis 200 Seiten? Da schaut Google vielleicht einmal pro Woche vorbei — wenn überhaupt.

Laut einer Studie von Botify werden durchschnittlich 51% der Seiten einer Website nicht von Google gecrawlt (Quelle: Botify, 2020). Bei kleineren Sites kann das noch extremer sein.

Google entscheidet anhand verschiedener Signale, ob eine URL überhaupt gecrawlt und dann indexiert wird:

  • Interne Verlinkung: Seiten ohne Links von anderen Seiten werden oft übersehen
  • Content-Qualität: Dünner oder ähnlicher Content wird als nicht indexierungswürdig eingestuft
  • Seitengeschwindigkeit: Langsame Seiten kosten Google Crawl-Ressourcen
  • Aktualisierungshäufigkeit: Statische Seiten werden seltener gecrawlt

Diese Fehlermeldungen solltest du kennen

In der Google Search Console findest du unter «Seiten» den Index-Status jeder URL. Die häufigsten Probleme bei KMU-Websites:

«Discovered — currently not indexed» bedeutet: Google kennt die URL (etwa aus der Sitemap), hat sie aber noch nicht gecrawlt. Das kann Wochen dauern — oder nie passieren.

«Crawled — currently not indexed» ist frustrierender: Google hat die Seite besucht, sich den Inhalt angeschaut — und entschieden, sie nicht aufzunehmen. Oft ein Signal, dass der Content aus Googles Sicht nicht genug Mehrwert bietet.

«URL is unknown to Google» heisst schlicht: Google weiss nicht einmal, dass diese Seite existiert. Meist ein Zeichen für fehlende interne Links oder eine nicht eingereichte Sitemap.

Bei unserer eigenen Website waren mehrere Insight-Artikel in diesen Kategorien — obwohl die Sitemap korrekt war und keine technischen Fehler vorlagen.

Was du sofort tun kannst: Manuelle Indexierung

Die Google Search Console bietet unter «URL-Prüfung» die Möglichkeit, einzelne URLs manuell zur Indexierung anzumelden. Das funktioniert, hat aber zwei Haken:

  • Es ist Handarbeit: Du musst jede URL einzeln eingeben und prüfen
  • Du vergisst es: Seien wir ehrlich — wer denkt nach dem Veröffentlichen eines Blogartikels daran, noch in die Search Console zu gehen?

Google erlaubt über die Indexing API das programmatische Anmelden von URLs — bis zu 200 pro Tag. Das bedeutet: Du kannst den Prozess automatisieren.

Genau das haben wir gemacht. Unser Script prüft täglich den Index-Status aller 108 URLs, priorisiert die wichtigsten und meldet automatisch 10 pro Tag bei Google an. Nach 11 Tagen ist alles einmal durch — danach fängt es von vorne an und erkennt neue Inhalte automatisch.

Intelligente Priorisierung statt stumpfes Durchrotieren

Nicht jede URL ist gleich wichtig. Ein intelligentes System priorisiert so:

  • Höchste Priorität: Seiten, die nicht im Index sind — die werden zuerst submitted
  • Hohe Priorität: Seiten mit Content-Updates seit dem letzten Crawl — Google soll die aktuelle Version sehen
  • Mittlere Priorität: Seiten, die lange nicht gecrawlt wurden — eine Auffrischung schadet nie
  • Cooldown: URLs, die kürzlich submitted wurden, bekommen eine 7-Tage-Pause — damit Google nicht denkt, du spammst

Laut Google selbst werden Seiten, die über die Indexing API angemeldet werden, innerhalb von Minuten bis Stunden gecrawlt — statt Tagen oder Wochen beim normalen Crawl-Prozess (Quelle: Google Developers Documentation).

Wann sich automatisierte Indexierung besonders lohnt

Nicht jede Website braucht das. Aber für bestimmte Szenarien ist es ein Unterschied:

Nach einem Website-Relaunch: Alle URLs haben sich geändert, Google kennt nur die alten. Statt Wochen zu warten, meldest du alle neuen URLs aktiv an. Laut einer Analyse von Ahrefs verlieren Websites nach einem Relaunch durchschnittlich 10 bis 30% ihres organischen Traffics, oft weil neue URLs nicht schnell genug indexiert werden (Quelle: Ahrefs, 2023).

Bei regelmässigem Content: Blog, News, Insights — jeder neue Artikel sollte so schnell wie möglich im Index landen. Besonders wenn du in einem kompetitiven Umfeld publizierst.

Saisonale Landingpages: Weihnachtsangebote im Dezember nützen nichts, wenn Google sie erst im Januar indexiert.

E-Commerce mit Produktwechsel: Neue Produkte, Aktionen, Sortimentserweiterungen — alles Seiten, die sofort sichtbar sein sollten.

Das Wesentliche auf einen Blick

  • Google indexiert nicht automatisch alles — kleinere Websites werden oft vernachlässigt, selbst wenn technisch alles stimmt
  • Die Google Search Console zeigt dir den Status — prüfe regelmässig, welche deiner Seiten nicht im Index sind
  • Über die Indexing API lässt sich der Prozess automatisieren — täglich bis zu 200 URLs anmelden, ohne Handarbeit
  • Intelligente Priorisierung ist wichtiger als Masse — nicht-indexierte und aktualisierte Seiten zuerst
  • Besonders relevant nach Relaunches und bei regelmässigem Content — dort ist der Unterschied zwischen Tagen und Wochen spürbar
  • Du willst wissen, wie viele deiner Seiten Google ignoriert? Wir prüfen das gerne für dich — kostenlos und unverbindlich.

Möchtest Du informiert bleiben?