Enjoyed the Read?

Don’t miss our next article!

10 Möglichkeiten, wie Du Google dazu bekommst, deine Website zu indexieren (die tatsächlich funktionieren)

Joshua Hardwick
Head of Content @ Ahrefs (oder, in einfachen Worten, ich bin der Typ, der dafür sorgt, dass jeder Blog-Post EPISCH wird). Founder @ The SEO Project.
    Wenn Google deine Web­site nicht in den Index aufn­immt, bist Du ziem­lich unsicht­bar. Du ersche­inst in kein­er Suchan­frage und wirst auch kein­er­lei organ­is­chen Traf­fic erhal­ten. Null. Zero. Nada.

    Da du ger­ade diesen Artikel liest, denke ich, dass dies für dich nichts Neues ist. Kom­men wir also gle­ich zum Punkt. 

    Dieser Artikel zeigt dir, wie man die fol­gen­den Prob­leme löst:

    1. Deine gesamte Web­site ist nicht im Index.
    2. Einige dein­er Seit­en sind im Index, aber andere nicht.
    3. Neu veröf­fentlichte Seit­en kom­men nicht schnell genug in den Index.

    Aber zuerst stellen wir sich­er, dass wir vom Gle­ichen reden, bevor wir uns in das Index­ierungswirrwar stürzen.

    Google ent­deckt neue Web­seit­en, indem es das Web durch­sucht und dann die gefun­de­nen Seit­en hinzufügt. Sie tun das mit Hil­fe ein­er Web­spinne namens Google­bot.

    Ver­wirrt? Lass uns ein paar Schlüs­sel­be­griffe definieren.

    • Crawl­ing: Der Prozess, Hyper­links im Web zu fol­gen, um neue Inhalte zu ent­deck­en.
    • Index­ing: Der Prozess der Spe­icherung jed­er Web­seite in ein­er umfan­gre­ichen Daten­bank.
    • Web spi­der: Eine Soft­ware, die entwick­elt wurde, um den Crawl­ing-Prozess maßstab­s­ge­treu durchzuführen.
    • Google­bot: Google’s Web­spinne (orig.: web spi­der).

    Hier ist ein Video von Google das den Prozess detailiert erk­lärt:

    https://www.youtube.com/watch?v=BNHR6IQJGZs

    Wenn Du etwas googlest, bittest Du Google, alle rel­e­van­ten Seit­en aus dem Index anzuzeigen. Da es oft Mil­lio­nen von Seit­en gibt, die der Anfrage entsprechen, tut der Rank­ing-Algo­rith­mus von Google sein Bestes, um die Seit­en so zu sortieren, dass Du zuerst die besten und rel­e­van­testen Ergeb­nisse siehst.

    Der kri­tis­che Punkt, den ich hier anführe ist, dass Index­ierung und Rank­ing zwei ver­schiedene Dinge sind.

    Die Index­ierung ist die Grund­lage, die Ran­gliste das Ergeb­nis. In einem Formel 1 Ren­nen würde man sagen: Die Index­ierung ist das Ren­nen, die Ran­gliste zeigt, wer gewin­nt.

    Du kannst nicht gewin­nen, ohne über­haupt zum Ren­nen anzutreten.

    Suche in Google nach site:deinewebseite.com

    Die Anzahl zeigt unge­fähr, wie viele Seit­en Google index­iert hat.

    Wenn Du den Index-Sta­tus ein­er spez­i­fis­chen URL prüfen möcht­est, dann nutze densel­ben site:deinewebseite.com/web-page-slug Oper­a­tor.

    Wenn Du kein Ergeb­nis siehst, ist die Seite nicht index­iert.

    Nun ist wichtig zu erwäh­nen, dass wenn du die Google Search Con­sole nutzt, du den Cov­er­age Report anse­hen kannst, um einen exak­ten Ein­blick in den Sta­tus der Index­ierung der Web­site zu erhal­ten. Gehe dazu ein­fach hier­hin:

    Google Search Con­sole > Index > Cov­er­age

    Schau dir die Anzahl von gülti­gen Seit­en an (mit und ohne Fehler-War­nun­gen).

    Wenn diese Zahlen größer sind als Null, dann hat Google zumin­d­est irgen­det­was im Index. Wenn nicht, dann hast Du ein größeres Prob­lem, denn keine dein­er Web­seit­en sind index­iert.

    Rand­no­tiz.
    Wenn Du Google Search Con­sole bis­lang nicht nutzt, dann soll­test du das nun tun. Es ist kosten­los. Und jed­er, der eine Web­site betreibt und sich dafür inter­essiert, welchen Traf­fic er von Google bekommt, sollte die Google Search Con­sole nutzen. Das ist wirk­lich wichtig. 

    Du kannst die Search Con­sole auch dazu nutzen zu prüfen, ob eine spez­i­fis­che Seite index­iert ist. Dazu kopierst du ein­fach die betr­e­f­fende URL in das URL Inspec­tion tool.

    Wenn die Seite im index ist, erhältst du die Antwort “URL is on Google.”

    Wenn nicht, dann ste­ht da “URL is not on Google.”

    Hast du her­aus­ge­fun­den, dass deine Web­seit­en nicht von Google index­iert wur­den? Dann ver­suche das hier:

    1. Gehe zur Google Search Con­sole
    2. Navigiere zum URL inspec­tion tool
    3. Kopiere die URL, von der du möcht­est, dass sie im Index lan­det in das Such­feld.
    4. Warte bis Google die URL geprüft hat
    5. Klicke den “Request index­ing” Knopf

    Dieser Prozess ist eine gute Vorge­hensweise, wenn Du einen neuen Beitrag oder eine neue Seite veröf­fentlichst. Du sagst Google effek­tiv, dass Du etwas Neues zu dein­er Web­site hinzuge­fügt hast und dass sie einen Blick darauf wer­fen soll­ten.

    Es ist jedoch unwahrschein­lich, dass die Anforderung ein­er Index­ierung die zugrun­deliegen­den Prob­leme löst, die Google daran hin­dern, alte Seit­en zu index­ieren. Wenn dies der Fall ist, folge der fol­gen­den Check­liste, um das Prob­lem zu diag­nos­tizieren und zu beheben.

    Hier sind einige Schnel­llinks zu jed­er Tak­tik — falls Du bere­its welche aus­pro­biert hast:

    1. Crawl blocks in der robots.txt Datei beseit­i­gen
    2. Uner­wün­schte noin­dex tags beseit­i­gen
    3. Seite in Sitemap aufne­he­men
    4. Unter­wün­schte canon­i­cal tags beseit­i­gen
    5. Prüfen ob die Seite ver­waist ist
    6. Fixe nofol­low inter­nal links
    7. Füge “starke” interne Links hinzu
    8. Ver­sich­er dich, dass die Seite wertvoll und einzi­gar­tig ist
    9. Beseit­ige min­der­w­er­tige Seit­en (damit das Crawl Bud­get opti­miert wird)
    10. Baue hochw­er­tige Back­links auf

    1) Crawl blocks in deiner robots.txt Datei beseitigen

    Index­iert Google nicht deine ganze Web­site? Es kön­nte an einem Crawl­block in ein­er so genan­nten robots.txt-Datei liegen.

    Um nach diesem Prob­lem zu suchen, gehe zu yourdomain.com/robots.txt.

    Suche nach einem dieser bei­den Codeauss­chnitte:

    User-agent: Googlebot
    Disallow: / 
    User-agent: *
    Disallow: / 

    Bei­de sagen Google­bot, dass sie keine Seit­en auf dein­er Web­site durch­suchen dür­fen. Um das Prob­lem zu beheben, ent­ferne sie. So ein­fach ist das.

    Ein Crawl­block in der robots.txt kön­nte auch der Täter sein, wenn Google nicht eine einzige Web­seite indiziert. Um zu über­prüfen, ob dies der Fall ist, füge die URL in das URL-Inspek­tion­swerkzeug in der Google Search Con­sole ein. Klicke auf den Block Abdeck­ung, um weit­ere Details anzuzeigen, und suche dann nach dem Punkt “Crawl allowed? Nein: block­iert durch den Fehler robots.txt”.

    Dies bedeutet, dass die Seite in der robots.txt block­iert ist.

    Wenn dies der Fall ist, über­prüfe die Datei robots.txt erneut auf “ver­botene” Regeln in Bezug auf die Seite oder den zuge­höri­gen Unter­ab­schnitt.

    Wichtige Seite in der robots.txt für die Index­ierung ges­per­rt.

    Bei Bedarf ent­fer­nen.

    2) Entfernen unerwünschter Noindex-Tags

    Google wird keine Seit­en indizieren, wenn man ihnen sagt, dass sie es nicht tun sollen. Dies ist nüt­zlich, um einige Web­seit­en pri­vat zu hal­ten. Es gibt zwei Möglichkeit­en, dies zu tun:

    Methode 1: meta tag

    Seit­en mit einem dieser meta tags im <head> Bere­ich wer­den von Google nicht index­iert:

    <meta name=“robots” content=“noindex”>
    <meta name=“googlebot” content=“noindex”>

    Das ist ein meta robots tag, welch­es den Such­maschi­nen sagt, ob die Seite index­iert wer­den kann oder nicht.

    Rand­no­tiz.
    Der Schlüs­sel dazu ist der Wert “noin­dex”. Wenn du das siehst, dann wird die Seite auf noin­dex geset­zt.

    Um alle Seit­en mit einem Noin­dex-Meta-Tag auf der Web­site zu find­en, führst du einen Crawl mit dem Ahrefs’ Site Audit durch. Gehe zum Bericht Interne Seit­en und suche dort nach den War­nung “Noin­dex Page”.

    Klicke dich durch, um alle betrof­fe­nen Seit­en zu find­en. Ent­ferne das noin­dex meta tag auf den Seit­en, wo du es nicht hinge­hört.

    Methode 2: X‑Robots-Tag

    Crawler respek­tieren auch den X‑Ro­bots-Tag HTTP Response Head­er. Man kann dies mit ein­er ser­ver­seit­i­gen Skript­sprache wie PHP, in der .htac­cess-Datei oder durch Ändern der Serverkon­fig­u­ra­tion imple­men­tieren.

    Das URL-Inspek­tion­stool in der Search Con­sole zeigt dir an, ob Google auf­grund dieses Head­ers vom Crawlen ein­er Seite abge­hal­ten wird. Gib ein­fach deine URL ein und suche nach dem “Indizierung erlaubt? Nein: ‘noin­dex’ erkan­nt im ‘X‑Ro­bots-Tag’ http head­er”.

    Wenn du das für deine gesamte Web­site prüfen willst, nutze den Crawl im Ahrefs’ Site Audit tool. Dann nutze “Robots infor­ma­tion in HTTP head­er” als Fil­ter:

    Sag deinem Entwick­ler, dass er Seit­en die du index­ieren möcht­est, von der Rück­gabe dieses Head­ers auss­chließen soll.

    Emp­foh­lene Lek­trüre: Using the X‑Ro­bots-Tag HTTP Head­er Spec­i­fi­ca­tions in SEO: Tips and Tricks

    3) Die Seite in der Sitemap hinzufügen

    Eine Sitemap sagt Google, welche Seit­en auf dein­er Web­site wichtig sind und welche nicht. Es kann auch eine Anleitung geben, wie oft sie neu gecrawlt wer­den soll­ten.

    Google sollte in der Lage sein, Seit­en auf dein­er Web­site zu find­en, unab­hängig davon, ob sie sich in dein­er Sitemap befind­en, aber es ist immer noch eine gute Prax­is, sie aufzunehmen. Schließlich macht es keinen Sinn, Google das Leben schw­er zu machen.

    Um zu über­prüfen, ob sich eine Seite in dein­er Sitemap befind­et, ver­wende das URL-Inspek­tion­swerkzeug in der Suchkon­sole. Wenn du den Fehler “URL ist nicht bei Google” und “Sitemap: N/A” ent­deckst, dann ist es nicht in dein­er Sitemap oder indiziert.

    Du benutzt Search Con­sole nicht? Springe zu dein­er sitemap URL—normalerweise, yourdomain.com/sitemap.xml—und suche nach dieser Seite.

    Oder wenn du alle durch­such­baren und indizier­baren Seit­en find­en möcht­est, die sich nicht in der Sitemap befind­en, führe einen Crawl aus mit dem Ahrefs’ Site Audit. Gehe dann zum Data Explor­er und set­ze diese Fil­ter:

    Diese Seit­en soll­ten in der Sitemap sein, also füge sie hinzu. Danach lässt du Google wis­sen, dass du die Sitemap edi­tiert hast und springst zu dieser Seite:

    http://www.google.com/ping?sitemap=http://deinewebseite.com/sitemap_url.xml

    Erset­ze den hin­teren Teil mit dein­er Sitemap-URL. Du soll­test dann das hier lesen:

    Das sollte dabei helfen, dass Google die Seit­en index­iert.

    4) Unerwünschte Canonical Tags entfernen

    Ein kanon­is­ches Tag sagt Google, welche die bevorzugte Ver­sion ein­er Seite ist. Es sieht unge­fähr so aus:

    <link rel="canonical” href="/page.html/">

    Die meis­ten Seit­en haben entwed­er kein kanon­is­ches Tag, oder ein so genan­ntes selb­stre­f­eren­zieren­des kanon­is­ches Tag. Das sagt Google, dass die Seite selb­st die bevorzugte und wahrschein­lich die einzige Ver­sion der Seite ist. Mit anderen Worten, du möcht­est, dass diese Seite indiziert wird.

    Aber wenn deine Seite ein fehler­haftes kanon­is­ches Tag hat, dann kön­nte es sein, dass du Google von ein­er bevorzugten (anderen) Ver­sion dieser Seite erzählst, die nicht existiert. In diesem Fall wird deine Seite nicht indiziert wer­den.

    Um nach einem Canon­i­cal zu suchen, ver­wendst du das URL-Inspek­tion­stool von Google. Dort gibt es eine “Alter­na­tive Seite mit kanon­is­chem Tag” War­nung, wenn das Canon­i­cal Tag auf eine andere Seite ver­weist

    Wenn dieser Fall uner­wün­scht ist und du die Seite gerne im Index hättest, dann ent­ferne das Canon­i­cal Tag.

    WICHTIG

    Canon­i­cal-Tags sind nicht immer schlecht. Die meis­ten Seit­en mit diesen Tags wer­den diese aus einem bes­timmten Grund haben. Wenn Du fest­stellst, dass deine Seite ein Canon­i­cal hat, dann über­prüfe die kanon­is­che Seite. Wenn dies tat­säch­lich die bevorzugte Ver­sion der Seite ist und es nicht notwendig ist, auch die betr­e­f­fende Seite zu indizieren, dann sollte das kanon­is­che Tag bleiben.

    Wenn du einen schnellen Weg willst, um fehler­hafte kanon­is­che Tags auf dein­er gesamten Web­site zu find­en, führe einen Crawl in Ahrefs’ Site Audit Tool aus. Rufe den Dat­en-Explor­er auf. Ver­wende diese Ein­stel­lun­gen:

    Dies sucht nach Seit­en in dein­er Sitemap mit nicht selb­stre­f­eren­zieren­den kanon­is­chen Tags. Da du die Seit­en in dein­er Sitemap mit ziem­lich­er Sicher­heit indizieren möcht­est, soll­test du weit­er unter­suchen, ob dieser Fil­ter irgendwelche Ergeb­nisse liefert.

    Es ist sehr wahrschein­lich, dass diese Seit­en entwed­er einen kanon­is­chen Fehler haben oder gar nicht in dein­er Sitemap ste­hen soll­ten.

    5) Überprüfe, ob die Seite verwaist ist

    Orphan pages are those with­out inter­nal links point­ing to them.

    Orphan Pages sind solche ohne interne Links, die auf sie ver­weisen.

    Da Google durch das Crawlen des Inter­nets neue Inhalte ent­deckt, kön­nen sie durch diesen Prozess keine ver­wais­ten Seit­en ent­deck­en. Auch Web­site-Besuch­er wer­den sie nicht find­en kön­nen.

    Um nach ver­wais­ten Seit­en zu suchen, durch­suche deine Web­site mit Ahrefs’ Site Audit. Über­prüfe  anschließend den Bericht Einge­hende Links auf “Orphan Page (hat keine einge­hen­den inter­nen Links)” Fehler:

    Hier wer­den alle Seit­en angezeigt, die sowohl indizier­bar als auch in dein­er Sitemap vorhan­den sind, aber keine inter­nen Links haben, die auf sie ver­weisen.

    WICHTIG

    Dieser Prozess funk­tion­iert nur, wenn diese bei­den Punk­te mit “richtig” beant­wortet wer­den kön­nen:

    1. Alle Seit­en, die du indizieren möcht­est, befind­en sich in deinen Sitemaps
    2. Du hast das Kon­trol­lkästchen aktiviert, um die Seit­en in deinen Sitemaps als Aus­gangspunkt für das Crawlen beim Ein­richt­en des Pro­jek­ts in Ahrefs’ Site Audit zu ver­wen­den.

    Du bist nicht sich­er, ob alle Seit­en, die du indizieren möcht­est, in dein­er Sitemap enthal­ten sind? Pro­bier das mal:

    1. Lade eine voll­ständi­gen Liste von Seit­en auf dein­er Web­site herunter (über dein CMS)
    2. Durch­suche deine Web­site (mit einem Tool wie Ahrefs’ Site Audit)
    3. Erstelle Querver­weise auf die bei­den Lis­ten der URLs

    Alle URLs, die während des Crawls nicht gefun­den wer­den, sind ver­waiste Seit­en.

    Du kannst ver­waiste Seit­en auf zwei Arten repari­eren:

    1. Wenn die Seite unwichtig ist, lösche und ent­ferne sie aus dein­er Sitemap.
    2. Wenn die Seite wichtig ist, inte­griere sie in die interne Linkstruk­tur dein­er Web­site.

    6) Repariere interne nofollow links

    Nofol­low links sind links mit einem rel=“nofollow” tag. Sie ver­hin­dern die Vererbung von PageR­ank auf die Ziel-URL. Der Google-Crawler fol­gt diesen Links nicht.

    Das sagt Google über die Gründe:

    Im Wesentlichen bewirkt die Ver­wen­dung von nofol­low, dass wir die Ziellinks aus unserem Gesamtverze­ich­nis des Webs ent­fer­nen. Die Ziel­seit­en kön­nen jedoch weit­er­hin in unserem Index erscheinen, wenn andere Web­sites ohne Ver­wen­dung von nofol­low auf sie ver­weisen oder wenn die URLs in ein­er Sitemap an Google über­mit­telt wer­den.

    Kurz gesagt, soll­test du darauf acht­en, dass alle inter­nen Links zu indizier­baren Seit­en einge­hal­ten wer­den.

    Benutze dazu das Site Audit-Tool von Ahrefs, um deine Web­site zu durch­suchen. Prüfe den Bericht über einge­hende Links (Incom­ing links report)auf indizier­bare Seit­en mit dem Fehler “Seite hat nur einge­hende interne Links”:

    Lösche das nofol­low-Tag von diesen inter­nen Links, voraus­ge­set­zt, du möcht­est, dass Google die Seite indiziert. Wenn nicht, dann lösche entwed­er die Seite oder set­ze sie auf noin­dex.

    Emp­foh­lene Artikel: What Is a Nofol­low Link? Every­thing You Need to Know (No Jar­gon!)

    7) Füge “starke” interne Links hinzu

    Google ent­deckt neue Inhalte, indem es die Web­site durch­sucht. Wenn du es ver­säumst, intern auf die betr­e­f­fende Seite zu ver­linken, dann kann es sein, dass Google diese nicht find­en kann.

    Eine ein­fache Lösung für dieses Prob­lem ist es, einige interne Links zur Seite hinzuzufü­gen. Du kannst das von jed­er anderen Web­seite aus tun, die Google crawlen und indizieren kann. Wenn du jedoch möcht­est, dass Google die Seite so schnell wie möglich indiziert, ist es sin­nvoll, dies von ein­er dein­er “mächtigeren” Seit­en aus zu tun.

    Warum? Weil Google wahrschein­lich solche Seit­en schneller neu aufnehmen wird als weniger wichtige Seit­en.

    Hierzu wählst du den Ahrefs’ Site Explor­er, gib­st deine Domain ein und besuchst dann den Bericht Best by links.

    Hier wer­den alle Seit­en dein­er Web­site nach URL Rat­ing (UR) sortiert angezeigt. Mit anderen Worten, es zeigt zuerst die maßge­blichen Seit­en an.

    Stöber in dieser Liste und schaue nach rel­e­van­ten Seit­en, von denen aus interne Links zu der betr­e­f­fend­en Seite hinzufüg­bar wären.

    Zum Beispiel, wenn du einen inter­nen Link zu unserem guest post­ing guide hinzufü­gen willst, wäre der link build­ing guide wahrschein­lich ein rel­e­van­ter Ort, das zu tun. Und die Seite wäre zudem die elft­stärk­ste Seite auf unserem Blog:

    Google erken­nt dann den Link und fol­gt ihm beim näch­sten besucht der Seite.

    pro tipp

    Fügt die Seite, von der aus ihr den inter­nen Link hinzuge­fügt habt, in das URL-Inspec­tion-Tool von Google ein. Klick auf die Schalt­fläche “Request index­ing”, um Google wis­sen zu lassen, dass sich etwas auf der Seite geän­dert hat und dass sie das Ganze so schnell wie möglich neu erstellen sollte. Dies kann den Prozess der Ent­deck­ung des inter­nen Links und damit der Seite, die du indizieren möcht­est, beschle­u­ni­gen

    8) Versichere dich, dass die Seite einzigartig und wertvoll ist

    Es ist unwahrschein­lich, dass Google min­der­w­er­tige Seit­en indiziert, da sie keinen Wert für die Nutzer haben. Hier ist, was John Müller von Google über die Index­ierung im Jahr 2018 sagte:

    Er deutet an, dass, wenn du willst, dass Google deine Web­site oder Web­seite indiziert, sie “fan­tastisch und inspiri­erend” sein muss.

    Wenn du tech­nis­che Prob­leme wegen der fehlen­den Index­ierung aus­geschlossen hast, dann kön­nte ein Wert­man­gel der Schuldige sein. Aus diesem Grund lohnt es sich, die Seite mit neuen Augen zu betra­cht­en und sich zu fra­gen: Ist diese Seite wirk­lich wertvoll? Würde ein Benutzer wertvolle Infor­ma­tio­nen auf dieser Seite find­en, wenn er ihn in den Suchergeb­nis­sen anklickt?

    Wenn die Antwort auf eine dieser Fra­gen nein ist, dann musst du deinen Inhalt verbessern.

    Du kannst noch mehr poten­ziell min­der­w­er­tige Seit­en find­en, die nicht index­iert wer­den mit dem Ahrefs’ Site Audit tool und dem URL Pro­fil­er. Gehe dafür zum Data Explor­er in Ahrefs’ Site Audit und ver­wende diese Ein­stel­lun­gen:

    Dies gibt “dünne” Seit­en zurück, die indizier­bar sind und derzeit keinen organ­is­chen Traf­fic erhal­ten. Mit anderen Worten, es beste­ht eine gute Chance, dass sie nicht indiziert sind.

    Der Bericht wird exportiert, dann wer­den alle URLs in den URL Pro­fil­er einge­fügt und eine Google Index­ierung­sprü­fung durchge­führt.

    Quelle: https://urlprofiler.com/blog/google-indexation-checker-tutorial/

    IMPORTANT

    Es wird emp­fohlen, Prox­ies zu ver­wen­den, wenn du dies für viele Seit­en (z.B. über 100) tust. Andern­falls beste­ht die Gefahr, dass deine IP-Adresse von Google ges­per­rt wird. Wenn dies nicht möglich ist, beste­ht eine weit­ere Alter­na­tive darin, Google nach einem “kosten­losen Google-Index­ierung­sprüfer für große Men­gen” zu suchen. Es gibt ein paar dieser Tools, aber die meis­ten sind auf <25 Seit­en auf ein­mal beschränkt.

    Kon­trol­liere alle nicht index­ierten Seit­en auf Qual­ität­sprob­leme. Wenn nötig, verbessere die Seit­en und fordere dann eine Neuin­dizierung in der Google Search Con­sole an. 

    Du soll­test auch ver­suchen, Prob­leme mit dop­pel­tem Inhalt zu beheben. Es ist unwahrschein­lich, dass Google dop­pelte oder nahezu dop­pelte Seit­en indiziert. Benutze den Bericht zur Inhalt­squal­ität (Con­tent qual­i­ty report) in Site Audit, um diese Prob­leme zu über­prüfen.

    9) Beseitige minderwertige Seiten (und optimiere so das “crawl budget”)

    Zu viele min­der­w­er­tige Seit­en auf der Web­seite sind eine Ver­schwen­dung für das Crawl Bud­get.

    Das sagt Google dazu:

    Die Ver­schwen­dung von Server­res­sourcen auf[Seiten mit geringer Wertschöp­fung] entzieht Crawl-Aktiv­itäten von Seit­en, die tat­säch­lich einen Wert haben, was zu ein­er erhe­blichen Verzögerung bei der Ent­deck­ung großar­tiger Inhalte auf ein­er Web­site führen kann.

    Betra­chte es als einen Lehrer, der Essays bew­ertet, von denen ein­er dein­er ist. Wenn er zehn Auf­sätze zu bew­erten hat, wird er ziem­lich schnell zu dir kom­men. Wenn er hun­dert hat, wird es etwas länger dauern. Wenn er Tausende hat, ist seine Arbeits­be­las­tung zu hoch, und er kommt vielle­icht nie dazu, deinen Auf­satz zu bew­erten.

    Google erk­lärt, dass “Crawl Bud­get [.…] nicht etwas ist, worüber sich die meis­ten Pub­lish­er Sor­gen machen müssen”, und dass “wenn eine Web­site weniger als ein paar tausend URLs hat, sie meis­tens effizient gecrawlt wird”.

    Den­noch ist das Ent­fer­nen von Seit­en mit niedriger Qual­ität von der Web­site nie eine schlechte Sache. Es kann sich nur pos­i­tiv auf das Crawl-Bud­get auswirken.

    Du kannst unser con­tent audit tem­plate nutzen, um poten­ziell min­der­w­er­tige und irrel­e­vante Seit­en zu ent­deck­en.

    10) Baue hochwertige Backlinks auf

    Back­links zeigen Google die Wichtigkeit von Web­seit­en. Wenn eine Seite auf eine andere Seite ver­linkt, muss diese schließlich einen gewis­sen Wert haben. Und das sind Seit­en, die Google index­ieren möchte.

    Für volle Trans­parenz indiziert Google nicht nur Web­seit­en mit Back­links. Es gibt viele (Mil­liar­den) indizierte Seit­en ohne Back­links. Da Google jedoch Seit­en mit hochw­er­ti­gen Links für wichtiger hält, wer­den sie solche Seit­en wahrschein­lich schneller crawlen und neu crawlen als die anderen. Das führt zu ein­er schnelleren Index­ierung.

    Wir haben viele Ressourcen, um hochw­er­tige Back­links im Blog zu erstellen.

    Schau ein­fach mal in einen der nach­ste­hend gelis­teten Guides.

    Indexing ≠ ranking

    Die Indizierung dein­er Web­site oder Web­seite in Google bedeutet nicht, dass du ein Rank­ing oder Traf­fic erhältst.

    Es gibt zwei ver­schiedene Dinge.

    Indizierung bedeutet, dass Google von dein­er Web­site Ken­nt­nis hat. Das bedeutet nicht, dass man es für alle rel­e­van­ten und lohnen­den Fra­gen bew­erten wird.

    An dieser Stelle kommt SEO ins Spiel, um deine Web­seit­en für spez­i­fis­che Anfra­gen zu opti­mieren.

    Kurz gesagt, SEO bein­halte:

    • Her­auszufind­en, was Kun­den suchen;
    • Inhalte um diesen The­men zu kreieren;
    • Diese Seit­en für die Ziel-Key­words zu opti­mieren;
    • Back­links auf­bauen;
    • Regelmäßig Inhalte wieder neu veröf­fentlichen und daraus einen “Evergreen”-Inhalt zu machen.

    Hier ein Video wie du mit SEO anfängst:

    https://www.youtube.com/watch?v=DvwS7cV9GmQ

    … und ein biss­chen Lek­türe:

    Abschließende Gedanken

    Es gibt nur zwei mögliche Gründe, warum Google deine Web­site oder Inter­net­seite nicht indiziert:

    1. Tech­nis­che Prob­leme hin­dern sie daran, dies zu tun
    2. Sie sehen deine Web­site oder Seite als min­der­w­er­tig und wert­los für ihre Nutzer.

    Es ist dur­chaus möglich, dass bei­de Prob­leme existieren. Ich würde jedoch sagen, dass tech­nis­che Prob­leme weitaus häu­figer auftreten. Tech­nis­che Prob­leme kön­nen auch zur automa­tis­chen Gener­ierung von indizier­baren Inhal­ten mit geringer Qual­ität führen (z.B. Prob­leme mit der facettierten Nav­i­ga­tion). Das ist nicht gut.

    Den­noch sollte das Durch­laufen der obi­gen Check­liste das Prob­lem der Index­ierung neun­mal von zehn lösen.

    Denke daran, dass Index­ierung nicht gle­ich Rank­ing bedeutet. SEO ist immer noch uner­lässlich, wenn man für lohnende Suchan­fra­gen einen Platz in den Ergeb­nis­lis­ten find­en und einen kon­stan­ten Strom von organ­is­chem Traf­fic anziehen will.

    Über­set­zt von seybold.de, Spezial­ist für Such­maschi­nenop­ti­mierung seit über 20 Jahren.

    Shows how many different websites are linking to this piece of content. As a general rule, the more websites link to you, the higher you rank in Google.

    Shows estimated monthly search traffic to this article according to Ahrefs data. The actual search traffic (as reported in Google Analytics) is usually 3-5 times bigger.