Viewing 8 replies - 1 through 8 (of 8 total)
  • Plugin Author Jan-Peter

    (@starguide)

    Hallo,

    bei allen Seiten, die ich bisher monitore, hat der GoogleBot keine Anstalten gemacht, die .js Datei fälschlicherweise auf Pseudo-Links zu scannen.

    Aus der Google-Doku dazu: https://support.google.com/webmasters/answer/2409439?hl=de

    Unerwartete 404-Fehler
    Bei den Crawling-Fehlern werden gelegentlich 404-Fehler für URLs aufgeführt, die Ihrer Meinung nach nicht auf Ihrer eigenen Website oder im Web existieren. Diese unerwarteten URLs können eventuell vom Googlebot generiert werden, der versucht hat, Links zu folgen, die er in JavaScript, Flash-Dateien oder anderen eingebetteten Inhalten gefunden hat.

    Beispielsweise könnte Ihre Website mithilfe des folgenden Codes Dateidownloads in Google Analytics verfolgen:

    <a href="helloworld.pdf" onClick="_gaq.push(['_trackPageview','/download-helloworld']);">Hello World PDF</a>

    In diesem Beispiel versucht der Googlebot, die URL http://www.ihrebeispielurl.de/download-helloworld zu crawlen, auch wenn es sich nicht um eine tatsächliche Seite handelt. In diesem Fall kann der Link in der Search Console-Funktion “Crawling-Fehler” als 404-Fehler (“Nicht gefunden”) angezeigt werden.

    Google arbeitet an einer entsprechenden Erkennung und Lösung, damit diese URLs nicht mehr unter “Crawling-Fehler” angezeigt werden.

    D.h. es gibt nicht viel, was wir an dieser Stelle tun können. Google meint Links in .js Dateien zu erkennen, die gar keine sind. Schlimm ist das indes jedoch nicht.

    Ausführung dazu von Google hier: https://plus.google.com/+JohnMueller/posts/RMjFPCSs5fm

    Ich habe trotzdem mal ein Update in Vorbereitung, dass es dem GoogleBot eventuell leichter macht, weniger Fehler bei der Erkennung von möglichen Links zu machen. Wieso das jedoch bisher nur bei dir auftritt und bei keiner unserer Seiten, kann ich so direkt nicht sagen. Googles (Crawl-) Wege sind bisweilen unergründlich.

    Gruß,
    JP

    Plugin Author Jan-Peter

    (@starguide)

    Hallo,

    bei allen Seiten, die ich bisher monitore, hat der GoogleBot keine Anstalten gemacht, die .js Datei fälschlicherweise auf Pseudo-Links zu scannen.

    Aus der Google-Doku dazu: https://support.google.com/webmasters/answer/2409439?hl=de

    Unerwartete 404-Fehler
    Bei den Crawling-Fehlern werden gelegentlich 404-Fehler für URLs aufgeführt, die Ihrer Meinung nach nicht auf Ihrer eigenen Website oder im Web existieren. Diese unerwarteten URLs können eventuell vom Googlebot generiert werden, der versucht hat, Links zu folgen, die er in JavaScript, Flash-Dateien oder anderen eingebetteten Inhalten gefunden hat.

    Beispielsweise könnte Ihre Website mithilfe des folgenden Codes Dateidownloads in Google Analytics verfolgen:

    a href=”helloworld.pdf” onClick=”_gaq.push([‘_trackPageview’,’/download-helloworld’]);”>Hello World PDF

    In diesem Beispiel versucht der Googlebot, die URL http://www.ihrebeispielurl.de/download-helloworld zu crawlen, auch wenn es sich nicht um eine tatsächliche Seite handelt. In diesem Fall kann der Link in der Search Console-Funktion “Crawling-Fehler” als 404-Fehler (“Nicht gefunden”) angezeigt werden.

    Google arbeitet an einer entsprechenden Erkennung und Lösung, damit diese URLs nicht mehr unter “Crawling-Fehler” angezeigt werden.

    D.h. es gibt nicht viel, was wir an dieser Stelle tun können. Google meint Links in .js Dateien zu erkennen, die gar keine sind. Schlimm ist das indes jedoch nicht.

    Ausführung dazu von Google hier: https://plus.google.com/+JohnMueller/posts/RMjFPCSs5fm

    Ich habe trotzdem mal ein Update in Vorbereitung, dass es dem GoogleBot eventuell leichter macht, weniger Fehler bei der Erkennung von möglichen Links zu machen. Wieso das jedoch bisher nur bei dir auftritt und bei keiner unserer Seiten, kann ich so direkt nicht sagen. Googles (Crawl-) Wege sind bisweilen unergründlich.

    Gruß,
    JP

    Thread Starter Naviprode

    (@naviprode)

    Hallo,
    herzlichen Dank für die informative Antwort, wieder was gelernt! Ist halt unschön, da es auch den 404 Log des Redirection-Plugins zumüllt und somit das Auffinden echter Fehler erschwert.
    Grüße

    Plugin Author Jan-Peter

    (@starguide)

    Hallo Naviprode,

    das Update 2.3.2 beinhaltet ein paar kleine Verbesserungen, die dem GoogleBot helfen könnten, nicht mehr auf die “Links” hereinzufallen. Installier doch einmal das Update und lass uns wissen, ob die Fehlerzahl weiter zunimmt oder nun keine neuen mehr hinzu kommen.

    Viele Grüße,
    JP

    Thread Starter Naviprode

    (@naviprode)

    Hallo JP,
    super, danke, ist schon installiert, ich werde in ein paar Tagen dann berichten!
    Grüße

    Thread Starter Naviprode

    (@naviprode)

    Hallo JP,

    nein, da hat sich nichts geändert, weiterhin zahlreiche Meldungen in der Search Console bzw. dem Redirection Plugin (alle Meldungen habe ich nach der Installation Deines Plugins gelöscht). Würde sagen schließen wir das Thema, aufgrund der Hintergrundinformationen kann ich damit leben.
    Grüße

    Plugin Author Jan-Peter

    (@starguide)

    Welches Redirection-Plugin nutzt du?

    Thread Starter Naviprode

    (@naviprode)

Viewing 8 replies - 1 through 8 (of 8 total)
  • The topic ‘404 Fehler in Google Search Console’ is closed to new replies.