27 Lesezeit Minuten

Technische SEO-Checkliste: Die ultimative Liste zur Verbesserung Ihrer Website

Der technische Zustand einer Website ist die Grundlage für eine erfolgreiche SEO-Optimierung. Wenn Suchmaschinen Schwierigkeiten haben, Ihre Website zu scannen, zu lange auf die Antwort des Servers warten oder durch doppelte Inhalte verwirrt werden, wird es fast unmöglich sein, hohe Positionen in den SERPs zu erreichen. Eine schlechte technische Optimierung einer Website kann alle Bemühungen der On-Page- und Off-Page-Optimierung zunichte machen. In dieser technischen SEO-Checkliste haben wir die wichtigsten Aspekte der technischen Optimierung zusammengestellt, die Ihnen helfen werden, die Leistung Ihrer Website zu verbessern.

Darya Maksimava Darya Maksimava
Senor SEO Specialist, Evisions
Dieser Artikel wurde für Sie von artificial-intelligence übersetzt
Technische SEO-Checkliste: Die ultimative Liste zur Verbesserung Ihrer Website
Quelle: Canva Pro License

Technische SEO-Checkliste

Crawling und Indexierung

Der erste Punkt, den Sie bei der technischen Prüfung berücksichtigen sollten, ist die Indexierung und das Crawling Ihrer Website durch Suchmaschinen. Denn wenn die Seiten Ihrer Website nicht gecrawlt werden können, werden sie auch nicht indexiert (mit wenigen Ausnahmen). Dies hat zur Folge, dass die Seiten, die nicht im Index vertreten sind, auch nicht am Ranking teilnehmen.

Sehen Sie sich den Seitenindexierungsbericht in der Google Search Console an

Der genaueste und zuverlässigste Weg, die Indexierung Ihrer Website zu analysieren, ist die Auswertung des Seitenindexierungsberichts in der Google Search Console. Schauen Sie sich den Bericht der indexierten Seiten an und prüfen Sie, welche Seiten im Index sind. Sehen Sie sich an, ob es Seiten mit Filter- oder Sortieroptionen gibt, ob es Testseiten oder andere Seiten gibt, die nicht indiziert werden sollen. Sehen Sie sich auch Seiten an, die ausgeschlossen wurden. Nicht alle Status im Bericht „Ausgeschlossene Seiten“ sind ein Problem. Sie sollten Ihre Aufmerksamkeit nicht auf alle ausgeschlossenen Seiten richten, sondern nur auf diejenigen, bei denen das Verhalten von Google nicht mit Ihren Absichten übereinstimmt. In der folgenden Tabelle sehen Sie die Status, die in der Regel Aufmerksamkeit und eine tiefere Analyse erfordern:

Status Was bedeutet das? Was Sie tun sollten
Umleitungsfehler Google konnte die URL aufgrund von Weiterleitungsproblemen nicht verfolgen.
  • Reduzieren Sie die Anzahl der Weiterleitungen (auf 1-2).
  • Stellen Sie sicher, dass die endgültige URL 200 OK zurückgibt und nicht in robots.txt/noindex blockiert ist.
Server-Fehler Der Server hat einen 5xx-Fehler zurückgegeben.
  • Prüfen Sie die Serverprotokolle.
  • Stellen Sie sicher, dass die Website nicht überlastet ist – Beheben Sie interne Fehler, insbesondere wenn sie immer wieder auftreten.
Entdeckt – nicht indiziert Google kennt die Seite, hat sie aber noch nicht gecrawlt. Dies deutet auf Probleme mit dem Crawling-Budget hin.
  • Stellen Sie sicher, dass die Seite in der Sitemap enthalten ist.
  • Fügen Sie interne Links zu ihr hinzu.
  • Optimieren Sie das Crawling-Budget.
Gecrawlt – nicht indiziert Google hat die Seite besucht, sie aber nicht indiziert. Dies deutet in der Regel auf eine geringe Qualität der Seite hin.
  • Verbessern Sie die Qualität und Einzigartigkeit des Inhalts.
  • Stellen Sie sicher, dass die Seite keine Duplikate enthält.
  • Fügen Sie interne Links zu ihr hinzu.
Duplikat ohne benutzerdefiniertes canonical Google betrachtet die Seite als Duplikat, aber Sie haben keinen kanonischen Link angegeben.
  • Überprüfen Sie die Seitenpaare und geben Sie den erforderlichen kanonischen Link an oder überdenken Sie die Struktur der Website.
Duplikat, Google wählte ein anderes canonical als der Nutzer Google hat die von Ihnen angegebene canonical ignoriert.
  • Dafür kann es viele Gründe geben; Sie müssen die Seitendaten sorgfältig prüfen und die am besten geeignete Strategie wählen (noindex, redirect, removal, robots.txt, Änderungen der Website-Struktur und interne Verlinkung).
Weicher 404 Die Seite sieht „leer“ oder „nicht gefunden“ aus, gibt aber einen 200 OK-Status zurück.
  • Geben Sie 404 oder 410 zurück.
  • Richten Sie eine Umleitung ein.
  • Verbessern Sie den Inhalt.
  • Von der Indizierung ausschließen.

Die anderen Statusmeldungen deuten wahrscheinlich nicht auf Probleme hin. Es lohnt sich jedoch, auch diese Berichte zu überprüfen, um sicherzustellen, dass die Seiten nicht versehentlich entfernt, umgeleitet, kanonisiert oder für die Indizierung gesperrt wurden.

Status Was bedeutet das? Was Sie wissen sollten
Alternative Seite mit korrektem kanonischen Tag Google hat die von Ihnen angegebene kanonische Seite korrekt anerkannt.
  • Alles funktioniert wie erwartet. Keine Aktion erforderlich. Vergewissern Sie sich, dass Sie das gewünschte canonical angegeben haben.
URL durch robots.txt blockiert Google kann die Seite nicht crawlen.
  • Überprüfen Sie die robots.txt-Datei.
  • Erlauben Sie den Zugriff, wenn die Seite indiziert werden soll.
Mit ’noindex‘ markierte URL Die Seite hat die noindex-Direktive.
  • Stellen Sie sicher, dass das noindex-Tag absichtlich gesetzt ist.
  • Wenn die Seite wichtig ist, entfernen Sie dieses Tag.
Nicht gefunden (404) Die Seite existiert nicht.
  • Wenn die Seite wichtig ist, stellen Sie sie wieder her.
  • Wenn die Seite dauerhaft gelöscht ist, stellen Sie sicher, dass es keine internen Links zu ihr gibt.
Blockiert wegen unautorisierter Anfrage (401)/ Blockiert wegen verbotenem Zugriff (403) Die Seite ist aufgrund von Berechtigung oder Verbot gesperrt.
  • Erlauben Sie den Zugriff, wenn die Seite indiziert werden soll.
Seite mit Weiterleitung Die Seite leitet auf eine andere um.
  • Prüfen Sie, ob die Weiterleitung beabsichtigt und korrekt ist.
URL blockiert aufgrund eines anderen 4xx-Problems Die Seite ist aufgrund eines anderen 4xx-Fehlers als 404 (z. B. 403, 401, 410 usw.) unzugänglich.
  • Prüfen Sie den HTTP-Statuscode manuell.
  • Korrigieren Sie die Zugriffseinstellungen.
  • Stellen Sie korrekte Statuscodes oder Weiterleitungen ein.
  • Erlauben Sie bei Bedarf den Zugriff für Googlebot.

Im Google Help Center finden Sie eine umfassende Beschreibung des Seitenberichts, einschließlich Beispielen von Problemen und einer detaillierten Erklärung jedes Status. Screaming Frog kann auch bei der Analyse von Seiten helfen, die indiziert oder vom Index ausgeschlossen sind. Um dies zu tun, müssen Sie sich mit der Google Search Console API verbinden, bevor Sie mit dem Crawlen der Seite beginnen. Um sich zu verbinden, gehen Sie zu Konfiguration -> API Zugang -> Google Search Console. Klicken Sie auf Mit Google anmelden und folgen Sie den Anweisungen.

Source: Screaming Frog

Sobald die Verbindung hergestellt ist, aktivieren Sie die URL-Prüfung, und Sie können auch die Option aktivieren, die Indizierungsprüfung für URLs, die nicht indiziert werden können, zu ignorieren.

API Access: Google Search Console screenshot

Source: Screaming Frog

Sie können dann den Status jeder Seite laut Search Console (so wie Google ihn sieht) und ihren tatsächlichen Status, der während des Crawl-Prozesses ermittelt wurde, sehen und vergleichen.

Source: Screaming Frog

Bitte beachten Sie, dass nur 2000 URLs pro Tag für jede Website zur Verfügung stehen, so dass diese Methode eher für kleine Websites geeignet ist.

Prüfen Sie, was in Ihrer sitemap.xml steht

Sitemap.xml ist eine XML-Datei, die Suchmaschinen-Crawlern eine Liste der Seiten einer Website sowie (optional) Informationen über das Datum der letzten Änderung, die Aktualisierungshäufigkeit und die empfohlene Crawl-Priorität zur Verfügung stellt. Sie befindet sich normalerweise im Stammverzeichnis der Website, z. B.: https://example.com/sitemap.xml. Sitemap.xml hilft Suchmaschinen, neue oder aktualisierte Seiten schneller zu finden. Darüber hinaus ist die Aufnahme einer Seite in diese Datei eines der Signale zur Bestimmung der kanonischen Version einer Seite, wenn auch ein schwaches.

Example of sitemap

Source: e-commerce sport store

Die Datei sitemap.xml ist besonders nützlich für:

  • neue Websites mit wenigen externen Links;
  • große Websites mit vielen Seiten;
  • Websites mit vielen Medieninhalten;
  • Nachrichten-Sites, die häufig aktualisiert werden.

Sitemap.xml sollte alle Seiten enthalten, die Sie indizieren wollen. Sie können Screaming Frog oder andere Crawler verwenden, um die in Sitemap.xml enthaltenen Seiten zu analysieren. In Screaming Frog kann die Sitemap.xml separat im Listenmodus gescannt werden, oder sie kann in einen regulären Site-Scan einbezogen werden. Um dies zu tun, aktivieren Sie unter Konfiguration -> Spider -> Crawl das Scannen von XML-Sitemaps und fügen Sie die absoluten URLs der Sitemaps hinzu, die Sie crawlen möchten. Es wird nicht empfohlen, verschiedene Online-Dienste für die Generierung einer Sitemap zu verwenden, da diese möglicherweise nur eine statische Sitemap generieren, die nicht automatisch aktualisiert wird. Optimal ist es, die sitemap.xml mithilfe von Plugins für das CMS, auf dem die Website läuft, zu generieren oder ein benutzerdefiniertes Skript zu schreiben, das die Sitemap nach bestimmten Bedingungen generiert und automatisch aktualisiert, wenn Änderungen an der Website vorgenommen werden. Stellen Sie bei der Generierung der sitemap.xml sicher, dass Ihre Datei dem sitemap.xml-Protokoll entspricht. Sie können dazu verschiedene Online-Validatoren verwenden, z. B. https://www.xml-sitemaps.com/validate-xml-sitemap.html. Müssen alle im Protokoll aufgeführten Tags enthalten sein? Nicht immer. Google berücksichtigt zum Beispiel nur die Tags <loc> und <lastmod>. Achten Sie darauf, dass das Datum im <lastmod>-Tag korrekt ist. Wenn versucht wird, es zu manipulieren, kann Google dieses Tag ignorieren.

Stellen Sie sicher, dass die Datei robots.txt keine Fehler enthält.

Die robots.txt-Datei ist der erste Ort, an dem ein Suchbot nachschaut, bevor er eine Website crawlt. Sie bestimmt, welche Bereiche der Website gecrawlt werden können und welche nicht, und damit auch, welche Seiten von Suchmaschinen indiziert werden. Sie sollte sich immer auf https://example.com/robots.txt befinden. Diese Datei ist ein Werkzeug zur Verwaltung des Crawlings (nicht der Indexierung!) der Website. Einige Seiten können, auch wenn sie in robots.txt blockiert sind, dennoch indiziert werden (normalerweise, wenn es interne oder externe Links zu ihnen gibt). Solche Seiten (die indiziert werden, obwohl sie in robots.txt blockiert sind) können in der Google Search Console im Bericht „Indexed, though blocked by robots.txt“ angezeigt werden.

Indexed though blocked by robots.txt

Source: Search Console

Folgende Punkte sollten Sie im Rahmen eines technischen SEO-Audits in Bezug auf die robots.txt-Datei überprüfen:

  1. Verfügbarkeit der Datei

Die Datei sollte unter https://example.com/robots.txt zugänglich sein und einen Antwortstatus von 200 OK liefern. Ihr Fehlen, Download-Fehler oder Weiterleitungen (301, 302, 403, 404) können verhindern, dass Suchmaschinen die Crawling-Regeln der Website richtig verstehen.

  1. Syntax und Korrektheit

Prüfen Sie, ob die Dateistruktur dem Standard entspricht. Beispiel für eine einfache Vorlage:

robots.txt example

Source: nike.com

  1. Disallow- und Allow-Direktiven

Stellen Sie sicher, dass wichtige Seiten nicht versehentlich nicht zugelassen werden, z. B:

  • Startseite (/)
  • Produktkarten (/product/)
  • Blog oder Artikel (/blog/, /articles/)

Ein häufiger Fehler ist das Blockieren von Bildern, Stilen und Skripten beim Blockieren von Verwaltungsordnern. In einem solchen Fall sollte angegeben werden, dass trotz der Sperrung des administrativen Ordners einige Dateitypen zum Scannen geöffnet sein sollten. Dies geschieht häufig auf WordPress-Websites, wenn der Ordner mit allen Benutzerinhalten, Disallow: /In diesem Fall können nur Dateien eines bestimmten Formats zum Scannen geöffnet werden:

  • Allow: /wp-content/uploads/*.css
  • Erlaubt: /wp-content/uploads/*.js
  • Erlaubt: /wp-content/uploads/*.jpeg

Um Ihre robots.txt zu validieren und die hinzugefügten Direktiven zu testen, können Sie dieses Toolverwenden .

  1. Prüfen Sie die Kompatibilität mit anderen Direktiven

Häufig treten Fehler auf, wenn robots.txt im Konflikt mit:

  • meta tag <meta name=“robots“ content=“noindex“>
  • kanonisch

Wenn zum Beispiel eine Seite in robots.txt offen ist, aber über noindex blockiert wird, wird sie zwar gecrawlt, kommt aber nicht in den Index. Dies ist akzeptabel, aber es ist wichtig, dass dies absichtlich geschieht. Ein häufiges Problem ist auch, dass es andere Anweisungen für Bots im Quellcode und eine gleichzeitige Sperrung der Seite in robots.txt gibt. Suchmaschinen-Robots scannen keine in robots.txt blockierten Seiten. Sie sehen die im Code angegebenen Tags nicht, zum Beispiel die Kanonisierung. Das heißt, eine solche kanonische Seite wird einfach nicht berücksichtigt.

Überprüfen Sie Ihre interne Verlinkung

Eine der wichtigsten Aufgaben eines technischen Audits ist es, sicherzustellen, dass die interne Verlinkung der Website korrekt funktioniert. Das bedeutet, dass alle internen Links zu echten, existierenden Seiten führen müssen, die für die Indexierung offen sind, einen 200 OK-Statuscode zurückgeben, keine Weiterleitungen enthalten und vor allem nicht auf Seiten mit 4xx/5xx-Fehlern verweisen. Auf den ersten Blick mag dies wie ein unbedeutendes Detail erscheinen, aber in der Praxis können selbst fehlerhafte interne Links negative Auswirkungen haben:

  • Die Effizienz des Crawlings der Website durch Suchmaschinen,
  • die Verteilung des internen SEO-Gewichts (PageRank),
  • die Benutzerfreundlichkeit.

Der erste Schritt der Analyse besteht darin, alle internen Links auf Fehler zu überprüfen. Es ist besonders wichtig, fehlerhafte Links zu identifizieren, die zu Seiten mit 404, 410 oder anderen Fehlern (z. B. 403, 500) führen. Nachfolgend finden Sie eine Tabelle mit den wichtigsten Fehlertypen, die bei internen Links auftreten können, ihrer Bedeutung und empfohlenen Maßnahmen zu ihrer Behebung.

Fehlertyp Was bedeutet der Fehler Was ist zu tun?
404 Seite nicht gefunden Entfernen Sie den Link oder ersetzen Sie ihn durch einen funktionierenden Link.
403 Zugriff nicht erlaubt Überprüfen Sie die Zugriffseinstellungen
301/302 Umleiten Aktualisieren Sie den Link auf die endgültige URL
5xx Server-Fehler Überprüfen Sie den Server oder das CMS

Es ist auch wichtig, die Tiefe der Seitenhierarchie zu analysieren, d. h. festzustellen, auf welcher Ebene und wie viele Klicks von der Startseite entfernt sich die wichtigsten Inhalte befinden. Wichtige Seiten sollten vorzugsweise nicht tiefer als bis zur dritten Ebene reichen – das erhöht ihre Zugänglichkeit sowohl für Suchmaschinen als auch für Nutzer. Eines der Schlüsselelemente der Analyse ist die Identifizierung „verwaister“ Seiten – also solcher, die keine internen Links haben, die auf sie verweisen. Selbst wenn diese Seiten in der Sitemap enthalten sind, werden sie durch das Fehlen interner Links weniger zugänglich. Außerdem ist es wichtig, die Ankertexte zu analysieren – die Wörter und Sätze, die Links enthalten. Sie sollten relevant und aussagekräftig sein, denn Ankertexte helfen den Suchmaschinen, den Kontext des Links zu verstehen.

Analysieren Sie die Crawl-Statistiken

Die Analyse der Crawl-Statistiken ist ein Weg, um zu verstehen, wie der Googlebot mit einer Website interagiert: welche Seiten gecrawlt werden, wie häufig und wie sich dies auf die Suchmaschinenoptimierung auswirkt. Diese Daten sind in Google Search Console → Einstellungen → Crawl-Statistiken verfügbar. In der folgenden Tabelle sehen Sie die häufigsten Probleme, die Sie in diesem Bericht herausfinden können:

Problem Wonach im Bericht zu suchen ist Mögliche Ursachen
Starker Rückgang des Crawlings Weniger Crawls pro Tag Erreichbarkeitsprobleme, falsche Einstellungen in robots.txt, Blöcke, 5xx-Fehler
Viele 4xx- und 5xx-Fehler Fehler in URLs Gelöschte Seiten, defekte Links, Serverprobleme
Antwortzeit erhöht >1 Sekunde – ein Warnzeichen Hosting-Probleme, Server-Überlastung
Viele 3xx-Weiterleitungen Weiterleitungen anstelle von direkten URLs Falsche Weiterleitungen, Redirect-Ketten, viele interne Links mit Redirects
CSS/JS nicht gecrawlt Sie fehlen in der Statistik Blockiert durch robots.txt

Zusätzlich können die Server-Logs analysiert werden. Sie ermöglichen es Ihnen, die tatsächlichen Anfragen von Suchbots (nicht nur Googlebot, sondern auch Bingbot, YandexBot usw.) zu sehen, und nicht nur die aggregierten Daten aus der Google Search Console. Dies ist eine fortgeschrittene, „rohe“ Diagnosemethode, die einen erheblichen Zeitaufwand erfordert. Um die Daten zu visualisieren, können Sie Open-Source-Tools wie GoAccess oder Screaming Frog Log File Analyser verwenden.

Strukturierte Daten implementieren

Strukturierte Daten sind ein spezielles Auszeichnungsformat auf einer Webseite, das Suchmaschinen hilft, den Inhalt der Seite genauer und tiefer zu verstehen. Sie dienen als „Hinweis“ für Google und andere Suchmaschinen, was genau sich auf der Seite befindet – ein Artikel, ein Produkt, ein Rezept, eine Rezension, ein Video usw. Obwohl es sich nicht um ein offizielles Ranking-Signal handelt, wirkt es sich indirekt auf das Ranking aus, indem es das Verständnis der Seite durch die Suchmaschinen verbessert. Der wichtigste Standard oder das Protokoll für strukturierte Daten auf Websites ist Schema.org. Es gibt auch andere Protokolle, wie z. B. OpenGraph, das jedoch für soziale Netzwerke verwendet wird. Schema.org ist ein Gemeinschaftsprojekt von Google, Microsoft, Yahoo und Yandex, das zur Entwicklung und Pflege eines einheitlichen Standards für strukturierte Daten im Web geschaffen wurde. Schema.org umfasst Hunderte von Entitätstypen, von denen die am häufigsten verwendeten in der folgenden Tabelle aufgeführt sind:

Kategorie Entität (@Typ) Zweck
Inhalt und Seiten Artikel Ein Artikel oder Nachrichteninhalt
BlogPosting Ein Blog-Beitrag
NachrichtenArtikel Ein Nachrichtenartikel für Google News
FAQSeite Eine Seite mit häufig gestellten Fragen (FAQ)
Anleitungen Eine Schritt-für-Schritt-Anleitung
WebSeite Allgemeine Informationen über eine Webseite
Produkte und Angebote Produkt Beschreibung des Produkts
Angebot Preisangebot
AggregatAngebot Preisspanne für ein Produkt von verschiedenen Verkäufern
Rezensionen und Bewertungen Bewertung Eine Bewertung für ein Produkt oder eine Dienstleistung
Bewertung Eine numerische Bewertung (oft innerhalb einer Rezension)
AggregierteBewertung Durchschnittliche Bewertung auf der Grundlage mehrerer Bewertungen
Organisationen und Personen Organisation Eine Beschreibung eines Unternehmens oder einer Marke
LokalesGeschäft Ein lokales Geschäft mit Kontaktinformationen und Terminen
Person Eine Person (z. B. Autor eines Artikels, Redner, etc.)
Veranstaltungen Veranstaltung Eine Online- oder Offline-Veranstaltung
Navigation und Struktur Brotkrümel-Liste Breadcrumbs-Navigation
SiteNavigationElement Hauptmenüpunkte
Multimedia VideoObjekt Video mit Metadaten (für Videoschnipsel)
BildObjekt Bild mit Beschreibung
Ausbildung und Jobs Kurs Ein Online-Kurs oder Schulungsprogramm
Stellenausschreibung Stellenausschreibung (für Google for Jobs)

Es wird empfohlen, strukturierte Daten im JSON-LD-Format zu implementieren. Dieser Block wird in den <head> oder <body> des HTML-Dokuments eingefügt, aber er wird dem Benutzer nicht angezeigt, sondern von Suchrobotern gelesen. Alle großen Suchmaschinen, wie Google, Bing und Yahoo, unterstützen dieses Format. Nachstehend ein Beispiel für JSON-LD-Code: <script type=“application/ld+json“> { „@context“: „https://schema.org“, „@type“: „Article“, „headline“: „Was ist JSON-LD?“, „author“: { „@type“: „Person“, „name“: „John Smith“ }, „datePublished“: „2025-12-01“ } </script> Halten Sie sich bei der Implementierung strukturierter Daten an das Schema.org-Protokoll und verwenden Sie den Validator, um die Korrektheit der implementierten Mikrodatentypen zu überprüfen.Einige Arten strukturierter Daten aus dem Schema.org-Protokoll können auch bei der Anzeige von Rich Snippets in den Google-Suchergebnissen hilfreich sein. Beachten Sie, dass die Anforderungen von Google an strukturierte Daten für Rich Snippets leicht vom Schema.org-Standard abweichen. Oft müssen mehr Felder angegeben werden, als das Schema.org-Protokoll vorschreibt. Wenn Sie also ein Rich Snippet erreichen möchten, sollten Sie die Richtlinien von Google für strukturierte Daten befolgen. Sie können die Korrektheit der Microdata-Implementierung mit dem Rich-Snippet-Validator überprüfen. Es gibt auch viele Microdata-Generatoren, die jedoch nur statischen Code erstellen können, der bei Änderungen des Inhalts auf der Seite nicht aktualisiert wird. Die Sicherstellung, dass die Informationen in den Mikrodaten mit dem übereinstimmen, was für die Nutzer auf der Seite sichtbar ist, ist Teil der Anforderungen von Google an strukturierte Daten. Wenn gegen die Richtlinie für strukturierte Daten verstoßen wird, kann die Seite alle Rich Snippets verlieren und in einigen Fällen mit manuellen Strafen belegt werden. Stellen Sie daher sicher, dass Ihre Mikrodaten automatisch generiert und aktualisiert werden.

Inhalt

Im Rahmen eines technischen SEO-Audits ist es wichtig, die grundlegenden Inhaltsmerkmale zu bewerten: von der Struktur der Überschriften und Metatags bis hin zum Vorhandensein von Alt-Attributen für Bilder und potenziellen doppelten Seiten. Diese Elemente wirken sich direkt auf die Indizierung und die Wahrnehmung der Website durch die Suchmaschinen aus.

Testen Sie Ihre Website auf vollständige Duplikate

Vollständige Duplikate entstehen, wenn identische Inhalte über verschiedene URLs auf der Website zugänglich sind. Duplikate können die Platzierung Ihrer Website vollständig beeinträchtigen. Die häufigsten Arten von vollständigen Duplikaten sind:

  • Erreichbarkeit sowohl über HTTP als auch über HTTPS
  • Erreichbarkeit mit und ohne WWW
  • Erreichbarkeit mit oder ohne Schrägstrich am Ende
  • Erreichbarkeit von URLs in Groß- und Kleinbuchstaben
  • Erreichbarkeit der Seite mit und ohne Dateierweiterungen wie .html, .htm, .php, .aspx
  • Parameter, die den Inhalt der Seite nicht verändern, wie z. B. UTM-Tags
  • Identischer Inhalt unter verschiedenen URLs. Zum Beispiel ist ein Produkt in zwei Kategorien aufgeführt, die über zwei verschiedene URLs zugänglich sind. Oder die Produktseite ist mit und ohne die Kategorie in der URL zugänglich.
  • Testversionen der Website (DEV-Domain, die für die Entwicklung verwendet wird).

Um Seitenduplikate zu finden, die mit URL-Varianten zusammenhängen, testen Sie die URLs manuell und überprüfen Sie den Server-Antwortcode für diese URL-Varianten. Sie können ein beliebiges Tool zur Überprüfung der Server Response Codes verwenden, z. B. https://httpstatus.io/. Geben Sie die URL-Varianten ein und prüfen Sie ihre Erreichbarkeit.

check of full duplicates

Source: httpstatus.io/ website + test of a client’s website

Um Probleme mit Variationen in HTTP/HTTPS, www/ohne-www, mit/ohne Schrägstrich, Groß-/Kleinschreibung und der Erreichbarkeit von Seiten mit Erweiterungen wie .html, .htm, .php, .aspx und ohne diese zu beheben, ist es notwendig, eine 301-Weiterleitung zur bevorzugten Version einzurichten. Wenn Duplikate aufgrund der Verfügbarkeit identischer Inhalte durch Hinzufügen oder Entfernen von Teilen der URL gefunden werden (z. B. ein Produkt ist in zwei Kategorien verfügbar), ist es am besten, die URL-Struktur und die Struktur der Website zu überdenken. Für UTM und andere Parameter kann die Kanonisierung ebenfalls eine Lösung sein. Es ist jedoch wichtig zu beachten, dass Google das Canonical-Tag als Empfehlung behandelt und die endgültige Entscheidung über die zu wählende URL bei Google verbleibt. Wenn eine Testversion der Website im Google-Index gefunden wird, sollte sie für die Indizierung gesperrt und ein Antrag auf ihre Entfernung über die Google Search Console gestellt werden.

Lösen Sie partielle Seitenduplikate auf

Teilweise Seitenduplikate treten auf, wenn zwei oder mehr Seiten auf der Website sehr ähnlichen, aber nicht völlig identischen Content enthalten. Die häufigsten Arten von partiellen Duplikaten sind:

  • Sortier-Seiten
  • Filter-Seiten
  • Paginierungsseiten
  • Seiten mit ähnlichen Produkten (z. B. Produkte, die sich nur durch die Farbe unterscheiden)
  • Mehrere Versionen der Website in derselben Sprache, aber für unterschiedliche Regionen (z. B. drei englische Websites für die USA, Großbritannien und Australien).

Natürlich ist jede Website einzigartig, und während eines technischen Audits können Sie weitere Fälle von doppeltem Inhalt feststellen, die spezifische Lösungen erfordern. Die oben genannten Beispiele sind jedoch die häufigsten. Teilweise Duplikate werden in der Regel während des Crawling-Prozesses durch verschiedene Crawler gefunden. Sie haben sich wiederholende Parameter und können den gleichen Titel und H1 wie die Hauptkategorieseiten haben. Um partielle Duplikate zu beseitigen, können Sie keine Weiterleitung einrichten, da diese Seiten für die Funktionalität der Website erforderlich sind. Im Folgenden werden wir Methoden für den Umgang mit partiellen Duplikaten erörtern.

Sortieren und Filtern von Seiten

Diese Seiten können in der robots.txt-Datei für das Crawling gesperrt werden, obwohl dies von Google möglicherweise ignoriert wird, insbesondere wenn Links auf diese Seiten verweisen. Auf diese Weise wird das Crawling-Budget geschont. Sie können sie auch über die Direktive <meta name=“robots“ content=“noindex, nofollow“ /> blockieren, wodurch diese Seiten zwar nicht indiziert werden, aber Google nicht mitgeteilt wird, dass sie nicht gecrawlt werden sollen. In diesem Fall ist es am besten, JavaScript zu verwenden, um den Inhalt der Seite zu aktualisieren, wenn der Nutzer eine Sortierung oder einen Filter anwendet, ohne zusätzliche URLs und Links zu Filter- oder Sortierungsseiten zu erzeugen.

Produktvarianten unter verschiedenen URLs verfügbar

Idealerweise sollten alle Produktvarianten auf einer Seite zusammengefasst werden, auf der der Benutzer die gewünschte Farbe oder Größe auswählen kann, ohne die URL mit Hilfe von JavaScript zu ändern. Wenn jedoch für jede Variante eine eigene Seite verwendet wird, sollte ein kanonischer Link zur Hauptproduktseite angegeben werden. Wie bereits erwähnt, kann Google jedoch den vom Nutzer gesetzten kanonischen Link ignorieren.

Paginierungsseiten

Paginierungsseiten sollten nicht für die Indizierung gesperrt werden. Um sicherzustellen, dass Google die erste Seite der Kategorie als die Hauptseite betrachtet:

  • Nehmen Sie nur die erste Seite in die Datei sitemap.xml auf.
  • Fügen Sie auf allen Paginierungsseiten einen Link zur Hauptseite der Kategorie hinzu.
  • Fügen Sie Seitenzahlen in den Titel und die H1 der Paginierungsseiten ein. Zum Beispiel: „Weiße Hemden – Seite 2“.

Seiten, die in einer Sprache, aber für verschiedene Regionen verfügbar sind

In diesem Fall müssen Hreflang-Attribute verwendet werden. Sie werden verwendet, um Suchmaschinen mitzuteilen, welche Sprach- und Regionalversion einer Webseite sie den Nutzern auf der Grundlage ihrer Sprachpräferenz und ihres Standorts anzeigen sollen. Es gibt mehrere Möglichkeiten, Hreflang-Attribute zu implementieren:

  • In HTTP-Kopfzeilen
  • Über Tags im <head>-Abschnitt
  • Über Tags in der Datei sitemap.xml

Die einfachste Methode ist die Implementierung über Tags im <head>-Abschnitt. hreflang-Attribute, die über Tags im <head>-Abschnitt implementiert werden, müssen bestimmte Regeln erfüllen:

    • Das Attribut sollte das folgende Format haben: <link rel=“alternate“ hreflang=“lang_code_country_code“ href=“url-of-page“ />
    • Die Sprach- und Ländercodes müssen gültig sein. Um den gültigen Code für jede Sprachmutation auszuwählen, lesen Sie bitte diese Seite.
  • Jede Sprachversion muss sowohl sich selbst als auch alle anderen Sprachversionen in ihren hreflang-Attributen aufführen. Das bedeutet, dass jede Seite die gleiche Anzahl von hreflang-Attributen haben muss
  • Links in hreflang-Attributen sollten absolut und indizierbar sein.

Ein Beispiel für einen Code: <link rel=“alternate“ href=“https://example.com/en-us/page“ hreflang=“en-us“ /> <link rel=“alternate“ href=“https://example.com/en-gb/page“ hreflang=“en-gb“ /> <link rel=“alternate“ href=“https://example.com/en-us/page“ hreflang=“x-default“ />

Überprüfen Sie Titel, h1, h2 und Beschreibungen auf Duplikate

Obwohl Titel, Beschreibungen und H1-H6-Kopfzeilen mit der On-Page-SEO zusammenhängen, kann ihre Analyse im Rahmen eines technischen Audits nützlich sein, um Duplikate aufzuspüren. Zur Analyse können Sie jeden Crawler verwenden, der diese Tags sammelt. Wenn doppelte Titel, H1-H6-Tags und Beschreibungen gefunden werden, analysieren Sie die Seitendaten und ermitteln Sie die Ursache für die Duplikate. Dies kann darauf zurückzuführen sein, dass die Website sowohl über HTTP als auch über HTTPS verfügbar ist, dass die Hauptkategorie-Tags auf Filterseiten doppelt vorhanden sind oder dass einfach ein menschlicher Fehler vorliegt, bei dem diese Tags falsch ausgefüllt wurden.

Optimieren Sie Alt-Attribute für Bilder

Alt-Attribute sind ein HTML-Attribut, das innerhalb des <img>-Tags wie folgt verwendet wird: <img src=“image.jpg“ alt=“ Beschreibung des Bildes“>. Sein Hauptzweck besteht darin, eine Textbeschreibung des Bildinhalts zu liefern. Dieser Text wird angezeigt, wenn das Bild nicht geladen werden kann, und wird von Bildschirmlesegeräten vorgelesen, um sehbehinderte Benutzer zu unterstützen. Ein angemessener, beschreibender Alt-Text kann Ihren Bildern helfen, in der Bildersuche zu ranken und die allgemeine Relevanz der Seite zu verbessern. Wenn Sie eine Website mit viel visuellem Inhalt haben, dann ist die Optimierung der Alt-Attribute ein wichtigerer Schritt als bei klassischen Websites, die sich auf Textinhalte verlassen. Viele Crawler wie Screaming Frog, Ahrefs, SemRush usw. analysieren Alt-Attribute, und dort können Sie die Daten über fehlende oder leere Alt-Attribute erhalten. Sie können mehr über die Erstellung von beschreibenden Alt-Attributen in offiziellen Google-Dokumenten lesen.

Website-Geschwindigkeit, Mobilität und Benutzerfreundlichkeit

HTTPs-Protokoll verwenden

Die Verwendung des sicheren HTTPS-Protokolls ist unerlässlich, um die Sicherheit der Datenübertragung zwischen dem Nutzer und dem Server zu gewährleisten. Es erhöht nicht nur das Vertrauen der Nutzer, sondern hat auch positive Auswirkungen auf die Suchmaschinenoptimierung. Um zu prüfen, ob HTTPS verwendet wird, genügt ein Blick in die Adressleiste des Browsers – dort sollte ein Vorhängeschloss-Symbol erscheinen. Für eine detaillierte Analyse können Sie den Dienst SSL Labs nutzen , der einen vollständigen Bericht über den Status des SSL-Zertifikats erstellt und mögliche Probleme aufzeigt. Es ist auch wichtig sicherzustellen, dass keine gemischten Inhalte vorhanden sind – HTTP-Ressourcen auf HTTPS-Seiten. Für diese Analyse können Sie den HTTPS-Bericht in der Google Search Console verwenden, der URLs mit sowohl HTTP als auch HTTPS anzeigt.

https in search console

Source: Search Console

Quelle: Search Console unseres Kunden

Verbessern Sie Core Web Vitals

Core Web Vitals ist eine Reihe von Metriken, die von Google vorgeschlagen wurden, um die Qualität der Nutzererfahrung auf einer Website zu bewerten. Diese Metriken konzentrieren sich auf die Ladegeschwindigkeit, die Interaktivität und die visuelle Stabilität des Inhalts auf der Seite. Sie umfassen drei Schlüsselindikatoren:

Kennzahl Beschreibung Optimaler Wert
Größtes inhaltsreiches Bild (LCP) Misst die Ladezeit des größten sichtbaren Elements auf der Seite (z. B. Bild oder Text). Weniger als 2,5 Sekunden
Verzögerung der ersten Eingabe (FID) Misst die Zeit, die die Seite braucht, um auf die erste Benutzerinteraktion zu reagieren (z. B. das Anklicken einer Schaltfläche oder eines Links). Weniger als 100 Millisekunden
Kumulative Layout-Verschiebung (CLS) Bewertet die visuelle Stabilität der Seite, d. h. wie stark sich Elemente während des Ladens der Seite bewegen. Weniger als 0,1

Die Daten, die von echten Nutzern gesammelt wurden, können im Search Console Report „Core Web Vitals“ (aggregierte Daten) oder in PageSpeed Insights (für einzelne Tests) eingesehen werden. Beachten Sie bei der Arbeit an den Core Web Vitals, dass Sie die Probleme definieren müssen, die einen großen Einfluss auf die CWV-Metriken haben. Bei der Optimierung von LCP müssen Sie beispielsweise festlegen, welcher der vier Aspekte (TTFB, Ladeverzögerung, Ladezeit oder Rendering-Verzögerung) am meisten zu einem hohen LCP-Score beiträgt. Im folgenden Beispiel ist ersichtlich, dass wir uns nicht auf die Optimierung von TTFB oder Ladezeit konzentrieren müssen. Stattdessen können wir unsere ganze Energie in die Verbesserung der Ladeverzögerung und dann der Renderverzögerung stecken.

page speed example for LCP

Source: pagespeed.web.dev

Quelle: https://pagespeed.web.dev/ – Test der Websitenike.com (nur als Beispiel). Domain ist unscharf

Stellen Sie sicher, dass Ihre Website mobilfreundlich ist

Die Mobilfreundlichkeit ist seit 2018 zu einem entscheidenden Faktor geworden, als Google zu einem Mobile-First-Indexing-Ansatz wechselte. Das bedeutet, dass Google nun in erster Linie die mobile Version einer Website für das Ranking und die Indexierung verwendet und nicht mehr die Desktop-Version. In der Google Search Console können Sie Ihre Seiten testen, indem Sie im Tool zur URL-Überprüfung auf „Live-URL testen“ klicken und sehen, wie Googlebot-Mobile sie sieht.

Bilder komprimieren

Eine Bildoptimierung, die darauf abzielt, die Bilder ohne Qualitätsverlust zu komprimieren, trägt dazu bei, das Laden der Website zu beschleunigen, insbesondere wenn die Seiten viele grafische Inhalte enthalten. Online-Tools wie TinyPNG oder Squoosh können zur Komprimierung von Bildern verwendet werden. Es lohnt sich auch zu prüfen, ob moderne Bildformate wie WebP verwendet werden, da sie die Dateigröße erheblich reduzieren können.

CDN für internationale Websites verwenden

Der Einsatz eines CDN ist sinnvoll, wenn Ihre Website viele geografisch weit entfernte Regionen bedient. Ein CDN (Content Delivery Network) verteilt den Inhalt der Website auf Server, die sich näher bei den Nutzern befinden, und verringert so die Latenzzeit beim Laden. Sie können die Nutzung eines CDN überprüfen, indem Sie die HTTP-Anfrage-Header in den Entwicklertools des Browsers (Registerkarte „Netzwerk“) untersuchen, wo möglicherweise Verweise auf den CDN-Anbieter wie Cloudflare oder Akamai erscheinen. Es gibt auch Online-Tools zum Testen von CDN. Die CDN-Konfiguration erfolgt in der Regel über das Hosting-Panel oder das CMS. Caching verwenden Caching ermöglicht es Browsern und Proxy-Servern, Kopien von Ressourcen zu speichern, wodurch die Serverlast verringert und das Laden bei späteren Besuchen beschleunigt wird. Sie können die Korrektheit des Caching in den Entwicklertools des Browsers überprüfen – schauen Sie im Abschnitt Netzwerk auf die Header Cache-Control, Expires und ETag. Auch Google PageSpeed Insights gibt Empfehlungen für das Caching. Es ist wichtig, dass statische Ressourcen (Bilder, Skripte, Stile) die richtigen Caching-Einstellungen haben, und der Server sollte die entsprechenden Regeln konfiguriert haben (z. B. in der .htaccess- oder nginx-Konfiguration). Um das Caching zu überprüfen, können Sie Online-Dienste wie GiftOfSpeed nutzen.

Fazit

Ein technisches Audit einer Website ist kein einmaliger Vorgang, sondern ein fortlaufender Prozess, der regelmäßige Aufmerksamkeit auf die technischen Faktoren erfordert, die die Leistung und Sichtbarkeit der Website beeinflussen können. Da jede Website einzigartig ist, variieren die spezifischen Schwerpunkte und die Häufigkeit der Kontrollen. Diese Checkliste für ein technisches SEO-Audit wird Ihnen helfen, sicherzustellen, dass Sie nichts Wichtiges vergessen haben.

Artikel teilen
Darya Maksimava
Senor SEO Specialist, Evisions

Since 2018, Darya has worked as an SEO consultant, building data-driven strategies that combine technical SEO, on-page optimization, and link building. With experience in multiple international markets — Europe, the CIS region, and the U.S.— Darya understands how regional differences and channel synergy impact search visibility. Leveraging insights from PPC, web analytics, and broader digital marketing trends, Darya helps brands build strong, future-proof SEO foundations that deliver consistent, high-quality traffic and measurable results.

Evisions
Dieser Artikel wird Ihnen präsentiert von

Evisions

Evisions is an online marketing agency specializing in helping companies achieve their business and marketing goals. With over 10 years of experience in both B2B and B2C, it provides comprehensive services in SEO, PPC, UX, copywriting, email marketing, social media and other online tools. The agency's work is not limited to local projects; it helps companies expand internationally and ensures their successful entry into new markets.

Ähnliche Artikel
SEO hat sich geändert. Sind Sie bereit?
3 Lesezeit Minuten

SEO hat sich geändert. Sind Sie bereit?

Ihre Konkurrenten gewinnen bereits auf ChatGPT, Reddit und KI-Suchtools, während Sie noch Backlinks aufbauen und für Google optimieren. Jüngere Nutzer beginnen ihre Recherchen jetzt auf sozialen Plattformen und nicht mehr bei der traditionellen Suche. Wenn Ihre SEO-Strategie nicht über Google hinausgeht, verpassen Sie eine massive Verschiebung in der Art und Weise, wie Menschen Informationen finden.

Katarína Šimčíková Katarína Šimčíková
Freelance I Digital Marketing Specialist, Ecommerce Bridge EU
Googles Kern-Update vom Juni 2025: Was Website-Besitzer wissen müssen
4 Lesezeit Minuten

Googles Kern-Update vom Juni 2025: Was Website-Besitzer wissen müssen

Sie wachen auf, überprüfen Ihre Suchergebnisse und plötzlich stehen Sie auf Seite 3 statt auf Seite 1. Bevor Sie in Panik geraten und alles auf Ihrer Website ändern, sollten Sie die wichtigsten Google-Updates kennen – und wissen, warum sie nicht unbedingt eine schlechte Nachricht sind.

Katarína Šimčíková Katarína Šimčíková
Freelance I Digital Marketing Specialist, Ecommerce Bridge EU
Qualität gegen Quantität: Das Linkaufbau-Dilemma, das SEO-Experten spaltet
12 Lesezeit Minuten

Qualität gegen Quantität: Das Linkaufbau-Dilemma, das SEO-Experten spaltet

Während Google nach wie vor qualitativ hochwertige Backlinks belohnt, setzen KI-gesteuerte Suchmaschinen wie Bing auf Quantität, und die meisten Agenturen müssen sich zwischen zwei völlig unterschiedlichen Strategien entscheiden. Mit einer halben Milliarde wöchentlicher KI-Suchnutzer ist die Debatte um Qualität und Quantität beim Linkaufbau für Ihren SEO-Erfolg von entscheidender Bedeutung.

Katarína Rusňáková SEO Katarína Rusňáková SEO
CEO, ONLINE TORO