DTILE SEO Grundlagen Technisches SEO
SEO Grundlagen · Technisches SEO · 2026

Technisches SEO
die vollständige Anleitung
zur Technik-Optimierung

Technisches SEO ist das Fundament aller SEO-Maßnahmen. Ohne saubere technische Basis bleiben selbst die besten Inhalte unsichtbar. Crawling, Indexierung, Core Web Vitals, Schema Markup — alles erklärt mit 15-Punkte-Technik-Audit.

Crawling & Indexierung Core Web Vitals Schema Markup 15-Punkte-Audit
Engin Buldak erklärt technisches SEO – DTILE GmbH Hamburg
Was ist technisches SEO?

Technisches SEO — Definition und
Abgrenzung zu Onpage-SEO

Technisches SEO — Definition (DTILE) Technisches SEO umfasst alle Maßnahmen die sicherstellen, dass Suchmaschinen eine Website fehlerfrei crawlen, indexieren und verstehen können — als technische Grundlage für alle weiteren SEO-Aktivitäten. Ohne saubere technische Basis können weder gute Inhalte noch starke Backlinks ihre volle Wirkung entfalten. Entität: Technisches SEO · Attribut: Definition · Wert: Technische Crawlability und Indexierbarkeit

Die drei SEO-Säulen haben eine klare Hierarchie: Technisches SEO kommt zuerst. Wenn Googles Bots eine Website nicht korrekt crawlen können, wenn Seiten nicht indexiert werden oder wenn die Ladezeit auf Mobile zu lang ist — dann nützen die besten Inhalte und Backlinks nichts. Google kann und wird eine technisch fehlerhafte Website nicht gut ranken.

In der Praxis ist technisches SEO oft der größte ungenutzter Hebel: Laut aktuellen Daten haben nur 54,6% aller Websites die Core Web Vitals erfüllt, 23% fehlt die XML-Sitemap in der robots.txt und 50% haben doppelte Title Tags. Diese Fehler kosten täglich Rankings und Traffic — und lassen sich oft schnell beheben.

💡 40-Wort-Antwort: Technisches SEO stellt sicher dass Google eine Website korrekt crawlt, indexiert und versteht. Es umfasst Crawlability, Indexierung, Core Web Vitals, HTTPS, XML-Sitemap, robots.txt, Schema Markup, Mobile-Optimierung und URL-Struktur — die Basis für alle anderen SEO-Maßnahmen.

54,6 %

der Websites bestehen die Core Web Vitals — fast jede zweite Website scheitert

23 %

der Websites haben keine Sitemap in robots.txt verlinkt

50 %

haben doppelte Title Tags — ein kritischer technischer Fehler

7 %

weniger Conversions pro zusätzlicher Ladezeit-Sekunde auf Mobile

Crawling — wie Google deine Website liest

Was ist Crawling und wie stelle ich sicher
dass Google alles richtig liest?

40-Wort-Antwort: Crawling ist der Prozess bei dem Googles Bots (Googlebot) eine Website besuchen, Links folgen und den HTML-Code jeder Seite lesen. Eine korrekte robots.txt und eine vollständige XML-Sitemap steuern welche Seiten gecrawlt werden und in welcher Priorität.

robots.txt — Googlebot steuern

Die robots.txt-Datei liegt im Root-Verzeichnis einer Website (domain.de/robots.txt) und gibt Suchmaschinen Anweisungen welche Bereiche gecrawlt werden sollen und welche nicht.

User-agent: * Disallow: /wp-admin/ Disallow: /checkout/ Allow: / Sitemap: https://dtile-marketing.de/sitemap.xml

⚠️ Nie versehentlich wichtige Seiten per robots.txt sperren — das entfernt sie sofort aus den Rankings.

XML-Sitemap — Alle wichtigen Seiten melden

Die XML-Sitemap ist eine Liste aller URLs die Google indexieren soll — mit Änderungsdatum und Priorität. Sie hilft Google alle wichtigen Seiten schnell zu finden, besonders neue oder tief verlinkte Seiten.

In robots.txt verlinken (Sitemap-Zeile)
In Google Search Console einreichen
Keine noindex-Seiten in der Sitemap
Keine 301/302-Redirects in der Sitemap
Automatisch aktualisieren bei neuen Seiten

ℹ️ WordPress mit Rank Math oder Yoast erstellt automatisch eine XML-Sitemap. DTILE-Tipp: Sitemap-URL ist meist: domain.de/sitemap_index.xml

⚠️ Häufiger kritischer Fehler: Websites die im Entwicklungsmodus erstellt wurden haben oft „Disallow: /“ in der robots.txt — was ALLE Seiten für Googlebot sperrt. Nach dem Live-Gang vergessen diesen Eintrag zu entfernen. Google Search Console zeigt diesen Fehler unter „Crawl-Fehler“.

Indexierung — von gecrawlt zu sichtbar

Wie funktioniert Indexierung und was
verhindert dass Seiten indexiert werden?

40-Wort-Antwort: Indexierung ist der Schritt nach dem Crawling: Google nimmt die gecrawlte Seite in seine Datenbank auf. Nur indexierte Seiten können ranken. Häufige Gründe für fehlende Indexierung: noindex-Tag, Duplicate Content, dünner Inhalt, Canonical-Fehler oder zu langsames Crawling.

✅ Indexierung fördern

URL in Google Search Console manuell einreichen
Neue Seite intern von mehreren Seiten verlinken
Seite in XML-Sitemap aufnehmen
Kein noindex-Meta-Tag auf produktiven Seiten
Mindestens 300 Wörter einzigartiger Content

❌ Häufige Indexierungs-Blocker

noindex-Tag versehentlich auf produktiven Seiten
Duplicate Content (Google wählt selbst eine Version)
Canonical auf falsche URL zeigend
Seite von robots.txt geblockt
Zu dünner Content (unter 200 Wörter)

Canonical Tags — Duplicate Content lösen

Canonical Tags sagen Google welche URL die „offizielle“ Version einer Seite ist. Sie lösen Duplicate-Content-Probleme ohne Seiten zu löschen oder weiterzuleiten.

<link rel=„canonical“ href=„https://dtile-marketing.de/onpage-seo/“ />

Häufige Canonical-Anwendungsfälle: HTTP vs. HTTPS · www vs. non-www · Filterseiten in Onlineshops (/shop?farbe=blau) · URL-Parameter · Druck-Versionen von Seiten

Core Web Vitals — Googles Ladezeit-Ranking-Faktor

Was sind Core Web Vitals und warum sind
sie 2026 entscheidend für Rankings?

40-Wort-Antwort: Core Web Vitals sind Googles drei offiziellen Ladezeit-Metriken seit 2021: LCP (Ladezeit des größten Elements), INP (Reaktionszeit bei Interaktion) und CLS (visuelle Stabilität). Alle drei müssen im grünen Bereich sein um den vollen Ranking-Vorteil zu erhalten.

🎯
LCP
Largest Contentful Paint
Gut: ≤2,5s⚠️ ≤4sSchlecht: 4s+

Misst wann der größte sichtbare Inhalt (Bild oder Text-Block) geladen ist. Hauptursachen für schlechtes LCP: nicht optimierte Bilder, Render-blocking CSS/JS, langsamer Server.

INP
Interaction to Next Paint
Gut: ≤200ms⚠️ ≤500ms500ms+

Ablösung von FID seit März 2024. Misst die Reaktionszeit der Seite auf alle Nutzer-Interaktionen (Klicks, Taps, Tastaturbefehle). Hauptursache: zu viel JavaScript im Main Thread.

📐
CLS
Cumulative Layout Shift
Gut: ≤0,1⚠️ ≤0,250,25+

Misst visuelle Stabilität: Verschiebt sich der Seiteninhalt während des Ladens? Hauptursachen: Bilder ohne Dimensionsangaben, Werbebanner die sich einschieben, Fonts die nach dem Laden Layout verschieben.

Die wichtigsten LCP-Verbesserungsmaßnahmen

1.Hero-Bild im WebP-Format, komprimiert, mit width/height-Attributen
2.Render-blocking CSS per defer/async laden
3.Hosting mit gutem TTFB (Time to First Byte) — unter 800ms
4.CDN einsetzen für statische Ressourcen
5.Browser-Caching aktivieren (Cache-Control Header)
6.Preload für LCP-Bild oder kritische Fonts
7.WordPress: Caching-Plugin (WP Rocket, LiteSpeed Cache)
8.Lazy Loading für Bilder below the fold

ℹ️ CWV und GEO: KI-Crawler wie der von Perplexity oder Googles AI-Systeme bevorzugen schnell ladende, technisch saubere Websites. Langsame Seiten werden seltener gecrawlt und seltener in KI-Antworten zitiert. Gutes technisches SEO ist 2026 gleichzeitig gutes GEO. → GEO Guide

Alle Bereiche des technischen SEO

Was gehört alles zu technischem SEO?
Die vollständige Übersicht

Klicke auf jeden Bereich für detaillierte Erklärung und konkrete Umsetzungshinweise:

HTTPS ist seit 2014 ein offizieller Google-Ranking-Faktor. Noch wichtiger: Chrome markiert alle HTTP-Seiten als „Nicht sicher“ — ein massiver Vertrauensverlust für Besucher und ein Signal das Google Conversions kostet. Kein modernes Unternehmen sollte noch ohne HTTPS operieren.

Umstieg von HTTP auf HTTPS: SSL-Zertifikat installieren (Let’s Encrypt kostenlos via Hosting) → alle HTTP-URLs per 301 auf HTTPS weiterleiten → alle internen Links auf HTTPS aktualisieren → Canonical Tags auf HTTPS aktualisieren → neue Sitemap und robots.txt mit HTTPS-URLs.

✅ Prüfen: Hängt rechts oben in Chrome ein Schloss-Icon ohne „Nicht sicher“-Warnung? Dann ist HTTPS korrekt konfiguriert.

Seit 2019 verwendet Google Mobile-First Indexierung — das bedeutet Googles Crawler besucht primär die Mobile-Version einer Website und nicht die Desktop-Version. Rankings basieren auf dem mobilen Erlebnis. Eine Website die auf Desktop gut aussieht aber auf Mobile schlecht funktioniert, rankt schlecht.

Mobile-Optimierung checken: Google Search Console → Mobile Usability Report. Alternativ: Google’s Mobile-Friendly Test (tool direkt bei Google). Wichtigste Punkte: Responsive Design, Text ohne Zoom lesbar, Buttons groß genug (min. 44x44px), kein horizontales Scrollen.

✅ 70%+ aller Suchanfragen kommen von Smartphones. Mobile ist nicht optional — es ist der primäre Kanal.

Eine logische Website-Struktur hilft Google die Beziehung zwischen Seiten zu verstehen und das Crawl-Budget effizient zu nutzen. Flache Strukturen (max. 3 Klicks bis zu jeder Seite) sind tiefen Hierarchien vorzuziehen.

Ideale URL-Architektur für DTILE:

dtile-marketing.de/ ← Startseite dtile-marketing.de/local-seo/ ← Hub-Seite dtile-marketing.de/local-seo-hamburg/ ← Spoke dtile-marketing.de/seo-fuer-aerzte/ ← Spoke dtile-marketing.de/was-ist-seo/ ← SEO-Grundlagen Hub

Vermeide: Zu tiefe Pfade (domain.de/blog/kategorie/unterkategorie/artikel), Session-IDs in URLs, Großbuchstaben in URLs, doppelte Slashes.

301 (permanente Weiterleitung): Überträgt ~90% des PageRank auf die Ziel-URL. Verwende 301 wenn eine Seite dauerhaft an eine neue URL umgezogen ist oder wenn Duplikate zusammengeführt werden.

302 (temporäre Weiterleitung): Überträgt keinen oder kaum PageRank. Nur für temporäre Weiterleitungen verwenden — z.B. A/B-Tests. Falsch gesetzte 302 statt 301 vernichten aufgebautes Ranking-Kapital.

Redirect-Chains vermeiden: A → B → C kostet PageRank. Wenn A auf B weitergeleitet wurde und B später auf C, direkt A auf C weiterleiten. Screaming Frog findet alle Redirect-Chains automatisch.

⚠️ Häufigster Fehler: Gelöschte Seiten ohne 301-Weiterleitung ergeben 404-Fehler die alle aufgebauten Backlinks vernichten.

Schema Markup (strukturierte Daten im JSON-LD Format) erklärt Google und KI-Systemen was auf einer Seite steht — über den reinen Text hinaus. Dies ermöglicht Rich Snippets in den Suchergebnissen und erhöht die Wahrscheinlichkeit in KI-Antworten zitiert zu werden.

Wichtigste Schema-Typen für DTILE: LocalBusiness + AdvertisingAgency (Hauptseite) · FAQPage (alle Guide-Seiten) · Article + Author (alle Blog-Artikel) · BreadcrumbList (Navigation) · Service (Service-Seiten) · Review/AggregateRating (Bewertungsseiten).

<script type=„application/ld+json“> { „@context“: „https://schema.org“, „@type“: „FAQPage“, „mainEntity“: [{ „@type“: „Question“, „name“: „Was ist technisches SEO?“, „acceptedAnswer“: { „@type“: „Answer“, „text“: „Technisches SEO stellt sicher…“ } }] } </script>
✅ Google Rich Results Test (search.google.com/test/rich-results) prüft Schema Markup kostenlos auf Fehler. → Schema Markup für GEO

Hreflang-Tags teilen Google mit welche Seite für welche Sprache/Region gedacht ist. Ohne Hreflang kann Google die falsche Sprachversion in einem anderen Land anzeigen.

<link rel=„alternate“ hreflang=„de“ href=„https://dtile-marketing.de/“ /> <link rel=„alternate“ hreflang=„de-AT“ href=„https://dtile-marketing.de/at/“ /> <link rel=„alternate“ hreflang=„x-default“ href=„https://dtile-marketing.de/“ />

Für rein deutsche Websites (dtile-marketing.de) ist Hreflang nicht notwendig. Relevant sobald Schweiz (de-CH), Österreich (de-AT) oder englischsprachige Versionen hinzukommen.

Schema Markup für SEO und GEO

Welche Schema-Markup-Typen sind 2026
für Rankings und KI-Sichtbarkeit wichtig?

40-Wort-Antwort: Schema Markup ist 2026 doppelt wichtig: Es ermöglicht Rich Snippets in Google (höhere CTR) und macht Inhalte für KI-Systeme wie ChatGPT und Gemini leichter verständlich und zitierfähig. Besonders FAQPage, LocalBusiness und Article-Schema sind Pflicht.

Schema-TypAnwendungsfallRich SnippetGEO-WertPriorität
LocalBusinessStartseite, Agentur-SeiteKnowledge Panel, MapsSehr hoch🔥 Prio 1
FAQPageAlle Guide-Seiten mit FAQFAQ-Akkordeon in SERPSehr hoch🔥 Prio 1
Article + AuthorBlog-Artikel, GuidesDatum, Autor in SnippetHoch⬆ Prio 2
BreadcrumbListAlle UnterseitenBreadcrumbs in URLMittel↑ Prio 2
ServiceDienstleistungs-SeitenService-Info in SnippetHoch⬆ Prio 2
HowToAnleitungen / GuidesSchritt-für-Schritt in SERPSehr hoch⬆ Prio 2
Review / RatingProdukte, DienstleistungenSternebewertungenMittel→ Prio 3
ProductE-Commerce ProduktseitenPreis, VerfügbarkeitMittel→ E-Commerce
Interaktives Technik-Audit-Tool

15-Punkte technisches SEO-Audit —
wie gut ist deine technische Basis?

Hake jeden Punkt ab der auf deine Website zutrifft. Kostenlos, kein Login, sofortige Bewertung.

🔍

Technisches SEO-Audit 2026

15 Punkte · Kostenlos · Kein Login · Sofortauswertung

0 von 15 Punkten0 %

Hake ab was bereits umgesetzt ist.

Basis-Pflichten (Prio 1)

HTTPS aktiv — kein „Nicht sicher“ im Browser Prio 1
Website auf Mobile korrekt responsive (kein horizontales Scrollen) Prio 1
XML-Sitemap existiert und ist in Google Search Console eingereicht Prio 1
robots.txt vorhanden, keine wichtigen Seiten geblockt, Sitemap verlinkt Prio 1
Google Search Console eingerichtet, keine kritischen Crawl-Fehler Prio 1

Core Web Vitals (Prio 1)

LCP unter 2,5 Sekunden (Google PageSpeed Insights Mobile) Prio 1
CLS unter 0,1 — keine springenden Elemente beim Laden Prio 1
INP unter 200ms (Reaktionszeit bei Nutzer-Interaktion) Prio 2

Indexierung & Duplikate (Prio 2)

Kein noindex-Tag auf produktiven Seiten die ranken sollen Prio 1
Canonical Tags auf allen wichtigen Seiten korrekt gesetzt Prio 2
Keine 301-Redirect-Chains (A→B→C) — alle direkt auf Ziel Prio 2
Keine 404-Fehler auf wichtigen Seiten die Backlinks haben Prio 2

Schema & Erweitert (Prio 3)

LocalBusiness oder Organization Schema auf der Startseite Prio 3
FAQPage Schema auf allen Guide-Seiten mit FAQ-Bereich Prio 3
Bilder haben width- und height-Attribute (CLS-Prävention) Prio 3
Technische SEO-Tools

Welche Tools brauchst du für
technisches SEO?

🆓 Google Search Console

Googles eigenes kostenloses Tool. Zeigt: Crawl-Fehler, Indexierungsprobleme, Core Web Vitals, Mobile Usability, manuelle Maßnahmen, Sicherheitsprobleme. Pflicht für jede Website.

Kostenlos

🆓 Google PageSpeed Insights

Misst Core Web Vitals auf Mobile und Desktop mit Field Data (echte Nutzerdaten) und Lab Data. Zeigt konkrete Verbesserungsvorschläge mit geschätztem Zeiteinsparungspotenzial.

Kostenlos

🆓 Google Rich Results Test

Prüft ob Schema Markup korrekt implementiert ist und welche Rich Snippets eine Seite bekommen könnte. search.google.com/test/rich-results

Kostenlos

🔍 Screaming Frog (Freemium)

Desktop-Crawler der eine Website wie der Googlebot analysiert. Findet: Broken Links, Redirect-Chains, doppelte Title/Meta, fehlende Alt-Texte, dünnen Content. Kostenlos bis 500 URLs.

Kostenlos (500 URLs) · 259$/Jahr (unbegrenzt)

📊 Ahrefs Site Audit

Cloud-basierter SEO-Crawler mit detaillierten technischen SEO-Berichten. Findet über 100 technische SEO-Issues automatisch, priorisiert sie nach Impact und gibt konkrete Fix-Anweisungen.

Ab 129$/Monat (DTILE nutzt Ahrefs)

🔒 SSL Server Test (SSL Labs)

Prüft die HTTPS-Konfiguration vollständig — zeigt ob das SSL-Zertifikat korrekt konfiguriert ist, welche TLS-Version verwendet wird und ob alle Mixed-Content-Probleme behoben sind.

Kostenlos — ssllabs.com/ssltest/
FAQ

Häufige Fragen zu technischem SEO

Technisches SEO stellt sicher dass Google eine Website korrekt crawlen, indexieren und verstehen kann. Es ist die technische Grundlage aller SEO-Maßnahmen — ohne saubere Basis können weder gute Inhalte noch starke Backlinks ihre volle Wirkung entfalten.

Eine Analogie: Technisches SEO ist wie die Infrastruktur eines Gebäudes — Fundament, Leitungen, Statik. Onpage-SEO ist das Interieur, Offpage-SEO der Ruf des Gebäudes. Ohne solides Fundament bricht alles andere zusammen.

Core Web Vitals sind Googles drei offiziellen Ladezeit-Ranking-Metriken: LCP (Ladezeit des größten Elements, Ziel: unter 2,5 Sek.), INP (Reaktionszeit, Ziel: unter 200ms) und CLS (visuelle Stabilität, Ziel: unter 0,1). Seit 2021 offizieller Ranking-Faktor.

Messen mit: Google PageSpeed Insights (kostenlos), Google Search Console → Core Web Vitals Report, Chrome DevTools → Lighthouse. Alle drei müssen im grünen Bereich sein.

Crawling = Googlebot besucht die Seite und liest den HTML-Code. Indexierung = Die gecrawlte Seite wird in Googles Datenbank aufgenommen. Nur indexierte Seiten erscheinen in Suchergebnissen. Gecrawlt ≠ indexiert: Google kann Seiten crawlen aber ablehnen sie zu indexieren wenn sie Qualitätsprobleme haben.
Canonical Tags sind nötig wenn mehrere URLs denselben oder sehr ähnlichen Inhalt anzeigen: HTTP vs. HTTPS, www vs. non-www, URL-Parameter bei E-Commerce-Filtern, Druckversionen, sortierte/gefilterte Seiten. Der Canonical Tag zeigt Google welche URL die „offizielle“ Quelle ist.
Eine XML-Sitemap listet alle URLs auf die Google indexieren soll — mit Änderungsdatum und Priorität. Sie hilft Google alle wichtigen Seiten schnell zu finden und erleichtert die Indexierung neuer oder tief verlinkter Seiten. WordPress mit Rank Math/Yoast erstellt sie automatisch.
Mobile-First Indexierung bedeutet dass Google primär die Mobile-Version einer Website crawlt und bewertet — nicht die Desktop-Version. Seit 2019 vollständig umgesetzt. Rankings basieren auf dem mobilen Erlebnis: Responsive Design und Mobile-Ladezeit sind damit primäre Ranking-Faktoren.
Kostenloser Technik-Check: Google Search Console (Crawl-Fehler, Core Web Vitals), Google PageSpeed Insights (Ladezeit), Screaming Frog Free (bis 500 URLs, Broken Links, Duplicate Content), Google Rich Results Test (Schema Markup). DTILE analysiert kostenlos unter check.dtile-marketing.de.

→ Kostenlose DTILE Technik-Analyse starten

Schema Markup (strukturierte Daten in JSON-LD) erklärt Google und KI-Systemen was auf einer Seite steht — über den reinen Text hinaus. 2026 besonders wichtig: Schema Markup ist die Brücke zwischen klassischem SEO und GEO — es macht Inhalte für KI-Systeme wie ChatGPT und Gemini zitierfähig.

→ GEO Guide — KI-Sichtbarkeit durch Schema Markup

Technisches SEO · SEO Agentur Hamburg · DTILE Google Partner

Technisches SEO vollständig gelöst —
DTILE übernimmt die Basis für dich

Von Core Web Vitals bis Schema Markup — DTILE implementiert die technische SEO-Basis vollständig. Ab 500 €/Monat, monatlich kündbar, kostenlose Erstanalyse.

✓ Google Partner Hamburg✓ Stormsweg 5A, 22085 Hamburg✓ Ab 500 €/Mo✓ Monatlich kündbar
Engin Buldak – Technisches SEO Experte DTILE GmbH Hamburg

Engin Buldak

Gründer & SEO Experte · DTILE GmbH Hamburg

Engin ist Gründer der DTILE GmbH (Stormsweg 5A, 22085 Hamburg) und spezialisiert auf Local SEO, technisches SEO und GEO für KMUs. Als Google Partner implementiert er technische SEO-Grundlagen die nachhaltige Rankings und KI-Sichtbarkeit ermöglichen.