Zum Hauptinhalt springen
EinfachAleks
Archiv Impressum
Archiv Impressum RSS-Feed
Profilbild von EinfachAleks

EinfachAleks

Web-Development / Technik / Games

Kategorien

gaming
7
news
13
software
17
diy
12
security
10
support
4

Letzte Beiträge

  • AIO, GEO, LLMO, GAIO & SEO — Das Glossar
  • AIO in Der Praxis — Artificial Intelligence Optimization Schritt Für Schritt
  • GAIO in Der Praxis — Generative AI Optimization Als Marketing-Begriff
  • GEO in Der Praxis — Generative Engine Optimization Für Perplexity & Co.
  • LLMO in Der Praxis — Large Language Model Optimization Für ChatGPT, Claude & Gemini
  • SEO in Der Praxis — Was 2026 Wirklich Zählt
  • Deff CONN Präsentiert Ein Amazon-Kindle Hack

SEO in Der Praxis — Was 2026 Wirklich Zählt

2026-05-11
software
6.4k Wörter
5 min Lesezeit
von EinfachAleks

SEO ist 2026 weder neu noch tot. Was sich ändert ist eher die Verteilung: die klassischen SERP-Klicks nehmen ab, weil Google AI Overviews, Bing Copilot Search und Perplexity die Antwort direkt liefern. Aber die Signale dahinter — Crawlbarkeit, Indexierbarkeit, strukturierte Daten, Autorität — sind genau die Basis auf der auch GEO und LLMO aufbauen. Wer SEO ordentlich macht, hat 80% der Arbeit für den ganzen AI-Kram schon hinter sich.

Der Post ist der erste in der Reihe (siehe Glossar) und beschreibt das Pflichtprogramm — die Sachen die ihr auf jeder Seite eh angehen solltet, bevor ihr an AI-Optimierung denkt.

Drei Säulen

Klassisch teilt sich SEO in technisch, on-page und off-page. Bei einem kleinen Blog ist die Reihenfolge meiner Meinung nach:

  1. Technisch sauber sein. Wenn der Crawler die Seite nicht versteht, hilft auch der schönste Content nicht.
  2. On-Page klar und ehrlich. Title, Description, Heading-Struktur — das, was der Crawler liest.
  3. Off-Page wachsen lassen. Backlinks und E-E-A-T-Signale. Dauert, lässt sich nicht erzwingen.

Klingt simpel und ist es eigentlich auch. Interessant wird’s, wenn man sich anschaut wie das auf einer konkreten Seite aussieht.

Technisches Pflichtprogramm

Canonical-URL auf jeder Seite

Die Google Canonical-Doku ist seit Jahren eindeutig: jede Seite die unter verschiedenen URL-Varianten erreichbar ist (mit/ohne www, mit/ohne index.html, mit/ohne Trailing-Slash), braucht ein <link rel="canonical"> das die kanonische Form benennt. Ohne canonical entscheidet der Crawler selbst — und das ist mal so mal so.

Bei mir auf dem Blog war canonical auf KEINER Seite gesetzt, bis ich es nachgezogen habe. Auf Home, Posts, Kategorien, Archiv und den Generic-Pages (Impressum, Datenschutz, About). Beim Hexo macht das ein eigener Helper, der index.html strippt und das Trailing-Slash konsistent setzt.

sitemap.xml ist Crawler-Pflicht

Eine sitemap.xml ist nicht für die User, die ist eine Karte für die Crawler. Sie sollte:

  • Nur kanonische URLs enthalten (keine .html-Suffixe, keine Asset-Files wie manifest.json)
  • Kein archiviertes oder gelöschtes Material zeigen
  • Korrekte <lastmod>-Daten haben

Bei mir hatte die initiale sitemap drei .html-Suffix-URLs (Impressum, Datenschutz, 404) und sogar einen PWA-Manifest-Eintrag drin. Das ist auch der typische Default vieler Generatoren — also schaut auch bei euch lieber zweimal hin.

robots.txt — bewusst, nicht zufällig

User-agent: * mit leerem Disallow: ist die häufigste robots.txt der Welt. Funktioniert grundsätzlich, sagt aber nichts über die wachsende Liste der AI-Crawler aus. Wer 2026 keine explizite Policy für GPTBot, ClaudeBot, PerplexityBot, GoogleOther und CCBot hat, überlässt die Entscheidung dem Default des jeweiligen Anbieters.

Mein Vorschlag: jeden bekannten AI-Crawler einzeln nennen und bewusst Allow oder Disallow setzen. Auch wenn das Ergebnis Allow ist — die Entscheidung ist dann dokumentiert. Mehr dazu im AIO-Post.

Core Web Vitals — der Performance-Hammer

Google priorisiert seit 2021 die drei Core Web Vitals:

  • LCP (Largest Contentful Paint): < 2,5 s — wann das größte sichtbare Element fertig ist
  • INP (Interaction to Next Paint): < 200 ms — wie schnell die Seite auf Eingaben reagiert
  • CLS (Cumulative Layout Shift): < 0,1 — wie viel sich der Inhalt nach dem Laden noch verschiebt

Bei mir war auf der Startseite alles grün — bis auf CLS = 1,0. Das ist das Hundertfache vom Zielwert. Schuldig war das Sidebar-Avatar-Bild ohne width/height-Attribute, das beim asynchronen Laden ungefähr 300 px Reflow ausgelöst hat. Lösung: ein Hexo-Helper der die JPG/PNG-Dimensionen direkt aus der Datei liest und als Attribute setzt. Seitdem grün.

Strukturierte Daten (JSON-LD)

Die Google Search Gallery listet rund zwei Dutzend Schema.org-Typen die in Rich Results landen können. Für einen klassischen Blog reichen vier:

  • WebSite auf der Homepage (mit publisher → Person)
  • BlogPosting auf jedem Post (mit headline, datePublished, dateModified, author, image)
  • Person als zentraler Knoten (Author-Entität mit sameAs-Profilen)
  • BreadcrumbList auf Posts und Listing-Pages

Ich pack das in einen einzigen <script type="application/ld+json"> pro Seite, in einem @graph-Block. Alle Schema-Knoten referenzieren die gleiche Person-Entität via @id — damit ist der Author für die Crawler eindeutig.

On-Page — Title, Description, Headings

<title> und <meta description>

Beide werden in den SERP-Snippets gezeigt. Title unter 60 Zeichen, Description 120–160 Zeichen. Beide pro Seite EINDEUTIG — keine generischen config.description-Fallbacks für Home/Category/Archive. Beide auf Wahrheit statt auf Keyword-Stuffing optimieren. Wer hier lügt, wird vom Snippet-Generator von Google ohnehin überschrieben.

Heading-Hierarchie

Eine <h1> pro Seite. <h2> für Hauptsektionen. <h3> für Unter-Abschnitte. Wer <h1> direkt nach <h3> springt (ohne <h2> dazwischen), macht es Screenreadern und manchen Crawlern schwerer als nötig.

Interne Verlinkung

Crawler folgen Links. Eine Seite ohne interne Links ist eine Inselgruppe. Konkret:

  • Top-Navigation mit den wichtigsten Hub-Seiten (Archiv, Impressum, About)
  • Kategorie-Index als Hub für jede Kategorie
  • In-Body-Links zwischen verwandten Posts. Dieser Post linkt zum Glossar und zu den anderen Pillar-Posts.

Off-Page — E-E-A-T und Backlinks

Das E-E-A-T-Konzept (Experience, Expertise, Authoritativeness, Trustworthiness) hat sich seit 2022 in der Google-Welt etabliert. Praktische Signale:

  • About-Seite mit echter Bio statt Stub
  • Autor-Byline auf jedem Post (Name, Veröffentlichungs- und Update-Datum)
  • Person-JSON-LD mit sameAs-Links zu GitHub, LinkedIn etc.
  • Impressum + Datenschutz im Footer und unter eigenen URLs

Backlinks selbst sind organisch zu erwerben — Gastbeiträge, Erwähnungen in Forum-Threads, Verweise aus Kollegen-Blogs. Backlinks kaufen ist von Google explizit als Manipulation klassifiziert und wird abgestraft. Also Finger weg.

Was 2026 nicht mehr funktioniert

  • Keyword-Stuffing — wird seit über zehn Jahren abgestraft
  • Cloaking (verschiedene Inhalte für Crawler und User) — manueller Strafraum
  • Doorway-Pages (dünner Content nur für Long-Tail-Keywords)
  • AI-Generated Content ohne Editor — die Helpful Content Guidance zielt direkt auf “scaled content abuse” — also massenhaft generierte Texte ohne nachvollziehbaren Autor

Tooling

  • Google Search Console — Pflicht. Zeigt Indexierungsfehler, Coverage, Top-Queries, manuelle Maßnahmen.
  • Bing Webmaster Tools — gleiche Idee für Bing. Wer Bing ignoriert, ignoriert auch ChatGPT-Search (das auf dem Bing-Index aufbaut).
  • PageSpeed Insights — Core Web Vitals, Lab und Field.
  • Schema.org Validator — JSON-LD-Korrektheit.
  • Rich Results Test — was als Rich Result erscheinen kann.

Zusammengefasst

SEO 2026 ist kein Geheimnis und kein Krieg gegen einen Algorithmus. Es sind ungefähr 15 technische und inhaltliche Standardchecks, die alle dokumentiert sind. Wer die diszipliniert durchgeht, hat eine Seite die

  • maschinenlesbar ist
  • von Crawlern eindeutig identifiziert wird
  • als kanonische Quelle gilt
  • ihre Autorität über Konsistenz aufbaut

Und genau diese Eigenschaften sind die Grundlage für AIO, GEO und LLMO — die Disziplinen die mit den AI-Antwort-Engines arbeiten. Wer SEO als “alten Kram” abtut, baut auf Sand.

Weiterführend

  • SEO-Glossar dieser Reihe
  • Google Search Central — alle Docs
  • web.dev/learn/seo
  • Schema.org Vocabulary

LLMO in Der Praxis — Large Language Model Optimization Für ChatGPT, Claude & Gemini

Deff CONN Präsentiert Ein Amazon-Kindle Hack

© 2026 EinfachAleks  /  Impressum  /  Datenschutz