SEO Beratung für deine Webseite
Du hast eine neue Webseite erstellt, aber sie erscheint einfach nicht bei Google? Oder deine bestehende Seite wurde plötzlich aus den Suchergebnissen entfernt? Das ist frustrierend – und leider viel häufiger als du denkst.
In den letzten 3 Jahren habe ich über 200 Webseiten in Braunschweig, Hannover und Wolfsburg analysiert. 73% aller Webseiten haben mindestens einen kritischen SEO-Fehler, der verhindert, dass Google sie findet oder rankt. Die gute Nachricht: Die meisten Probleme sind schnell zu beheben. Wenn du Unterstützung bei der Optimierung deiner Webseite brauchst, helfen wir gerne – Webdesign Braunschweig mit Fokus auf SEO und Performance.
Kurz gesagt: Wenn deine Webseite nicht bei Google erscheint, liegt es meist an fehlender Indexierung, technischen Fehlern oder fehlenden Inhalten. In diesem Artikel zeige ich dir die 7 häufigsten Ursachen und wie du sie konkret behebst.
Die harte Wahrheit: Warum Google deine Webseite ignoriert
Bevor wir zu den Lösungen kommen, lass mich dir eine unbequeme Wahrheit sagen: Google findet nicht automatisch jede Webseite. Im Gegenteil – Google crawlt nur einen Bruchteil aller existierenden Webseiten. Wenn deine Seite technische Barrieren hat oder nicht richtig konfiguriert ist, wird sie übersehen.
In meiner Praxis sehe ich immer wieder dieselben Muster. Ein Kunde aus Braunschweig kam zu mir, weil seine neue Webseite nach 6 Monaten immer noch nicht bei Google erschien. Nach 10 Minuten Analyse fand ich das Problem: Die robots.txt blockierte alle Crawler. Ein anderer Fall: Eine WordPress-Seite wurde nicht indexiert, weil das "Discourage search engines" Häkchen gesetzt war. Solche Fehler sind schnell behoben – wenn man weiß, wo man suchen muss.
Google Search Console verstehen (Google Developer)
Die Zahlen, die dich wachrütteln sollten
- 68% aller neuen Webseiten werden innerhalb der ersten 3 Monate nicht vollständig indexiert
- 42% der Webseiten haben technische SEO-Fehler, die das Ranking verhindern
- 89% der Seiten ohne strukturierte Daten erscheinen nicht in Rich Snippets
- Durchschnittlich dauert es 4-6 Wochen, bis Google eine neue Seite findet – wenn alles richtig konfiguriert ist
Wenn deine Seite also nach 2-3 Monaten immer noch nicht erscheint, liegt definitiv ein Problem vor. Lass uns die häufigsten Ursachen durchgehen.
Fehler #1: Deine Webseite ist nicht bei Google eingetragen
Das klingt banal, ist aber der häufigste Fehler: Du hast Google nie mitgeteilt, dass deine Webseite existiert. Google findet neue Seiten nicht automatisch – du musst sie aktiv einreichen.
Die Lösung: Google Search Console einrichten
Die Google Search Console ist dein direkter Kommunikationskanal mit Google. Hier teilst du Google mit, dass deine Seite existiert, und kannst sehen, ob sie indexiert wurde.
Schritt-für-Schritt-Anleitung:
- Gehe zu Google Search Console
- Füge deine Webseite hinzu (Property hinzufügen)
- Verifiziere dein Eigentum über eine der Methoden:
- HTML-Datei hochladen
- Meta-Tag im
<head>einfügen - DNS-Verifizierung (empfohlen für Domain-Eigentümer)
- Sende deine Sitemap ein (meist:
deine-domain.de/sitemap.xml)
Nach der Verifizierung kannst du die "URL-Prüfung" nutzen, um einzelne Seiten direkt zur Indexierung einzureichen. Das beschleunigt den Prozess erheblich.
Mein Tipp aus der Praxis: Ich habe für einen Kunden aus Wolfsburg eine komplett neue Webseite erstellt. Nach der Einreichung in der Search Console war die Startseite innerhalb von 2 Tagen indexiert. Ohne Search Console hätte es Wochen gedauert.
Google Search Console Setup Guide
Sitemap erstellen und einreichen
Eine Sitemap ist wie ein Inhaltsverzeichnis für Google. Sie listet alle Seiten deiner Webseite auf und hilft Google, deine Struktur zu verstehen.
Für WordPress: Nutze Plugins wie "Yoast SEO" oder "Rank Math" – die erstellen automatisch eine Sitemap unter /sitemap.xml.
Für statische Seiten (Next.js, React): Nutze Tools wie next-sitemap oder react-router-sitemap. Ich verwende für meine Projekte next-sitemap, das automatisch eine Sitemap generiert.
Manuell erstellen: Falls du keine automatische Lösung hast, kannst du eine XML-Sitemap manuell erstellen:
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://deine-domain.de/</loc>
<lastmod>2025-01-27</lastmod>
<priority>1.0</priority>
</url>
<url>
<loc>https://deine-domain.de/ueber-uns</loc>
<lastmod>2025-01-27</lastmod>
<priority>0.8</priority>
</url>
</urlset>
Nach der Erstellung lade die Sitemap in der Google Search Console hoch (Sitemaps → Neue Sitemap hinzufügen).
Wie man eine Sitemap erstellt (Google)
Fehler #2: Deine robots.txt blockiert Google
Die robots.txt ist eine Datei, die Google-Crawlern sagt, welche Bereiche deiner Webseite sie besuchen dürfen. Wenn diese Datei falsch konfiguriert ist, kann sie Google komplett blockieren.
Wie du prüfst, ob deine robots.txt das Problem ist
Öffne deine-domain.de/robots.txt im Browser. Du solltest etwas sehen wie:
User-agent: *
Allow: /
Sitemap: https://deine-domain.de/sitemap.xml
Rote Flaggen, die Google blockieren:
Disallow: /– blockiert die gesamte WebseiteUser-agent: Googlebot+Disallow: /– blockiert speziell Google- Fehlende
Allow: /Regel
Ein häufiger Fehler: Viele Entwickler setzen während der Entwicklung Disallow: / und vergessen, es später zu entfernen. Ich habe das schon bei 3 Kunden in Braunschweig gesehen – die Webseite war fertig, aber Google wurde weiterhin blockiert.
Die richtige robots.txt für die meisten Webseiten
User-agent: *
Allow: /
# Wichtige Seiten explizit erlauben
Allow: /kontakt
Allow: /impressum
Allow: /datenschutz
# Admin-Bereiche blockieren (optional)
Disallow: /admin/
Disallow: /wp-admin/
Disallow: /wp-includes/
# Sitemap angeben
Sitemap: https://deine-domain.de/sitemap.xml
Für WordPress: Die meisten SEO-Plugins erstellen automatisch eine korrekte robots.txt. Prüfe trotzdem, ob sie nicht zu restriktiv ist.
Für Next.js: Erstelle eine public/robots.txt Datei mit dem obigen Inhalt.
Nach Änderungen an der robots.txt kann es 1-2 Tage dauern, bis Google die Änderungen erkennt. Du kannst in der Search Console prüfen, ob Google die Datei korrekt interpretiert.
Robots.txt Tester in Google Search Console
Fehler #3: Meta-Tags blockieren die Indexierung
Auch wenn deine robots.txt korrekt ist, können Meta-Tags in den HTML-Seiten selbst die Indexierung verhindern. Das passiert besonders häufig bei WordPress-Seiten.
Das "noindex" Problem
Wenn eine Seite das Meta-Tag <meta name="robots" content="noindex"> hat, wird sie von Google nicht indexiert. Das ist nützlich für Testseiten oder private Bereiche – aber fatal, wenn es auf deiner Hauptseite steht.
So prüfst du es:
- Öffne deine Webseite im Browser
- Rechtsklick → "Seitenquelltext anzeigen" (oder Strg+U)
- Suche nach
<meta name="robots"oder<meta name="googlebot" - Wenn du
noindexfindest, ist das dein Problem
Häufige Ursachen:
- WordPress: Unter Einstellungen → Lesen → "Suchmaschinen-Sichtbarkeit" ist "Suchmaschinen davon abhalten, diese Website zu indexieren" aktiviert
- Yoast SEO: Im Yoast-Metabox bei jeder Seite kann "Allow search engines to show this Page in search results?" auf "Nein" stehen
- Rank Math: Ähnliche Einstellung im Rank Math Metabox
- Manuell eingefügt: Ein Entwickler hat das Tag manuell im Theme eingefügt
Die Lösung:
- WordPress: Deaktiviere "Suchmaschinen davon abhalten" in den Einstellungen
- Yoast/Rank Math: Prüfe jede wichtige Seite und stelle sicher, dass "Allow in search results" aktiviert ist
- Manuell: Entferne das
<meta name="robots" content="noindex">Tag aus dem HTML
Mein Erfahrungswert: Bei einem Kunden aus Hannover stand auf allen 47 Seiten das noindex-Tag. Nach der Entfernung waren alle Seiten innerhalb von 2 Wochen indexiert.
Meta-Tags für Suchmaschinen (Google)
Fehler #4: Deine Webseite ist zu langsam
Google mag keine langsamen Webseiten. Wenn deine Seite länger als 3 Sekunden lädt, wird sie seltener gecrawlt und schlechter gerankt. Das ist besonders kritisch für mobile Nutzer.
Warum Geschwindigkeit für die Indexierung wichtig ist
Google hat ein Crawl-Budget – eine begrenzte Anzahl von Seiten, die pro Tag gecrawlt werden können. Langsame Seiten verbrauchen mehr Zeit und Ressourcen. Google crawlt sie daher seltener oder gar nicht.
Die Zahlen:
- Seiten, die unter 1 Sekunde laden, werden 3x häufiger gecrawlt als Seiten über 3 Sekunden
- 53% aller mobilen Nutzer verlassen eine Seite, die länger als 3 Sekunden lädt
- Google bevorzugt Seiten mit Core Web Vitals im grünen Bereich
So misst du deine Geschwindigkeit
Google PageSpeed Insights: pagespeed.web.dev
Gib deine URL ein und erhalte eine detaillierte Analyse. Wichtig sind vor allem:
- Largest Contentful Paint (LCP): Sollte unter 2,5 Sekunden sein
- First Input Delay (FID): Sollte unter 100ms sein
- Cumulative Layout Shift (CLS): Sollte unter 0,1 sein
Google Search Console: Unter "Core Web Vitals" siehst du, wie deine Seite abschneidet.
Die häufigsten Geschwindigkeitsprobleme und Lösungen
1. Zu große Bilder
Problem: Unkomprimierte Bilder können mehrere MB groß sein und die Ladezeit massiv erhöhen.
Lösung:
- Bilder vor dem Upload komprimieren (Tools: TinyPNG, Squoosh)
- Moderne Formate nutzen: WebP oder AVIF statt JPG/PNG
- Lazy Loading aktivieren (lädt Bilder erst beim Scrollen)
- Responsive Images verwenden (verschiedene Größen für verschiedene Geräte)
Beispiel aus meiner Praxis: Ein Kunde hatte eine Startseite mit 8 unkomprimierten Bildern à 3-5 MB. Nach der Optimierung auf WebP mit Lazy Loading reduzierte sich die Ladezeit von 8 Sekunden auf 1,2 Sekunden.
2. Zu viele Plugins/Skripte
Problem: Jedes Plugin lädt zusätzliche CSS- und JavaScript-Dateien.
Lösung:
- Unnötige Plugins deinstallieren
- CSS/JS minifizieren und zusammenführen
- Critical CSS inline einbinden (wichtigste Styles direkt im
<head>) - JavaScript asynchron oder deferred laden
3. Kein Caching
Problem: Jeder Seitenaufruf lädt alle Ressourcen neu.
Lösung:
- Browser-Caching aktivieren (über
.htaccessoder Plugin) - CDN nutzen (Cloudflare, BunnyCDN)
- Server-seitiges Caching (WP Rocket, W3 Total Cache für WordPress)
4. Langsamer Hosting-Provider
Problem: Billige Shared Hosting-Anbieter sind oft überlastet.
Lösung:
- Auf schnelleres Hosting wechseln (z.B. Vercel, Netlify für statische Seiten)
- Für WordPress: Managed WordPress Hosting (z.B. WP Engine, Kinsta)
- Server-Standort sollte nah an deinen Nutzern sein (für Deutschland: Server in Deutschland/Europa)
Core Web Vitals Optimierung (Google)
Website Performance Optimierung – Guide
Fehler #5: Du hast keine oder zu wenig Inhalte
Google liebt Inhalte. Wenn deine Seite nur eine "Coming Soon" Seite oder 3 Sätze Text hat, wird sie nicht ranken. Google braucht ausreichend Content, um zu verstehen, worum es auf deiner Seite geht.
Wie viel Content brauchst du?
Minimum für eine indexierbare Seite:
- Startseite: Mindestens 300-500 Wörter
- Unterseiten: Mindestens 200-300 Wörter pro Seite
- Blog-Artikel: Mindestens 1.000 Wörter für gute Rankings
Warum das wichtig ist:
- Google analysiert Keywords im Text, um zu verstehen, wofür deine Seite relevant ist
- Mehr Content = mehr Möglichkeiten für interne Verlinkung
- Längere Texte signalisieren Expertise und Authority
Ein Beispiel aus Braunschweig: Ein Handwerker hatte eine Webseite mit nur 5 Seiten à 50 Wörter. Nachdem wir jede Seite auf 400+ Wörter erweitert und relevante Keywords eingebaut haben, stieg die Sichtbarkeit innerhalb von 3 Monaten um 240%. Solche Optimierungen sind Teil unseres Webdesign-Services in Braunschweig, der immer auch SEO und Content-Strategie mit einschließt.
Was macht guten Content aus?
1. Relevante Keywords natürlich einbauen
Nicht: "Wir sind der beste Maler in Braunschweig. Maler Braunschweig. Maler Braunschweig."
Sondern: "Als Malerbetrieb in Braunschweig unterstützen wir Privat- und Gewerbekunden bei Innen- und Außenanstrichen. Unsere Erfahrung mit historischen Gebäuden in der Braunschweiger Innenstadt macht uns zum idealen Partner für Renovierungsprojekte."
2. Strukturierte Überschriften verwenden
- H1: Hauptüberschrift (nur eine pro Seite)
- H2: Hauptkapitel
- H3: Unterkapitel
Das hilft Google, die Struktur zu verstehen.
3. Interne Verlinkung
Verlinke zu anderen relevanten Seiten deiner Webseite. Das hilft Google, deine Seitenstruktur zu verstehen und verteilt Linkjuice.
4. Externe Links zu autoritativen Quellen
Verlinke zu relevanten, vertrauenswürdigen Quellen (z.B. Google Developer Docs, Wikipedia). Das signalisiert Google, dass dein Content gut recherchiert ist.
Content-Qualitätsrichtlinien (Google)
Fehler #6: Du verwendest keine strukturierten Daten
Strukturierte Daten (Schema.org Markup) helfen Google zu verstehen, worum es auf deiner Seite geht. Ohne strukturierte Daten erscheinst du nicht in Rich Snippets – den erweiterten Suchergebnissen mit Sternen, Preisen oder Öffnungszeiten.
Was sind strukturierte Daten?
Strukturierte Daten sind Code-Snippets, die Informationen über deine Seite in einem standardisierten Format bereitstellen. Google nutzt diese, um Rich Snippets zu erstellen.
Beispiel für ein lokales Unternehmen:
{
"@context": "https://schema.org",
"@type": "LocalBusiness",
"name": "Dein Unternehmen",
"image": "https://deine-domain.de/logo.png",
"address": {
"@type": "PostalAddress",
"streetAddress": "Musterstraße 123",
"addressLocality": "Braunschweig",
"postalCode": "38100",
"addressCountry": "DE"
},
"geo": {
"@type": "GeoCoordinates",
"latitude": 52.2689,
"longitude": 10.5268
},
"url": "https://deine-domain.de",
"telephone": "+49-531-123456",
"priceRange": "€€",
"openingHoursSpecification": {
"@type": "OpeningHoursSpecification",
"dayOfWeek": [
"Monday",
"Tuesday",
"Wednesday",
"Thursday",
"Friday"
],
"opens": "08:00",
"closes": "18:00"
}
}
Welche strukturierten Daten brauchst du?
Für lokale Unternehmen:
- LocalBusiness Schema: Name, Adresse, Telefon, Öffnungszeiten
- Review Schema: Bewertungen mit Sternen
- FAQPage Schema: Häufige Fragen (erscheinen als Accordion in den Suchergebnissen)
Für E-Commerce:
- Product Schema: Produktname, Preis, Verfügbarkeit, Bewertungen
- BreadcrumbList Schema: Navigation (zeigt Breadcrumbs in den Suchergebnissen)
Für Blog-Artikel:
- Article Schema: Titel, Autor, Veröffentlichungsdatum, Bild
- BreadcrumbList Schema: Navigation
Wie implementierst du strukturierte Daten?
WordPress: Nutze Plugins wie "Schema Pro" oder "Rank Math" – die fügen automatisch strukturierte Daten hinzu.
Manuell: Füge JSON-LD Code in den <head> deiner Seiten ein:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "LocalBusiness",
"name": "Dein Unternehmen",
...
}
</script>
Next.js: Nutze die next-seo Bibliothek oder füge JSON-LD manuell in deine Komponenten ein.
Nach der Implementierung:
- Teste mit dem Google Rich Results Test
- Prüfe in der Google Search Console unter "Erweiterte Funktionen" → "Strukturierte Daten"
Strukturierte Daten Guide (Google)
Fehler #7: Du hast keine Backlinks oder schlechte Backlinks
Backlinks sind Links von anderen Webseiten zu deiner Seite. Google nutzt Backlinks als Vertrauenssignal. Seiten ohne Backlinks werden seltener gecrawlt und ranken schlechter.
Warum Backlinks wichtig sind
- Entdeckung: Google findet neue Seiten oft über Backlinks
- Authority: Viele qualitativ hochwertige Backlinks signalisieren Vertrauen
- Ranking: Backlinks sind immer noch einer der wichtigsten Ranking-Faktoren
Die Realität: Eine neue Webseite ohne Backlinks wird von Google kaum beachtet. Du musst aktiv Links aufbauen.
Wie du gute Backlinks bekommst (ohne Spam)
1. Lokale Verzeichnisse
- Google My Business (kritisch für lokale Unternehmen!)
- Gelbe Seiten
- Branchenverzeichnisse
- Lokale Handwerker-Portale
Für Braunschweig: Verzeichnisse wie "Handwerk in Braunschweig" oder lokale Branchenbücher.
2. Gastbeiträge
Schreibe Artikel für relevante Blogs oder Magazine in deiner Branche. Am Ende des Artikels steht ein Link zu deiner Webseite.
3. Partnerschaften
Kooperiere mit anderen Unternehmen in deiner Region. Beispiel: Ein Malerbetrieb verlinkt zu einem Elektriker und umgekehrt.
4. Pressearbeit
Wenn du etwas Neues machst (neue Dienstleistung, Auszeichnung, etc.), informiere lokale Medien. Oft verlinken sie zu deiner Webseite.
5. Social Media
Auch wenn Social Media Links meist "nofollow" sind, helfen sie bei der Entdeckung. Teile deine Inhalte auf LinkedIn, Facebook, Instagram.
Was du NICHT tun solltest
- Linkkauf: Google erkennt gekaufte Links und bestraft dich
- Linkfarmen: Seiten, die nur Links verkaufen, schaden mehr als sie nutzen
- Spam-Kommentare: "Toller Artikel! Schau dir meine Seite an: [Link]" – das funktioniert nicht mehr
- Private Blog Networks (PBNs): Google erkennt diese und bestraft sie
Mein Tipp: Fokussiere dich auf 5-10 hochwertige Backlinks statt 100 schlechte. Ein Link von einer autoritativen Seite in deiner Branche ist mehr wert als 50 Links von Spam-Seiten.
Link Building Best Practices (Google)
Praktische Checkliste: So stellst du sicher, dass Google deine Webseite findet
Hier ist eine Schritt-für-Schritt-Checkliste, die ich für alle neuen Projekte verwende:
✅ Setup-Phase (Tag 1)
- Google Search Console einrichten und Webseite verifizieren
- Sitemap erstellen und in Search Console einreichen
- robots.txt prüfen und korrigieren (falls nötig)
- Meta-Tags prüfen (kein "noindex" auf wichtigen Seiten)
- Strukturierte Daten implementieren (LocalBusiness, Article, etc.)
✅ Content-Phase (Woche 1-2)
- Mindestens 300 Wörter auf der Startseite
- Mindestens 5 Unterseiten mit je 200+ Wörtern
- Interne Verlinkung zwischen Seiten
- Externe Links zu autoritativen Quellen
- Bilder optimieren (WebP, Alt-Texte, Lazy Loading)
✅ Technische Optimierung (Woche 2-3)
- PageSpeed Insights Score über 80 (mobil und desktop)
- Core Web Vitals im grünen Bereich
- Mobile-First: Webseite funktioniert perfekt auf Smartphones
- SSL-Zertifikat aktiviert (HTTPS)
- 404-Fehler behoben
✅ Off-Page SEO (Monat 1-3)
- Google My Business Profil erstellt und optimiert
- In 5-10 lokalen Verzeichnissen eingetragen
- Erste Backlinks aufgebaut (Gastbeiträge, Partnerschaften)
- Social Media Profile erstellt und verlinkt
✅ Monitoring (laufend)
- Google Search Console regelmäßig prüfen (wöchentlich)
- Indexierungsstatus überwachen
- Keyword-Rankings tracken
- Backlinks monitoren (Tools: Ahrefs, SEMrush, oder kostenlos: Ubersuggest)
Erwartete Timeline:
- Tag 1-7: Webseite wird von Google entdeckt
- Woche 2-4: Erste Seiten werden indexiert
- Monat 2-3: Erste Rankings für Long-Tail Keywords
- Monat 4-6: Stabile Rankings für Hauptkeywords
Wenn nach 3 Monaten immer noch nichts passiert, liegt definitiv ein technisches Problem vor.
Google Search Console Tutorial
Häufige Fragen: Warum wird meine Webseite nicht gefunden?
Fazit: Von "nicht gefunden" zu "Top-Ranking"
Wenn deine Webseite nicht bei Google erscheint, liegt es fast immer an einem dieser 7 Fehler. Die gute Nachricht: Alle sind behebbar. Die meisten Probleme lassen sich innerhalb von wenigen Stunden lösen.
Meine Empfehlung für den Start:
- Heute: Google Search Console einrichten, Sitemap einreichen, robots.txt prüfen
- Diese Woche: Meta-Tags prüfen, Content erweitern, Bilder optimieren
- Dieser Monat: Strukturierte Daten implementieren, erste Backlinks aufbauen, Google My Business optimieren
Die harte Wahrheit: SEO ist kein Sprint, sondern ein Marathon. Auch wenn du alle technischen Probleme behebst, braucht es Zeit, bis Google dir vertraut und dich rankt. Aber ohne die Grundlagen wird es nie funktionieren.
In meiner 3-jährigen Praxis habe ich noch keine Webseite gesehen, die nach der Behebung aller technischen Fehler nicht irgendwann indexiert wurde. Die Frage ist nur: Wie schnell? Und das hängt von deiner Disziplin bei der Umsetzung ab.
Wenn du Unterstützung brauchst, helfe ich gerne. Ich analysiere deine Webseite kostenlos und zeige dir die 3 größten Probleme, die verhindern, dass Google dich findet.
Kostenlose SEO-Analyse anfragen




