Claude Code erlaubt es mir, sehr schnell Applikationen zu basteln, auch solche, die ich immer mal bauen wollte, aber angesichts der zu investierenden Zeit jahrelang auf meiner To Do-Liste hatte. In diesem Fall geht es aber noch ein bisschen weiter, weil ich erst Google Gemini gebeten hatte, eine SWOT-Analyse zu ScreamingFrog zu erstellen und dann einen Prompt zu schreiben, der es mir mit Claude Code ermöglicht, eine bessere App zu bauen. Noch sind nicht alle Features drin. Aber so ist eine native macOS-App zum Crawlen, Analysieren und Überwachen von Websites entstanden, der Website Analyzer. Download gibt es auf Anfrage 🙂
Und das macht die App:
Crawling
- Rekursives Crawlen einer Website ab einer Start-URL
- Konfigurierbare Parallelität (1–20 Worker), Tiefe (1–50), Rate-Limit und Timeout
- Wählbarer User-Agent (Safari, Chrome, Googlebot, eigener)
- robots.txt-Konformität (optional)
- Automatische HTTPS-Hochstufung
- HEAD-Requests für Ressourcen (Bilder, CSS, JS, Fonts, Media) statt vollem Download
- Erkennung von Lazy-Loading-Bildern (data-src, data-lazy-src, <picture>, srcset)
Link-Prüfung
- Alle internen und externen Links werden geprüft (HTTP-Statuscode)
- Status-Klassifikation: OK, Redirect, Dead, Timeout, Error
- Echte Redirects vs. triviale (http→https, www, Trailing Slash) werden unterschieden
- Embedded Resources (Bilder, CSS, JS, Fonts, iFrames) von CDNs werden als intern behandelt
- Gruppierte Anzeige: gleiche Ziel-URL von mehreren Quellseiten
Ergebnisse (Results)
- Tabellarische Übersicht aller gecrawlten Seiten
- Spalten: URL, Content-Type, HTTP-Status, Größe, Antwortzeit, Tiefe, Indexierbar
- Suche, Sortierung, Filter nach Content-Type
- Farbcodierte Statuscodes und Antwortzeiten
Insights & Analytik
- Site Health Score (0–100) als visuelle Gauge
- HTTP-Statuscode-Verteilung (Balkendiagramm)
- Link-Status-Verteilung (OK / Dead / Redirect / Timeout / Error)
- Seitenstruktur nach Tiefe (Depth-Verteilung)
- Content-Type-Verteilung
- Page Speed: Durchschnitt, Median, P90, schnelle/langsame Seiten, langsamste Seiten (Top 8)
- Dead-Link-Hotspots: Seiten mit den meisten toten Links
- Linkgraph: Interaktive Force-Directed-Visualisierung der Seitenverknüpfungen (Pan, Zoom, Hover-Tooltips)
Export
- CSV-Export für Seiten und Links (mit Dateidialog)
Technologie
- SwiftUI + macOS nativ
- GRDB.swift (SQLite) für persistente Speicherung
- Fuzi (libxml2) für HTML-Parsing
- Swift Concurrency (async/await, Actors) für thread-sicheres Crawling
- SwiftUI Canvas (Metal-backed) für Linkgraph-Rendering
Das interessiert mich sehr. Klingt nach etwas, was mir ähnlich geht… aber gemacht hab ich es auch nie. Über den Download-Link würde ich mich freuen, einfach mal zum probieren, was da so geht.