Fabian Stegmaier e.U.

Lead-Qualifizierung automatisieren: 250.000 auf Top 1% reduziert

Automatisierte Lead-Qualifizierung: Datenpipeline filtert 250.000 Kontakte auf Top-Leads

250.000 Kontakte, null Priorisierung. Das Lead-Problem in Agenturen.

Mein Kunde, eine Performance Marketing Agentur mit 2 Geschäftsführern hatte folgendes Ziel: Skalierung und höheren Umsatz durch Kaltakquise. Ihre Lösung: Leadlisten einkaufen und abtelefonieren. Das Resultat: Mehrere Excel-Listen, ca. 250.000 Datensätze und eine katastrophale Datenqualität. Duplikate, verteilt über die verschiedenen Listen. Fehlende Informationen, also inkonsistente Datenqualität und keine Priorisierung der Datensätze. Da die Kaltakquise manuell dokumentiert wurde (in Excel), wäre es operativ unmöglich gewesen, alle Leads telefonisch zu kontaktieren. Daraus resultierte die Kernfrage der Lead-Qualifizierung: Welche Leads sollen überhaupt angerufen werden? Wen lohnt es sich anzurufen?

Mit diesem Problem kam der Kunde zu mir. Unser Ziel: Die Daten auf die Top 1% zu reduzieren. Nach harten und weichen Kriterien.

  • Harte Filter: Das Shopsystem (Shopify, Shopware, WooCommerce) muss zum Portfolio meines Kunden passen. Gleichzeitig soll keine Wettbewerbsüberschneidung mit Bestandskunden stattfinden.
  • Weiche Filter zum Leads priorisieren: Wie hoch ist der organische Traffic der Seite, welche Keywords nutzt der Lead, wie ist das geschätzte Umsatzpotenzial und wie hoch wäre die zu erwartende Umsatzprovision meines Kunden.

Der Kunde hat bereits selbst verschiedene Automatisierungen mit Make.com gebaut. Für diese Lead-Qualifizierung haben wir uns für self-hosted n8n entschieden. Der Grund: Make skaliert bei 200k+ Datensätzen auf ca. 750€/Monat. n8n auf einem eigenen VPS auf weniger als 10€/Monat. Die Qualifizierungskosten pro Datensatz lagen bei <0,5 Cent.

Wie man n8n selbst hosten kann, erfahren Sie in diesem Beitrag: n8n selbst hosten

 

Schritt 1: Datenaufbereitung, die Basis um Leads zu qualifizieren

Da die Daten meines Kunden über verschiedene Excel-Dateien verteilt waren, mussten wir die Daten zuerst in eine zentrale Datei zusammenführen (Single-Source-of-Truth). Dabei haben wir die Daten dedupliziert (heißt Duplikate entfernt) und die Felder normalisiert. Fehlende Informationen wurden identifiziert und für die nächsten Schritte hinterlegt, sodass relevante Informationen im weiteren Workflow ergänzt werden können.

Schritt 2: n8n Architektur für 250.000 Datensätze bauen

Wenn man in n8n eine Excel-Datei einliest und einen Workflow über 250.000 Datensätze laufen lässt, kommt man relativ schnell an die Grenzen des VPS-Servers. Die Folgen davon sind unkontrollierte Fehlermeldungen, der Server stürzt ab (da der Arbeitsspeicher nicht ausreicht). Hier könnte man natürlich einfach den Server hochskalieren, mehr Arbeitsspeicher zur Verfügung stellen und das Problem mit mehr Power lösen. Aber das würde auch irgendwann an die Grenzen kommen. Außerdem hat man dann langfristig höhere Kosten und im nächsten Quartal benötigt man diese vermutlich nicht mehr.

Wir haben uns daher für eine Modularisierung des Workflows in Sub-Workflows entschieden. Die Datensätze wurden im Hauptworkflow eingelesen, dann aber sequenziell an die Sub-Workflows übergeben und danach wieder zusammengeführt. Damit konnte man sich die Hardware-Aufrüstung sparen und gleichzeitig längere und stabilere Batch-Laufzeiten sicherstellen, sodass der Workflow problemlos über die ganze Nacht laufen konnte.

Mehr zu n8n Automatisierung gibt’s in diesem Beitrag: n8n Automation

Schritt 3: Lead-Scoring-Modell und API-Anbindung

Für jeden Datensatz haben wir uns das Shopsystem angeschaut. Dafür gibt es Lösungen wie WhatCMS oder Alternativen über Apify. Außerdem wurde über DataForSEO Traffic-Daten (also wie hoch ist der geschätzte organische Traffic der Webseite) und Keywords ausgelesen. Fehlende Informationen wurden über weitere Scraper von Apify ergänzt.

Mit dieser Logik konnten wir das Shopsystem und den geschätzten organischen Traffic auslesen und diesen an ein LLM übergeben. Wie ein solcher AI Agent funktioniert, erklären wir hier. Dieser hat diese Informationen bewertet und ein Lead-Scoring inkl. Confidence und Begründung hinterlegt. Somit konnten wir eine klare Hierarchie innerhalb der Datensätze schaffen, die dann verwendet wurde um die Top 1% der Leads zu identifizieren und diese für die Kontaktaufnahme zu selektieren.

Mehr zu KI-Automatisierung finden Sie hier: KI Automatisierung

Ergebnisse & Lessons Learned

Vorher-Nachher-Vergleich:

250.000 Leads manuell abzutelefonieren wäre schlicht nicht möglich gewesen. Mit der Beschränkung auf die Top 1% durch automatisiertes Lead-Scoring hatte der Kunde einen klaren Fokus und hat die Leads angerufen, die am besten passen. Die höhere Relevanz bei der Telefonakquise hat insgesamt zu besseren Sales-Gesprächen und mehr gebuchten Terminen geführt.

Das Projekt hat insgesamt 1,5 Wochen gedauert, davon das technische Setup des Servers 1,5h (mittlerweile aber innerhalb von 10 Minuten möglich) und mit den neuen Learnings wäre das Projekt mittlerweile innerhalb von 2-3 Tagen umsetzbar.

Lessons Learned:

Wenn man viele Daten innerhalb von n8n verarbeiten will und das auf einem kleinen VPS-Server realisieren will, kommt man nicht darum herum, die Workflows zu modularisieren (heißt in kleinere Sub-Workflows aufzuteilen). Das macht den ganzen Workflow robuster, Fehler-Debugging wird leichter, und man kann Module auch für andere Workflows übergreifend nutzen. Die Stabilität solcher Workflows ist in so einem Fall deutlich wichtiger als die Geschwindigkeit. Warum? Solche Automatisierungen sind nicht zeitkritisch und können auch über Nacht laufen. Am nächsten Morgen hat man dann eine neue Liste mit genügend Leads, die man sowieso nicht alle am gleichen Tag abtelefonieren kann.

Rückblickend haben wir die Recherche der Leads automatisiert und diese vorqualifiziert, ähnlich wie bei der automatisierten Stammdatenpflege. Die Telefonakquise blieb aber manuell. Auch das Tracking (wer wurde angerufen, wen hat man nicht erreicht, wer will nicht mehr kontaktiert werden) wurde manuell weitergeführt. Für eine weitere Optimierung des gesamten Prozesses könnte man das Tracking ebenfalls automatisieren. Entweder über eine nahtlose Integration in Sales-Plattformen wie Pipedrive oder Close, oder einfach selbst ein Kanban-Board mit Vibe-Coding Tools wie Lovable bauen (geschätzte Kosten <25€).

Fazit: Für wen eignet sich automatisierte Lead-Qualifizierung

Speziell Agenturen oder Dienstleister mit großen, ungefilterten Lead-Listen können sich mit einer automatisierten Lead-Qualifizierungs-Pipeline das Leben erleichtern. Wer > 10.000 Kontakte hat und manuell priorisiert, lässt Geld und Zeit liegen. Wer jedoch kleinere Listen hat (<250 Leads), bei dem die Recherche schnell geht, für den wäre eine solche Automatisierung Overkill.

Sie wollen Ihre Lead-Listen bereinigen und nur die relevantesten Kontakte identifizieren? In einem kurzen Erstgespräch prüfen wir, ob eine automatisierte Lead-Qualifizierung für Ihr Setup sinnvoll ist. Erstgespräch vereinbaren 

Häufige Fragen zur Lead-Qualifizierung

Bestehende Datenquellen und Leadlisten werden zusammengeführt und dedupliziert. Dann werden APIs für Datenanreicherung angebunden (Shopsysteme, Traffic-Daten, Firmendaten), eine Scoring-Logik definiert und der Workflow in modulare Sub-Workflows aufgeteilt. Nach dem Testen läuft die Pipeline automatisiert (z.B. über Nacht).

n8n self-hosted kostet unter 10€/Monat für den Server. Make.com skaliert bei gleicher Datenmenge (200k+ Datensätze) auf ca. 750€/Monat. Die Kosten pro qualifiziertem Datensatz lagen in diesem Projekt bei unter 0,5 Cent. Der einmalige Setup-Aufwand beträgt ca. 2-3 Tage.

Ab ca. 5.000-10.000 Kontakten wird manuelle Recherche unwirtschaftlich. Bei noch größeren Datenmengen ist Automatisierung nicht optional, sondern notwendig. Aber auch kleinere Lead-Mengen können eine Automatisierung rechtfertigen, wenn die Recherche pro Lead sehr zeitintensiv ist.

Ja. Die harten Filter (z.B. Shopsystem, Branche, Wettbewerbsüberschneidung) und weichen Filter (Traffic, Umsatzpotenzial) sind konfigurierbar. Das Lead-Scoring-Modell wird pro Projekt auf die relevanten Kriterien des Kunden angepasst.

Dieser Beitrag wurde unter Zuhilfenahme von KI-gestützten Technologien erstellt. Sowohl Textinhalte als auch Schaubilder sind mithilfe von KI generiert und anschließend redaktionell überarbeitet worden.