Die DSGVO-Lüge der Social-Media-AI-Anbieter
Was hinter günstigen AI-Angeboten von TikTok-Coaches und Instagram-Agenturen wirklich steckt: alte Libs, leaky Setups, fehlende TOMs und DSGVO-Compliance, die nirgends existiert außer in der Landing-Page-Überschrift.
Auf Instagram, TikTok und LinkedIn taucht seit ~2024 dieselbe Schleife auf: junge Coaches und „Agenturen” verkaufen AI-Chatbots, Automatisierungen oder „Custom-GPTs” für 500–5.000 €. Die Versprechen sind immer gleich: „in 7 Tagen einsatzbereit”, „voll DSGVO-konform”, „ROI in 30 Tagen”. Wer die Setups auseinandernimmt, findet meistens dasselbe Bild — und genau das ist das Problem für jeden Mittelständler, der so etwas einkauft.
Was tatsächlich geliefert wird
Die typische „Lösung” ist ein n8n- oder Make.com-Workflow, ein OpenAI-API-Key mit hartcodiertem Prompt, manchmal ein WhatsApp-Webhook oder eine Voiceflow- Konfiguration. Das ist nicht per se schlecht — es ist eine legitime Klasse von Tools für Quick-Prototypes. Schlecht wird es durch das Drumherum.
Was im Übergabepaket fehlt — fast immer:
- Keine Source-Control. Der Workflow existiert nur in der Cloud-UI des Anbieters. Wer den Account verliert, verliert das Produkt.
- Keine Logs, keine Observability. Niemand merkt, wenn der Bot ab Montag jeden zweiten Kunden falsche Auskünfte gibt — bis der erste Beschwerde-Anruf kommt.
- Keine Rate-Limits, kein Cost-Cap. Ein einziger Loop-Bug im Workflow oder ein Bot-Crawler kann eine OpenAI-Rechnung über 4-stellige Beträge in 24 Stunden erzeugen. Wer haftet?
- Kein Modell-Versioning. „gpt-4o” heißt heute etwas anderes als vor sechs Monaten. Ohne Pinning ändert sich das Verhalten unangekündigt.
- Keine Tests. Keine Eval-Suite. Keine Regression-Checks. Wenn der Prompt geändert wird (vom Coach, vom Kunden, von OpenAI’s neuem System-Prompt), weiß niemand vorher, was kaputt geht.
Die DSGVO-Frage — wo es wirklich schmerzt
„DSGVO-konform” ist in dieser Szene die häufigste Übertreibung. Konkret prüfen:
1. Wo läuft die Inference? Wenn der Coach OpenAI direkt aufruft, gehen Kundendaten an einen US-Anbieter. Seit dem EU-US Data Privacy Framework (2023) ist das grundsätzlich möglich, aber der Verantwortliche (= euer Unternehmen, nicht der Coach) muss das in der Datenschutzerklärung deklarieren, im Verarbeitungsverzeichnis führen, und einen Auftragsverarbeitungsvertrag (AV) abschließen. Den AV liefert OpenAI als Standardvorlage — aber den haben die wenigsten Endkunden je gesehen.
2. Wer ist Auftragsverarbeiter? Gibt es einen AV-Vertrag zwischen euch und dem Coach? Wenn der Coach den OpenAI-Account auf seinen Namen laufen lässt und in eurem Namen Prompts schickt, ist er Auftragsverarbeiter nach Art. 28 DSGVO — und das braucht einen schriftlichen Vertrag mit konkreten Pflichten. Den haben sehr viele Anbieter nicht. Wir haben in eigenen Audits Setups gesehen, in denen 14 Endkunden über einen OpenAI-Key liefen, ohne Mandantentrennung, ohne AV, ohne dokumentierte TOMs.
3. Eigene DSGVO-Hygiene des Anbieters? Roher Indikator: Schau auf die Website des Anbieters selbst. Wenn dort:
- Cookie-Banner fehlt oder Klick-Konsens nicht sauber (Schaltflächen nicht gleichwertig, Tracker schon vor Einwilligung aktiv),
- Datenschutzerklärung generisch („Stand 2021” oder offensichtlich aus dem Generator, Aufsichtsbehörde fehlt),
- Impressum unvollständig (keine handelnde Person nach § 18 MStV genannt),
- Google Fonts via CDN eingebunden (statt selbst gehostet — das ist seit LG München I 2022 abmahnfähig),
- Newsletter-Tool wie Mailchimp ohne saubere Double-Opt-In-Doku,
…dann fehlt dort schon die Hausaufgabe. Wer die eigene Compliance nicht hinbekommt, wird sie für euch auch nicht hinbekommen.
4. TOMs — wo bleiben sie? Technische und organisatorische Maßnahmen nach Art. 32 DSGVO sind kein Whitepaper-Buzzword, sondern ein konkretes Dokument: wer hat Zugriff, wie wird gelöscht, wie wird gegen Angriffe gesichert, wie werden Backups gemacht, wie oft wird auditiert. Bei seriösen Anbietern liegt das auf Anfrage in 24h auf deinem Tisch. Bei einem Großteil der Social-Media-Anbieter gibt es das schlicht nicht, weil das Setup gar nicht für diese Dokumentation gedacht war.
Die technische Seite — was wir in Audits regelmäßig finden
- Node-Dependencies mit bekannten CVEs. Bei einem übernommenen Projekt im Frühjahr 2026: 47 von 312 Paketen hatten dokumentierte Sicherheitslücken, davon 9 als „high” oder „critical” eingestuft. Letzter Dependency-Update: 18 Monate alt.
- Hartkodierte API-Keys im Frontend-Bundle. Webhooks von Make.com mit dem Slack-Token im JavaScript des öffentlichen Widgets — jeder Curl-Request konnte die internen Channels lesen.
- Keine Authentifizierung auf der Admin-Oberfläche. Eine Bot-Konfig-UI
unter
/admin(auf einer Subdomain) ohne Passwort, indizierbar, mit Lese-/Schreib-Rechten auf die Knowledge-Base. - Datenexports im Klartext. CSV-Exporte von Lead-Daten via S3-Bucket,
public-read, auf Google indiziert. Der „Agentur”-Inhaber wusste das nicht. - Prompt-Injection-Vulnerabilities. Standard. Der „Custom-GPT” für einen Anwalts-Mandanten ließ sich mit einem einzigen Satz dazu bringen, die System-Anweisung inklusive interner Honorarsätze preiszugeben.
Das sind keine Edge-Cases. Das sind die Standardbefunde.
Service nach dem Verkauf
Ein interessantes Muster: Die Verkaufsphase ist hochpräsent. Daily-Reels, Voice-Notes auf WhatsApp, persönliche Calls. Nach Signing wird der Kontakt oft auf einen Ticket-Helpdesk verlagert, der von einem 1-Mann-Team mit Antwortzeiten von 3–10 Tagen bedient wird. Bei kritischen Bugs („unser Bot beleidigt seit gestern Kunden”) ist das ein Problem.
Frag im Vorgespräch konkret: Wer ist mein Ansprechpartner? Welche Reaktionszeit ist vertraglich zugesichert? Was passiert nachts/am Wochenende, wenn das System in den Loop geht und die OpenAI-Rechnung läuft?
Was Mittelständler stattdessen brauchen
Das ist keine Werbung. Das ist nur die ehrliche Mindestliste:
- Code lebt bei euch. Git-Repository, das ihr exportieren könnt. Nicht in der Cloud-UI eines Tools eingesperrt.
- Auditierbarer Datenfluss. Wer schickt was an wen, mit welcher Rechtsgrundlage, mit welchem AV-Vertrag. Auf einem Blatt Papier, nicht in der Cloud-UI.
- Eval-Suite + Monitoring. Ein zweiter Job, der täglich 20 Beispiel-Anfragen durchschickt und Antworten gegen erwartete Outcomes prüft. Alert wenn Drift.
- Klare Eskalationspfade. Wer ist nachts erreichbar, wer im Urlaub, wer im Krankheitsfall?
- Realistische DSGVO-Doku. AV-Vertrag, TOMs, Datenflussdiagramm, Verarbeitungsverzeichnis-Eintrag. Alles in 1–2 PDFs, kein Marketing-Geschwurbel.
- Optional: On-Premise / EU-Hosting. Wenn ihr in Branchen mit besonders sensiblen Daten sitzt (Recht, Medizin, Steuer, kritische Infrastruktur), gehört das Modell ins eigene Rechenzentrum oder zumindest in einen EU-Cloud- Account, nicht zu OpenAI. Das geht 2026 produktiv mit Llama 3.3, Mistral Large oder DeepSeek — gut genug für 80% der Use-Cases.
Checkliste für eure nächste Anbieter-Auswahl
- Liefert der Anbieter Source-Code in euer Git-Repo?
- Gibt es einen AV-Vertrag, der konkret eure Datenarten benennt?
- Liegen TOMs als Dokument vor, datiert, von einer Person unterschrieben?
- Ist die eigene Website des Anbieters DSGVO-konform (kein Google Fonts via CDN, sauberer Cookie-Banner, vollständiges Impressum)?
- Gibt es eine Eval-Suite + Monitoring + Alerting? Wer wird benachrichtigt?
- Sind Dependencies dokumentiert, mit Update-Plan? Letzter Audit-Date?
- Gibt es eine Roadmap für Modell-Updates (gpt-5, Claude 5, etc.)? Wer testet bei Modellwechsel?
- Was passiert, wenn der Anbieter pleite geht? Habt ihr Exit-Pfad?
Wenn mehr als drei Punkte „nein” sind, kauft ihr ein Problem ein, kein Produkt.
Wir sehen viele Setups, die genau diese Liste reißen — meistens sind die Endkunden gutgläubig, der Verkäufer charismatisch, und das Erwachen kommt beim ersten Audit oder beim ersten Datenleck. Wer Geld in eine AI-Lösung steckt, sollte mindestens dasselbe Niveau an Sorgfalt anlegen, das er bei einem neuen ERP oder einer Buchhaltungs-Software anlegen würde. Es geht um genauso harte Daten und genauso harte Haftung.
Wenn ihr Zweifel an einer bestehenden Lösung habt: Ein einstündiges Audit mit Repository-Zugriff, AV-Vertrag und einer Stichprobe an Logs reicht in den meisten Fällen aus, um zu sehen, ob das Setup trägt. Das ist Geld, das sich praktisch immer rentiert — entweder weil man die Lösung mit gutem Gewissen weiterbetreiben kann, oder weil man rechtzeitig vor dem Schaden aussteigt.