Der KI-Schutz,
der mit Ihrem Team tippt.
SafePrompt ist ein Browser-Layer für ChatGPT, Claude, Gemini und Copilot. Während Ihre Mitarbeitenden tippen, prüft ein Modell direkt im Tab jeden Tastendruck auf Namen, E-Mails und vertrauliche Daten — und warnt, bevor der Prompt abgeschickt wird.
Ein Schutz genau dort, wo das Risiko entsteht — im Eingabefeld.
Die meisten Datenlecks in KI-Tools passieren durch ein unbedachtes Einfügen. Genau dort setzt SafePrompt an.
Unternehmensweit ausrollen
Verwaltete Erweiterung in Chrome, Edge oder Firefox — per MDM, Okta oder Azure AD. Ihr Team sieht in jedem LLM-Tab eine kleine SafePrompt-Anzeige.
Wir prüfen jede Eingabe — lokal
Ein kompaktes NER-Modell läuft direkt im Tab und scannt den Prompt während der Eingabe. Nichts wird über das Netzwerk gesendet.
Warnen, maskieren oder blockieren
Grün: abschicken. Gelb: prüfen. Rot: SafePrompt schwärzt sensible Stellen, bevor der Prompt das LLM erreicht.
Drei Punkte. Null Missverständnisse.
Eine Ampel, die Ihre Mitarbeitenden ohne eine einzige Schulung verstehen.
Keine personenbezogenen Daten, Geheimnisse oder vertraulichen Begriffe im aktuellen Entwurf erkannt.
Etwas wirkt persönlich — ein Vorname, eine telefonähnliche Zeichenfolge. Wir weisen darauf hin, ohne zu blockieren.
Vollständige Namen, E-Mails, IBANs, Ausweisnummern, interne Projekt-Codenamen. SafePrompt kann sie automatisch maskieren.
Datenschutz durch Architektur, nicht durch Versprechen.
Modell auf dem Gerät
Die Inferenz läuft per WebAssembly direkt im Tab. Kein Prompt erreicht jemals unsere Server.
Intelligente Maskierung
Sensible Begriffe werden durch typisierte Platzhalter ersetzt — das LLM kann die Frage trotzdem beantworten.
Eigene Richtlinien
Fügen Sie unternehmensspezifische Begriffe hinzu: Projekt-Codenamen, Kunden-IDs, interne URLs.
Audit-fähige Logs
Aggregierte, anonyme Auswertungen für Security-Teams — niemals der Inhalt der Prompts.
SSO + MDM
Unternehmensweit ausrollen mit Okta, Azure AD, Jamf oder Intune. Richtlinien zentral sperren.
Funktioniert überall
ChatGPT, Claude, Gemini, Copilot, Perplexity und jede eigene LLM-URL, die Sie hinzufügen.
Ihr Team liebt KI.
Ihr CISO braucht Schlaf.
Ein ChatGPT-Verbot drängt die Nutzung in die Schatten-IT. SafePrompt lässt Ihren Mitarbeitenden ihre Tools — und hält gleichzeitig Kundendaten, Quellcode und interne Bezeichnungen von fremden Servern fern.
Die Fragen, die Security-Teams zuerst stellen.
Sieht SafePrompt, was mein Team tippt?+
Nein. Das Erkennungsmodell läuft komplett im Browser-Tab über WebAssembly. Wir erhalten weder Prompts noch Entwürfe oder Seiteninhalte — nur vollständig anonymisierte, aggregierte Zähler, wenn Ihre Admins dem zustimmen.
Welche KI-Tools werden unterstützt?+
ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity und Mistral von Haus aus. Admins können beliebige interne LLM-URLs über eine einzeilige Richtlinie ergänzen.
Welche Daten werden erkannt?+
Namen, E-Mail-Adressen, Telefonnummern, Anschriften, IBANs, Kreditkarten, Ausweisnummern, API-Keys, JWTs und Quellcode. Unternehmen können eigene Wörterbücher hinzufügen (Kunden-IDs, Projekt-Codenamen, Lieferantennamen).
Wie wird es unternehmensweit ausgerollt?+
Wie jede verwaltete Erweiterung — über Chrome Enterprise, Edge for Business, Jamf oder Intune. Richtlinien sind signiert und gesperrt, sodass Endnutzer den Schutz nicht deaktivieren können.