Capability

PII und Zugangsdaten aus Model Calls heraushalten

Outgate Guardrails laufen im Gateway-Pfad, prüfen Request-Bodies auf personenbezogene Informationen und Zugangsdaten und ersetzen gefundene Werte durch stabile Platzhalter, bevor Traffic das Upstream-Modell erreicht.

Antworten werden auf dem Rückweg zum Client wiederhergestellt, während Logs und Upstream-Provider frei von Rohdaten und Secrets bleiben.

PII-Nachricht
Hey Johnpii_3e8d1cName, please send the invoice to john.doe@acme.compii_8f3a2bE-Mail
and CC sarah.smith@corp.netpii_c4d1e9E-Mail. My phone is +1-555-0142pii_7b2f4aTelefon.
Zugangsdaten-Datei
DB_USER=admincred_u2x4k1Benutzername
DB_PASS=s3cretcred_a1b2c3Passwort
DB_HOST=db.internalcred_h3j5m7Server
API_KEY=sk-proj-abc123def456cred_d4e5f6API Key
AWS_SECRET=AKIAIOSFODNN7EXAMPLEcred_g7h8i9AWS Key
An LLM gesendet (anonymisiert)
LLM-Antwort
Sure, I'll send the invoice to pii_8f3a2bjohn.doe@acme.com and CC pii_c4d1e9sarah.smith@corp.net.
The database connection uses
credentials cred_a1b2c3s3cret at the specified
endpoint with key cred_d4e5f6sk-proj-abc123def456.

Wie es funktioniert

01

Detect

Wir scannen Requests auf E-Mails, API Keys, Passwörter und andere sensible Werte.

02

Replace

Sensible Werte werden durch stabile Platzhalter ersetzt, bevor das Modell sie sieht.

03

Restore

Antworten werden auf die Originalwerte zurückgemappt, bevor sie zum Client zurückkehren.

Integrierter Schutz für realen AI Traffic

PII-Erkennung

E-Mails, Telefonnummern, Namen, Adressen und Identifikatoren.

Credential-Schutz

API Keys, Tokens, Passwörter und Environment Secrets.

Transparente Anonymisierung

Modelle sehen keine sensiblen Rohdaten. Ihre Nutzer weiterhin schon.

Wo das wichtig ist

Agent- & CLI-Traffic

Repo-Pfade, env-Werte und Prompts schützen

Logs & Observability

Sensible Daten standardmäßig aus Logs heraushalten

Bestehende Apps

Keine Rewrites - Schutz am Gateway ergänzen

Private Deployments

Detection in Ihrer eigenen Umgebung ausführen

AI Traffic schützen, ohne jeden Client zu ändern

Guardrails an einen Gateway-Provider anhängen und Requests sofort anonymisieren.

Frequently asked questions

Nein. Sensible Werte werden ersetzt, bevor der Request upstream gesendet wird. Das Modell sieht nur Platzhalter, und Originalwerte werden wiederhergestellt, bevor die Antwort Ihre Anwendung erreicht.
Nein. Antworten werden im selben Format zurückgegeben, das Ihr Client erwartet, mit wiederhergestellten Originalwerten. Aus Sicht Ihrer App ändert sich nichts.
Out of the box erkennen wir gängige personenbezogene Daten wie E-Mails, Telefonnummern, Namen und Adressen sowie Zugangsdaten wie API Keys, Tokens, Passwörter und Secrets. Detection ist über Policies konfigurierbar.
Wir nutzen ein modernes Transformer-Modell für kontextbewusste Erkennung, kombiniert mit unserem Detection Vault aus kryptografischen Fingerabdrücken bereits markierter Werte. Beide ergänzen sich: das Modell erkennt neue und kontextabhängige Treffer mit hoher Recall, der Vault liefert sofortige, deterministische Treffer für alles, was bereits gesehen wurde. Policies lassen sich pro Kategorie auf Ihren Anwendungsfall abstimmen.
Minimal. Detection und Transformation laufen inline im Gateway-Pfad und sind für Echtzeit-Traffic optimiert, inklusive Streaming-Antworten.
Ja. Guardrails können innerhalb Ihrer Deployment-Grenze oder Region laufen, sodass sensible Daten in Ihrer Infrastruktur verarbeitet werden.
Rohe sensible Werte werden standardmäßig nicht in Logs gespeichert. Anonymisierte Versionen können für Observability genutzt werden, ohne Secrets offenzulegen.
Nein. Guardrails werden auf Gateway-Ebene angewendet, sodass Sie bestehende Chat-Apps, APIs und Agents schützen können, ohne sie umzuschreiben.