⚠ INJECTIE GEDETECTEERD
klik om te scrollen

// AI BEVEILIGING

Stop prompt injection.

In 23 milliseconden.

100% lokaal, geen cloud. Geen data naar buiten. Verslaat GPU-modellen 8x groter op alleen je CPU.

terminal

$ curl -X POST /scan

Response:

{

“malicious”: true,

“score”: 0.97,

“latency_ms”: 23

}


// BESCHERMT GEBRUIKERS VAN

OpenAI
Claude
Open WebUI
OpenClaw
GitHub Copilot
Custom Apps
0.998
F1_SCORE
23ms
LATENTIE
355MB
RAM
CPU
GEEN_GPU

AI-agents worden aangevallen.

Verborgen Instructies

Witte tekst in documenten. Onzichtbaar voor mensen, zichtbaar voor AI.

Zero-Click Exploits

Microsoft Copilot lekte data zonder gebruikersinteractie.

Configuratie Redt Je Niet

Systeem prompts en allowlists zijn onvoldoende.


Multi-layer detectie pipeline.

INJECTIE GEDETECTEERD
1. Statistiek
2. Heuristiek
3. Semantisch
4. Neuraal
Veilig
Layer 4 fallback: Meta Prompt Guard 2 · Built with Llama

Gebouwd voor productie.

23ms latentie

Onmerkbaar in productie

Self-hosted

Geen data verlaat je infra

Alleen CPU

Geen GPU nodig

48+ talen

Wereldwijde dekking


Prompt Guard vs. de alternatieven.

Niet productie-gereed

NVIDIA zegt het zelf: “not recommended for production without further customization and testing.” De meeste organisaties negeren dit.

Hoge bypass-rate: emoji en tekens

Instructies in emoji of onzichtbare Unicode omzeilen NeMo bij elke poging. Onafhankelijk onderzoek meet ook 72.54% bypass bij character injection. (Bron: arxiv 2504.11168)

500ms latentie en GPU vereist

1 tot 3 extra LLM-aanroepen per bericht, GPU aanbevolen. Prompt Guard: 23ms op gewone CPU zonder extra hardware.

Open source op GitHub

De volledige broncode is publiek beschikbaar. Je kunt de werking inspecteren, forken en aanpassen aan jouw situatie.

Bronnen: NVIDIA NeMo Docs: docs.nvidia.com/nemo/guardrails · arxiv.org/abs/2504.11168 (LLMSec Workshop 2025)


Werkt met jouw stack.

Claude Code
hooks
OpenAI API
proxy
GitHub Copilot
extensie
Open WebUI
filter
LLM Gateway
middleware
Elke API
REST

Klaar om je AI te beveiligen?

Neem contact op voor een demo of technische discussie.


Veelgestelde vragen.

Nee. Het model is getraind op publieke data. We hebben geverifieerd dat deze data niet overeenkomt met bekende benchmarks. Data die wel overeenkomt is volledig verwijderd uit het framework, zodat er geen enkele overlap bestaat tussen trainingsdata en benchmarks.

Onder andere via AI red teaming: onze eigen AI probeert actief door het framework heen te breken. De resultaten van deze pogingen worden gebruikt om het model te verbeteren. Dit is een continu proces waarbij het framework zichzelf steeds verder aanscherpt.

Nee. Wij zien Prompt Guard als een essentiële laag die elke AI-applicatie zou moeten gebruiken, maar prompt injection zal nooit voor 100% gemitigeerd kunnen worden. Het blijft mogelijk dat aanvallen door het framework komen. Prompt Guard verkleint het aanvalsoppervlak aanzienlijk, maar vervangt geen bredere AI-beveiligingsstrategie.

Ja. We kunnen custom modellen en frameworks trainen voor specifieke use cases, specifieke system prompts en branchespecifieke dreigingspatronen. Daarnaast bieden we advies op het gebied van AI-beveiliging in het algemeen. Neem contact op voor de mogelijkheden.

Gemiddeld enkele tientallen milliseconds per request. Prompt Guard werkt gelaagd: zodra een van de detectielagen een hit geeft, krijg je direct een resultaat terug zonder alle lagen te doorlopen.

Prompt Guard is uitsluitend on-premise. Je draait het volledig binnen je eigen infrastructuur, zonder afhankelijkheid van externe services.

Nee. Prompt Guard draait lokaal binnen jouw infrastructuur, prompts verlaten je omgeving niet.

Omdat Prompt Guard volledig on-premise draait, ben je zelf in controle over alle data. Als jouw omgeving AVG-compliant is, is Prompt Guard dat ook. LTech Consultancy houdt bij alle werkzaamheden bedrijfsgegevens binnen Nederland.

Ja. Het model is getraind op aanvalsprompts in meerdere talen. Meertalig bereik wordt continu uitgebreid.

Ja. Prompt Guard werkt als model-agnostische middleware en inspecteert de prompt voordat die naar je LLM gaat. Het werkt met OpenAI, Google Gemini, Anthropic Claude en elk ander model.

Het model wordt dagelijks tot wekelijks bijgewerkt. Updates worden periodiek uitgerold zonder wijzigingen aan de API of integratie aan jouw kant. Bekende aanvalstechnieken of kwetsbaarheden kunnen direct ingestuurd worden, wat direct tot een modelverbetering kan leiden.