Künstliche Intelligenz verändert Geschäftsprozesse grundlegend – von Chatbots und LLM-Integrationen über automatisierte Entscheidungssysteme bis hin zu KI-Agenten mit direktem Tool-Zugriff. Doch mit den neuen Möglichkeiten entstehen auch neue Angriffsflächen, die klassische Sicherheitstests nicht abdecken.
Warum KI-Systeme eigene Sicherheitsprüfungen brauchen
Prompt Injection, Jailbreaking, adversariale Angriffe oder die Manipulation von Tool-Aufrufen über MCP Server – KI-spezifische Schwachstellen unterscheiden sich fundamental von klassischen IT-Risiken. Ein gezielter KI Pentest prüft genau diese Angriffsvektoren, bevor sie ausgenutzt werden.
Was wir prüfen
Unsere KI-Pentests orientieren sich am OWASP Top 10 for LLM Applications und an aktuellen Forschungsergebnissen der adversarialen KI-Sicherheit. Im Fokus stehen unter anderem:
- Prompt Injection & Jailbreaking (direkt und indirekt über eingebettete Datenquellen)
- Datenlecks aus Trainingsdaten und Systemprompts
- Adversariale Angriffe auf ML-Modelle und Entscheidungssysteme
- Model Extraction und Sicherheit der KI-Supply-Chain
- Agentic AI & Tool-Use-Sicherheit (MCP Server, Function Calling, Plugins)
EU AI Act: KI-Sicherheit wird zur Pflicht
Der EU AI Act verpflichtet Anbieter und Betreiber von Hochrisiko-KI-Systemen zu nachweisbaren Sicherheitsmaßnahmen. Robustheit gegen Manipulation, Transparenz und menschliche Aufsicht werden zu regulatorischen Anforderungen. Ein KI Pentest liefert den Nachweis, dass Ihre Systeme diesen Anforderungen standhalten.
Unser Vorgehen – in sieben Schritten
Von der Bedrohungsmodellierung über systematische Prompt-Injection-Tests und Robustheitsprüfungen bis hin zur Datenleck-Analyse und Infrastrukturprüfung: Sie erhalten am Ende einen detaillierten Bericht mit allen identifizierten Schwachstellen, Proof-of-Concept-Angriffen und priorisierten Härtungsempfehlungen.