{"id":2531,"date":"2025-09-17T16:14:55","date_gmt":"2025-09-17T14:14:55","guid":{"rendered":"https:\/\/blog.eprivacy.eu\/?p=2531"},"modified":"2025-09-17T16:16:30","modified_gmt":"2025-09-17T14:16:30","slug":"sicherheit-von-ki-systemen-prompt-injections","status":"publish","type":"post","link":"https:\/\/blog.eprivacy.eu\/?p=2531&lang=de","title":{"rendered":"Sicherheit von KI-Systemen \u2013 Prompt Injections"},"content":{"rendered":"\n<p>Prompt Injection ist die Bezeichnung eines speziellen Cyber-Angriffes. Hierbei werden LLMs (\u201eLarge Language Models\u201c), die auf generativer\u00a0<a href=\"https:\/\/t5baa4d95.emailsys1a.net\/c\/107\/8593578\/0\/0\/0\/560280\/450f2f6e23.html?testmail=yes\">KI<\/a>\u00a0basieren, so manipuliert, dass sie aus vorgegebenen Rollen ausbrechen, und neue Anweisungen ausf\u00fchren.<br>\u00a0<br>Dabei werden zum Beispiel \u00fcber ein Prompt Dokumente an die KI gegeben in denen Befehle versteckt sind, die bei blo\u00dfem Ansehen nicht zu erkennen sind. Das unsichtbare Unicode-Symbole sein, die eine Maschine wiederum als Text interpretiert. M\u00f6glich w\u00e4re auch, Schriftzeichen wei\u00df einzuf\u00e4rben und sie so f\u00fcr den Leser unkenntlich zu machen.<br>\u00a0<br>Durch\u00a0solche Befehle k\u00f6nnen folgende Bedrohungen entstehen:<\/p>\n\n\n\n<ul><li>Ein KI-Chatbot wird angewiesen, sensible Unternehmensdaten auszugeben.Dies kann auch eine Datenschutzverletzung zur Folge haben.<\/li><li>Die KI wird angeleitet, Malware zu entwickeln, die dem Unternehmen schadet.<\/li><li>Die KI wird gezielt mit falschen Informationen trainiert, um diese so zu verbreiten.<\/li><li>Die KI kann dazu genutzt werden, um den Nutzer auszuspionieren.<\/li><\/ul>\n\n\n\n<p>Dies kann insbesondere bei KI-Agenten passieren, die auf unternehmenseigene Datenzugreifen k\u00f6nnen.<br>\u00a0<br>Die Branche arbeitet an L\u00f6sungen f\u00fcr diese Probleme, aber wenn autonomen KI-Agenten sollen m\u00f6glichst eigenst\u00e4ndig immer komplexere Aufgaben \u00fcbernehmen, sind L\u00f6sungen schwierig. Je mehr externe Anwendungen sich ansteuern lassen, desto gef\u00e4hrlicher werden die Folgen einer Prompt Injection. Ein Angreifer in Chatbots mit Schwachstellen kann nicht nur Chats mitlesen, sondern auch angedockte Tools aufrufen, zum Beispiel eine interne Firmendatenbank mit den Mitarbeiterinformationen<br>\u00a0<br>Und schon heute handeln KI-Agenten in Unternehmen autonomer, als so manchem Kollegen lieb ist. Manche KI-basierten Meeting-Assistenten k\u00f6nnen automatisch Meetings betreten und Gespr\u00e4che mitschneiden, ohne dass Beteiligten davon wissen, was eine Datenschutzverletzung darstellen w\u00fcrde. Unternehmen m\u00fcssen gut durchdenken, wie sie solche KI-Systeme einsetzen und \u00fcberwachen k\u00f6nnen. Dazu muss der Nutzer mehr Transparenz und Entscheidungsgewalt bekommen. So kann zum Beispiel<br>die KI jedes Mal mitteilen, was f\u00fcr eine Aktion ausgef\u00fchrt werden soll und fragen, ob die Aktion wirklich umgesetzt werden soll. Allerdings macht es wenig Sinn, bei allen Aktionen vorab um Erlaubnis zu fragen, da die autonomen KI-Agenten dann nicht mehr selbst\u00e4ndig die Arbeit erledigen.<br>\u00a0<br>Die Manipulation von KI-Systemen ist bereits allt\u00e4glicher, als mancher KI-Nutzer vermutet.<br>Nicht immer geht es darum, personenbezogene Daten oder andere sensible Daten abzugreifen. Manchmal geht es schlicht darum, die Systeme so zu manipulieren, dass sie bestimmte Informationen erzeugen und weitergeben.<br>\u00a0<br>Prompt Injections sind nur ein Teilbereich der Sicherheit von KI-Systemen. Auch<br>Phishing-Angriffe der KI kommen h\u00e4ufiger vor. Gleichzeitig hilft aber andererseits die KI, Systeme besser zu sch\u00fctzen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Prompt Injection ist die Bezeichnung eines speziellen Cyber-Angriffes. Hierbei werden LLMs (\u201eLarge Language Models\u201c), die auf generativer\u00a0KI\u00a0basieren, so manipuliert, dass sie aus<\/p>\n<p class=\"link-more\"><a class=\"myButt \" href=\"https:\/\/blog.eprivacy.eu\/?p=2531&#038;lang=de\">Read More<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[10],"tags":[],"_links":{"self":[{"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=\/wp\/v2\/posts\/2531"}],"collection":[{"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=2531"}],"version-history":[{"count":2,"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=\/wp\/v2\/posts\/2531\/revisions"}],"predecessor-version":[{"id":2533,"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=\/wp\/v2\/posts\/2531\/revisions\/2533"}],"wp:attachment":[{"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=2531"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=2531"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.eprivacy.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=2531"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}