InternetIntelligenz 2.0

kostenlos Pressemitteilungen einstellen | veröffentlichen | verteilen

Pressemitteilungen

 

Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden

ID: 2249392

(PresseBox) - Künstliche Intelligenz hat sich bereits zum zentralen Bestandteil moderner Unternehmensprozesse etabliert. Doch mit Agentic AI treten wir in ein ganz neues Zeitalter ein: autonome, handlungsfähige KI-Systeme, die eigenständig Entscheidungen treffen und Prozesse steuern. So verschiebt sich nicht nur die Rolle des KI-Tools hin zum «digitalen Mitarbeiter», sondern auch die Verantwortlichkeiten: neue Autonomie bringt auch neue Cyberrisiken mit sich, wer kümmert sich darum?

Von Privilegieneskalationüber unkontrollierte Datenexfiltration bis hin zu systemischen Sicherheitslücken – Agentic AI erweitert nicht nur Möglichkeiten, sondern auch die Angriffsfläche. Aktuelle Vorfälle zeigen: Agentic AI ist nicht nur ein Effizienztreiber, sondern kann auch zum Einfallstor für Angriffe und Missbrauch werden. Ein Beispiel ist der ServiceNow-Vorfall aus dem Januar 2026 (CVE-2025-12420). Ein hartcodierter, systemweiter Schlüssel ermöglichte es Angreifern, über dieVirtual-Agent-API Administratorrechte zu erlangen.

Doch dieser Fall ist kein Einzelfall– sondern ein Hinweis auf ein strukturelles Problem: Wenn grundlegende Sicherheitsprinzipien nicht konsequent umgesetzt werden, wird Agentic AI selbst zum Risiko.

Reale Risiken mit Agentic AI: Aktuelle Vorfälle und Einordnung

Aktuelle Vorfälle zeigen, dass Agentic AI neue Angriffspfade eröffnet – insbesondere durch Privilegieneskalation, manipulierte Entscheidungslogik und kompromittierte Agenten:

1. Privilegieneskalation durch Agenten

ServiceNow (Januar 2026, CVE-2025-12420): Ein hartcodierter Schlüssel in der Virtual-Agent-API ermöglichte Angreifern, Administratorrechte zu erlangen. ? Ein klassischer Agent-to-Agent-Angriff (A2A).





Microsoft Copilot (EchoLeak, CVE-2025-32711): Durch manipulierte Prompts konnten Angreifer sensible Daten extrahieren und Berechtigungen erweitern.

Langflow (CVE-2025-3248): Eine Code-Injection in AI-Agenten führte zur vollständigen Kompromittierung der AI-Infrastruktur und angebundener Systeme. 

2. Datenexfiltration und -manipulation

Reconciliation Agent bei einem Finanzdienstleister (2024)

Eine scheinbar normale Business-Anfrage brachte einen «Reconciliation Agent» dazu, 45.000 Kundendatensätze zu exportieren. Die AI erkannte die Manipulation nicht, weil die Anfrage «geschäftsüblich» formuliert war.

Kompromittierte Open-Source-Frameworks

Veränderte Agenten-Frameworks installierten Backdoors, die erst nach Monaten entdeckt wurden – mit entsprechend langer unbemerkter Datenabflusssituation.

3. Supply-Chain-Risiken in der AI-Lieferkette

Salt Typhoon (2024–2025)

Staatliche Akteure nutzten die AI-Supply-Chain, um Agenten-Frameworks zu kompromittieren und sich so persistenten Zugang zu Unternehmensnetzwerken zu verschaffen.

4. Prompt Injection und Missbrauch von Tools

Prompt Injection bei gängigen Plattformen

Schädliche Prompts manipulierten AI-Agenten und führten von Datenabflüssen bis zur Ausführung bösartiger Skripte. Betroffen waren u.a. GitHub Copilot, Salesforce Einstein und ChatGPT.

Missbrauch von Non-Human Identities (NHI)

Kompromittierte Agenten-Credentials gewährten Angreifern über Wochen unentdeckten Zugriff auf Systeme (NHI Compromise).

Warum klassische Sicherheitsmassnahmen versagen

Agentic AIöffnet neue Angriffsvektoren, die von traditionellen Security-Controls nicht erfasst werden:

Autonomie

Agenten handeln eigenständig, oft ohne laufende menschliche Kontrolle oder Freigabe.

Komplexität

Multi-Agenten-Systeme, Shared Service Accounts und dynamische Workflows erschweren die Zuordnung von Aktionen und Verantwortlichkeiten.

Dynamik

AI-Agenten lernen, kombinieren Tools und interagieren miteinander; Sicherheitslücken entstehen durch unvorhergesehene Interaktionen – nicht nur durch klassischen Code. 

Unternehmen, die AI-Agenten wie klassische Software behandeln, riskieren stille Kompromittierung, laterale Bewegung und Compliance-Verstösse.

Verantwortungskultur und Agentic AI Security Awareness

Agentic AI verändert nicht nur Technologie, sondern auch Verantwortung. Wer AI-Agenten sicher einsetzen will, braucht eine klare Governance, neue Rollen und gezielte Sensibilisierung.

Die Rolle des «AI Steward»: Verantwortlich für sichere AI-Agenten

Der AI Steward ist zentrale Ansprechperson für Agentic AI Security und Governance, mit den Kernaufgaben:

Risikobewertung vor dem Deployment von AI-Agenten

Laufende Audits von Agenten-Aktivitäten und Logs

Compliance-Checks (CH DSG, EU DSGVO, ISO 27001, NIST AI RMF)

Analyse von Prompts und Policies zur Erkennung von Datenlecks und Prompt Injection

Diese Rolle ist der Dreh- und Angelpunkt für Agentic AI Security Awareness im Unternehmen.

Automatisierte Security-Controls für AI-Agenten

Für Agentic AI braucht es automatisierte Sicherheitskontrollen, die:

Agenten-Workflows und Tool-Nutzung in Echtzeitüberwachen 

Compliance- und Policy-Verstösse erkennen 

Prompts und Antworten auf sensible Inhalte und Anomalien prüfen

Zentral ist dabei ein Zero-Trust-Ansatz für AI-Agenten: Jede Aktion muss autorisiert, protokolliert und konsequent nach dem Prinzip der geringsten Berechtigung (Least Privilege) beschränkt werden.

AI Risk&Security Awareness

Schulung, Kulturwandel und AI Security Awareness

Technische Kontrollen genügen nicht – Sicherheitskultur ist entscheidend:

Mitarbeitende sensibilisieren: AI-Agenten sind keine «Black Boxes». Teams müssen verstehen, welche Daten in Prompts fliessen, welche Risiken Agenten-Tools haben und wie Agentic AI missbraucht werden kann.

Gezielte AI Security AwarenessKI-Sicherheitsbewertungen, Schulungen zu Themen wie Prompt Injection, Datenexfiltration, Agenten-Berechtigungen, Non-Human Identities (NHI) und verantwortungsvollem Umgang mit AI-Tools.

Regelmässige Penetrationstests für AI-Systeme: Spezialisierte AI-Pentests und Red-Teaming-Übungen, um Schwachstellen in Agenten-Workflows, Tool-Integrationen und Sicherheitskontrollen frühzeitig zu finden.

Organisationen, die Verantwortungskultur, AI Stewardship und Agentic AI Security Awareness verankern, reduzieren nicht nur das Risiko von Vorfällen – sie schaffen die Grundlage für vertrauenswürdige, skalierbare AI-Agenten im Unternehmen.

Best Practices: Was Unternehmen JETZT tun müssen

Wir empfehlen folgende technische Massnahmen für Unternehmen:

Secrets Management: Keine hardcodierten Secrets, konsequenter Einsatz sicherer Vaults. 

MFA für alle AI-Interaktionen: Insbesondere bei Account-Linking, API-Zugriffen und Agent-Konfiguration. 

Automatisierte Code-Reviews: Sicherheitsprüfungen für Agenten-Code, Policies und Workflows. 

Deprovisioning inaktiver Agents: «Zombie-AI» konsequent abschalten, um versteckte Einfallstore zu vermeiden.

Sandboxing: Isolierte Ausführungsumgebungen für AI-Agenten, um Privilegieneskalation und Seitwärtsbewegungen zu begrenzen.

Organisatorische Massnahmen für Unternehmen:

AI Stewardship-Rolle etablieren: Klare Verantwortlichkeit für Agentic AI Security und Governance. 

Transparenzprotokolle: Entscheidungen und Aktionen von AI-Agenten müssen lückenlos nachvollziehbar sein. 

Notfallpläne für AI-Vorfälle: Definierte Playbooks, wenn ein Agent kompromittiert oder missbraucht wird. 

Regelmässige Audits: Einsatz von Frameworks wie AI CSA und OWASP Agentic AI Top 10 als Leitlinien.

Kulturelle Massnahmen:

AI wie «Wet Paint» behandeln: Grundprinzip  «Nicht vertrauen, immer verifizieren» – auch bei eigenen Agenten.

Regelmässige Awareness-Trainings: Agentic-AI-Risiken als fester Bestandteil der Security Culture.

«Governance First»-Ansatz: Bevor AI skaliert wird, müssen Richtlinien, Rollen und Kontrollmechanismen stehen.

Fazit: Agentic AI, Fluch oder Segen?

Die entscheidende Frage ist nicht, ob AI sicher ist, sondern ob wir sie sicher gestalten. Agentic AI bietet enorme Chancen– vorausgesetzt, Unternehmen nehmen die Risiken ernst und handeln jetzt.

Konkret heisst das:

Sicherheitsstandards für AI-Agenten definieren

Orientierung an Frameworks wie OWASP, NIST AI RMF, CSA Mythos-Ready-Leitfaden und den OECD AI Principles.

Verantwortung klar zuweisen

Etablierung von AI Stewardship und Einbindung von Compliance- und Security-Teams.

Transparenz und Kontrolle verankern

Entscheidungen und Aktionen von AI-Agenten müssen nachvollziehbar, überprüfbar und steuerbar sein.

So wird Agentic AI nicht zum Risiko, sondern zu einem vertrauenswürdigen strategischen Vorteil.

AI Risk&Security Awareness

Unternehmensinformation / Kurzprofil:
drucken  als PDF  an Freund senden  Atlantik Elektronik GmbH präsentiert Lösungen für Standortüberwachung Rundum versorgt mit RESOL
Bereitgestellt von Benutzer: PresseBox
Datum: 06.05.2026 - 12:10 Uhr
Sprache: Deutsch
News-ID 2249392
Anzahl Zeichen: 0

Kontakt-Informationen:
Ansprechpartner: Estelle Ouhassi
Stadt:

Baar


Telefon: +41 (41) 74919-00

Kategorie:

IT, New Media & Software



Dieser Fachartikel wurde bisher 3 mal aufgerufen.


Der Fachartikel mit dem Titel:
"Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden"
steht unter der journalistisch-redaktionellen Verantwortung von

InfoGuard AG (Nachricht senden)

Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).


Alle Meldungen von InfoGuard AG



 

Wer ist Online

Alle Mitglieder: 50.297
Registriert Heute: 0
Registriert Gestern: 0
Mitglied(er) online: 0
Gäste Online: 116


Bitte registrieren Sie sich hier. Als angemeldeter Benutzer nutzen Sie den vollen Funktionsumfang dieser Seite.