BREAKING
Staatshacker nutzen Google Gemini: Die dunkle Seite der GenAI-Revolution OpenClaw – Der AI-Security-Albtraum des Jahres

Amazon Q gehackt – Prompt Injection in KI-Coding-Tools wird real

Dirk Althaus
3 min read

Mitte Dezember 2025 wurde bekannt, dass ein Angreifer die offizielle Amazon Q VS-Code-Extension kompromittiert und Prompt-Injection-Code eingeschleust hat. Die manipulierte Version war zwei Tage lang öffentlich im Visual Studio Marketplace verfügbar – und bestand Amazons eigenen Verifizierungsprozess. Der Vorfall offenbart ein systemisches Problem: KI-Coding-Tools haben direkten Zugriff auf Quellcode und Infrastruktur, und Prompt Injection in diesen Tools hat reale, destruktive Konsequenzen.

Was passiert ist

Ein Sicherheitsforscher – kein böswilliger Akteur – modifizierte die Amazon Q Extension für Visual Studio Code. Er injizierte Prompts, die den KI-Assistenten anwiesen, lokale Dateien zu löschen und AWS-Cloud-Infrastruktur zu manipulieren. Die manipulierte Version wurde über den offiziellen VS Code Marketplace verteilt.

Entscheidend: Die manipulierte Extension passierte Amazons Verifizierung. Zwei Tage lang konnten Entwickler eine Version installieren, die potenziell ihren Quellcode löschen und ihre Cloud-Ressourcen angreifen konnte. Der Angreifer erklärte öffentlich, sein Motiv sei gewesen, Amazons „Security Theater“ zu entlarven – eine Sicherheitsarchitektur, die Prüfsiegel vergibt, ohne die tatsächliche Sicherheit zu gewährleisten.

Warum das Ausmaß alarmierend ist

Laut dem Stack Overflow Developer Survey 2025 nutzen 84 Prozent aller Entwickler KI-Coding-Tools. 51 Prozent setzen sie täglich ein. Diese Tools sind keine Randerscheinung – sie sind integraler Bestandteil moderner Softwareentwicklung. Und jedes einzelne hat prinzipiell Zugriff auf:

  • Den gesamten Quellcode des aktuellen Projekts
  • Terminal und Shell-Befehle
  • Konfigurationsdateien mit Zugangsdaten
  • Cloud-Credentials und API-Schlüssel
  • Git-Repositories und CI/CD-Pipelines

Ein kompromittiertes KI-Coding-Tool ist kein gewöhnlicher Malware-Befall. Es ist ein Angreifer mit Entwicklerrechten – in der IDE, am Code, in der Infrastruktur.

Kein Einzelfall: Schwachstellen in allen großen KI-Coding-Tools

Amazon Q ist nicht das einzige betroffene Tool. 2025 wurden Schwachstellen in praktisch jedem relevanten KI-Coding-Assistenten dokumentiert:

  • Cursor: Forscher demonstrierten, wie über manipulierte Code-Kommentare in einem Repository der KI-Assistent angewiesen werden konnte, Backdoors in generierten Code einzubauen – unsichtbar für den Entwickler.
  • GitHub Copilot: Indirect Prompt Injection über speziell präparierte Dateien im Repository. Copilot las die Anweisungen und fügte schädlichen Code in seine Vorschläge ein.
  • Google Gemini Code Assist: Ähnliche Angriffsvektoren über manipulierte Kontextdateien.
  • GitLab Duo: Prompt Injection über Merge-Request-Kommentare, die den KI-Assistenten zur Preisgabe von Quellcode aus privaten Repositories bewegten.

Das Muster ist identisch: Die Tools vertrauen dem Kontext, den sie einlesen. Und dieser Kontext ist manipulierbar. Wer die grundlegende Problematik verstehen möchte, findet in unserer Analyse zu Prompt Injection als strukturellem Problem die technischen Hintergründe.

CrowdStrike: Exploitation von Langflow AI

Parallel zum Amazon-Q-Vorfall beobachtete CrowdStrike die aktive Ausnutzung einer Code-Injection-Schwachstelle in Langflow AI – einem Open-Source-Framework zur Erstellung von LLM-Anwendungen. Angreifer nutzten die Schwachstelle, um über manipulierte Flows beliebigen Code auf den Servern auszuführen, auf denen Langflow lief.

Die Kombination ist toxisch: KI-Entwicklungstools werden sowohl als Angriffsvektor (Prompt Injection in der IDE) als auch als Angriffsziel (Exploitation von KI-Frameworks) genutzt. Die gesamte KI-Toolchain wird zur Angriffsfläche.

Das Kernproblem: Prompt Injection plus Systemzugriff

KI-Coding-Tools vereinen zwei Eigenschaften, die in Kombination gefährlich sind:

  1. Sie verarbeiten nicht vertrauenswürdige Eingaben. Code-Repositories, Pull Requests, Kommentare, Dokumentationen – all das kann manipulierte Inhalte enthalten.
  2. Sie haben direkten Systemzugriff. Dateien lesen und schreiben, Terminal-Befehle ausführen, Cloud-APIs aufrufen.

Diese Kombination bedeutet: Jede erfolgreiche Prompt Injection hat potenziell die Wirkung einer Remote Code Execution. Der Unterschied zu klassischen RCE-Schwachstellen: Es gibt keinen Patch, der das Problem grundsätzlich löst, weil die Fähigkeit, natürlichsprachliche Anweisungen auszuführen, die Kernfunktion des Tools ist.

Die architektonischen Antworten auf dieses Dilemma beschreiben wir in unserem Artikel zu Zero Trust für KI-Agenten: Least Privilege, Sandbox-Ausführung, menschliche Bestätigung für destruktive Aktionen.

Was Entwickler und Unternehmen tun sollten

  • Extensions und Plugins auditieren. Nur offizielle, signierte Versionen verwenden. Automatische Updates mit Bedacht – eine kompromittierte Auto-Update-Pipeline ist der perfekte Distributionskanal.
  • Least Privilege für KI-Tools. Kein KI-Assistent braucht Root-Zugang. Minimale Dateisystem- und Netzwerkberechtigungen konfigurieren.
  • Code Review bleibt Pflicht. KI-generierter Code muss denselben Review-Prozessen unterliegen wie menschlich geschriebener Code. Automatisierte Scans auf bekannte Schadmuster sind ein Minimum.
  • Secrets aus dem Kontext entfernen. Credentials, API-Keys und Tokens gehören nicht in Dateien, die von KI-Tools eingelesen werden. Vault-Lösungen und Umgebungsvariablen verwenden.
  • Monitoring einführen. Ungewöhnliche Dateioperationen, Netzwerkverbindungen oder Cloud-API-Aufrufe durch KI-Tools protokollieren und alarmieren.

Fazit

Der Amazon-Q-Vorfall ist kein Bug – er ist ein Designproblem. Solange KI-Coding-Tools nicht vertrauenswürdige Inhalte verarbeiten und gleichzeitig Systemzugriff besitzen, bleibt Prompt Injection ein existenzielles Risiko. Die Entwickler-Community muss akzeptieren, dass ihre produktivsten Werkzeuge gleichzeitig ihre größte Angriffsfläche sind.

Quellen

Teilen:
// Mission Critical

Woechentliches AI Security Briefing erhalten.

Fuer Analysten, Forscher und Verteidiger, die Bedrohungen im AI Stack verfolgen.

Kostenlos abonnieren

Verwandte Artikel