Forscher der University of California haben entdeckt, dass einige Drittanbieter-Router für große KI-Sprachmodelle (LLM) Sicherheitslücken aufweisen können, die zu Krypto-Diebstahl führen können.
Ein am Donnerstag von den Forschern veröffentlichtes Papier zur Messung bösartiger Zwischenangriffe auf die LLM-Lieferkette enthüllte vier Angriffsvektoren, darunter die Injektion von Schadcode und die Extraktion von Anmeldedaten.
„26 LLM-Router injizieren heimlich bösartige Tool-Aufrufe und stehlen Anmeldedaten", sagte der Co-Autor des Papiers, Chaofan Shou, auf X.
LLM-Agenten leiten Anfragen zunehmend über Drittanbieter-API-Vermittler oder Router weiter, die den Zugang zu Anbietern wie OpenAI, Anthropic und Google bündeln. Diese Router beenden jedoch Internet-TLS-Verbindungen (Transport Layer Security) und haben vollständigen Klartextzugriff auf jede Nachricht.
Dies bedeutet, dass Entwickler, die KI-Codierungsagenten wie Claude Code verwenden, um an Smart-Contract (Intelligenter Vertrag) oder Wallets zu arbeiten, private Schlüssel, Seed-Phrasen und sensible Daten über Router-Infrastrukturen weitergeben könnten, die nicht überprüft oder gesichert wurden.
Multi-Hop-LLM-Router-Lieferkette. Quelle: arXiv.org
ETH aus einer Köder-Krypto-Wallet gestohlen
Die Forscher testeten 28 kostenpflichtige Router und 400 kostenlose Router, die aus öffentlichen Communities gesammelt wurden.
Ihre Erkenntnisse waren alarmierend: Neun Router injizierten aktiv Schadcode, zwei setzten adaptive Ausweichauslöser ein, 17 griffen auf Amazon Web Services-Anmeldedaten der Forscher zu, und einer entleerte Ether (ETH) aus einem privaten Schlüssel eines Forschers.
Verwandt: Anthropic beschränkt Zugang zu KI-Modell wegen Cyberangriffsbedenken
Die Forscher finanzierten Ethereum-Wallet-„Köder-Schlüssel" mit nominalen Guthaben vor und berichteten, dass der im Experiment verlorene Wert unter 50 $ lag, aber keine weiteren Details wie der Transaktions-Hash wurden bereitgestellt.
Die Autoren führten auch zwei „Poisoning-Studien" durch, die zeigten, dass selbst gutartige Router gefährlich werden, sobald sie durchgesickerte Anmeldedaten über schwache Relais wiederverwenden.
Schwer zu erkennen, ob Router bösartig sind
Die Forscher sagten, es sei nicht einfach zu erkennen, wann ein Router bösartig ist.
Ein weiterer beunruhigender Befund war das, was die Forscher „YOLO-Modus" nannten. Dies ist eine Einstellung in vielen AI Agent-Frameworks, bei der der Agent Befehle automatisch ausführt, ohne den Benutzer zu bitten, jeden einzelnen zu bestätigen.
Zuvor legitime Router können stillschweigend bewaffnet werden, ohne dass der Betreiber es überhaupt weiß, während kostenlose Router möglicherweise Anmeldedaten stehlen, während sie günstigen API-Zugang als Köder anbieten, fanden die Forscher heraus.
Die Forscher empfahlen, dass Entwickler, die AI Agent zum Codieren verwenden, die clientseitigen Abwehrmaßnahmen stärken sollten, und schlugen vor, niemals private Schlüssel oder Seed-Phrasen durch eine AI Agent-Sitzung zu übertragen.
Die langfristige Lösung besteht darin, dass KI-Unternehmen ihre Antworten kryptografisch signieren, sodass die Anweisungen, die ein Agent ausführt, mathematisch als vom tatsächlichen Modell stammend verifiziert werden können.
Magazin: Niemand weiß, ob quantensichere Kryptografie überhaupt funktionieren wird
- #Ethereum
- #AI
- #Cybercrime
- #Cybersecurity
- #AI & Hi-Tech







