Rongchai Wang
24.01.2026 00:07
EigenAI erreicht 100% reproduzierbare LLM-Ausgaben auf GPUs mit weniger als 2% Overhead und ermöglicht verifizierbare autonome AI Agents für Handel und Prognosemärkte.
EigenCloud hat seine EigenAI-Plattform im Mainnet veröffentlicht und behauptet, ein grundlegendes Problem zu lösen, das autonome KI-Systeme plagt: Man kann nicht verifizieren, was man nicht reproduzieren kann.
Die technische Leistung ist hier bedeutend. EigenAI liefert bit-genaue deterministische Inferenz auf Produktions-GPUs – was bedeutet, dass identische Eingaben über 10.000 Testläufe hinweg identische Ausgaben erzeugen – mit nur 1,8% zusätzlicher Latenz. Für jeden, der AI Agents entwickelt, die mit echtem Geld umgehen, ist das wichtig.
Warum LLM-Zufälligkeit Finanzanwendungen bricht
Führen Sie denselben Prompt zweimal durch ChatGPT aus. Unterschiedliche Antworten. Das ist kein Fehler – so funktioniert Gleitkomma-Mathematik auf GPUs. Kernel-Scheduling, variables Batching und nicht-assoziative Akkumulation führen alle zu winzigen Variationen, die sich zu unterschiedlichen Ausgaben summieren.
Bei Chatbots bemerkt es niemand. Bei einem KI-gesteuerten Handelsagenten, der mit Ihrem Kapital agiert? Bei einem Prognosemarkt-Orakel, das entscheidet, wer 200 Millionen Dollar an Wetten gewinnt? Die Inkonsistenz wird zur Haftung.
EigenCloud verweist auf Polymarkets berüchtigten „Hat Zelenskyy einen Anzug getragen?"-Markt als Fallstudie. Über 200 Millionen Dollar Volumen, Vorwürfe willkürlicher Auflösung, und letztendlich musste menschliche Governance eingreifen. Wenn Märkte skalieren, tut menschliche Urteilsfindung das nicht. Ein KI-Richter wird unvermeidlich – aber nur, wenn dieser Richter jedes Mal dasselbe Urteil produziert.
Der technische Stack
Die Erreichung von Determinismus auf GPUs erforderte die Kontrolle jeder Ebene. A100- und H100-Chips erzeugen unterschiedliche Ergebnisse für identische Operationen aufgrund architektonischer Unterschiede bei der Rundung. EigenAIs Lösung: Betreiber und Verifizierer müssen identische GPU-SKUs verwenden. Ihre Tests zeigten eine 100%ige Übereinstimmungsrate bei gleichartigen Architekturen, 0% architekturübergreifend.
Das Team ersetzte Standard-cuBLAS-Kernel durch benutzerdefinierte Implementierungen unter Verwendung von warp-synchronen Reduktionen und fester Thread-Reihenfolge. Keine Gleitkomma-Atomics. Sie bauten auf llama.cpp für seine kleine, überprüfbare Codebasis auf und deaktivierten dynamische Graphfusion und andere Optimierungen, die Variabilität einführen.
Die Leistungskosten liegen bei 95-98% des Standard-cuBLAS-Durchsatzes. Cross-Host-Tests auf unabhängigen H100-Knoten erzeugten identische SHA256-Hashes. Stresstests mit Hintergrund-GPU-Workloads, die Scheduling-Jitter verursachen? Immer noch identisch.
Verifizierung durch Ökonomie
EigenAI verwendet ein optimistisches Verifizierungsmodell, das von Blockchain-Rollups übernommen wurde. Betreiber veröffentlichen verschlüsselte Ergebnisse auf EigenDA, der Datenverfügbarkeitsschicht des Projekts. Ergebnisse werden standardmäßig akzeptiert, können aber während eines Streitfensters angefochten werden.
Bei Anfechtung führen Verifizierer innerhalb vertrauenswürdiger Ausführungsumgebungen erneut aus. Da die Ausführung deterministisch ist, wird die Verifizierung binär: Stimmen die Bytes überein? Nichtübereinstimmungen lösen Slashing vom gebundenen Stake aus. Der Betreiber verliert Geld; Herausforderer und Verifizierer werden bezahlt.
Das wirtschaftliche Design zielt darauf ab, Betrugsverhalten zu einem negativen Erwartungswert zu machen, sobald die Anfechtungswahrscheinlichkeit eine bestimmte Schwelle überschreitet.
Was jetzt gebaut wird
Die unmittelbaren Anwendungen sind unkompliziert: Prognosemarkt-Schiedsrichter, deren Urteile reproduziert und geprüft werden können, Handelsagenten, bei denen jede Entscheidung protokolliert und anfechtbar ist, und Forschungswerkzeuge, bei denen Ergebnisse durch erneute Ausführung statt durch Vertrauen peer-reviewed werden können.
Der breitere Trend hier stimmt mit wachsendem Unternehmensinteresse an deterministischer KI für compliance-lastige Sektoren überein. Gesundheitswesen, Finanzen und juristische Anwendungen fordern zunehmend die Art von Reproduzierbarkeit, die probabilistische Systeme nicht garantieren können.
Ob sich EigenAIs 2% Overhead für Hochfrequenzanwendungen als akzeptabel erweist, bleibt abzuwarten. Aber für autonome Agenten, die erhebliches Kapital verwalten, könnte die Fähigkeit, Ausführungsintegrität zu beweisen, die Leistungssteuer wert sein.
Das vollständige Whitepaper enthält formale Sicherheitsanalysen, Kernel-Design-Spezifikationen und Slashing-Mechaniken für diejenigen, die auf der Infrastruktur aufbauen.
Bildquelle: Shutterstock
Quelle: https://blockchain.news/news/eigenai-deterministic-inference-mainnet-launch


