Rongchai Wang
24 sty 2026 00:07
EigenAI osiąga 100% powtarzalnych wyników LLM na GPU z narzutem poniżej 2%, umożliwiając weryfikowalne autonomiczne agenty AI dla handlu i rynków predykcyjnych.
EigenCloud udostępnił swoją platformę EigenAI w sieci głównej, twierdząc, że rozwiązał fundamentalny problem nękający autonomiczne systemy AI: nie można zweryfikować tego, czego nie można odtworzyć.
Osiągnięcie techniczne jest znaczące. EigenAI dostarcza deterministyczne wnioskowanie z dokładnością bitową na produkcyjnych GPU — co oznacza, że identyczne dane wejściowe generują identyczne dane wyjściowe w 10 000 przebiegów testowych — z zaledwie 1,8% dodatkowym opóźnieniem. Dla każdego, kto buduje agenty AI obsługujące prawdziwe pieniądze, to ma znaczenie.
Dlaczego losowość LLM niszczy aplikacje finansowe
Uruchom ten sam prompt przez ChatGPT dwa razy. Różne odpowiedzi. To nie jest błąd — tak działają operacje zmiennoprzecinkowe na GPU. Planowanie jądra, zmienne grupowanie i nieprzemienne akumulowanie wprowadzają drobne różnice, które nawarstwiają się w różne wyniki.
W przypadku chatbotów nikt tego nie zauważa. Ale dla agenta handlowego AI wykonującego operacje z twoim kapitałem? Dla wyroczni rynku predykcyjnego decydującej, kto wygra 200 milionów dolarów w zakładach? Niespójność staje się problemem.
EigenCloud wskazuje na niesławny rynek Polymarket „Czy Zełenski założył garnitur?" jako studium przypadku. Ponad 200 milionów dolarów wolumenu, oskarżenia o arbitralną rezolucję i ostatecznie musiało wkroczyć ludzkie zarządzanie. Gdy rynki się skalują, ludzkie rozstrzyganie nie nadąża. Agent AI staje się nieunikniony — ale tylko wtedy, gdy ten sędzia wydaje ten sam werdykt za każdym razem.
Stos techniczny
Osiągnięcie determinizmu na GPU wymagało kontrolowania każdej warstwy. Chipy A100 i H100 generują różne wyniki dla identycznych operacji z powodu różnic architektonicznych w zaokrąglaniu. Rozwiązanie EigenAI: operatorzy i weryfikatorzy muszą używać identycznych SKU GPU. Ich testy wykazały 100% zgodności na uruchomieniach tej samej architektury, 0% między architekturami.
Zespół zastąpił standardowe jądra cuBLAS niestandardowymi implementacjami wykorzystującymi redukcje synchroniczne warp i ustalone kolejności wątków. Brak atomowych operacji zmiennoprzecinkowych. Zbudowali na llama.cpp ze względu na małą, audytowalną bazę kodu, wyłączając dynamiczne łączenie grafów i inne optymalizacje, które wprowadzają zmienność.
Koszt wydajności wynosi 95-98% standardowej przepustowości cuBLAS. Testy między hostami na niezależnych węzłach H100 wygenerowały identyczne hashe SHA256. Testy obciążeniowe z obciążeniami GPU w tle powodującymi niestabilność planowania? Nadal identyczne.
Weryfikacja poprzez ekonomię
EigenAI wykorzystuje optymistyczny model weryfikacji zapożyczony z rollupów blockchain. Operatorzy publikują zaszyfrowane wyniki w EigenDA, warstwie dostępności danych projektu. Wyniki są akceptowane domyślnie, ale mogą być zakwestionowane w oknie spornym.
Jeśli zostaną zakwestionowane, weryfikatorzy ponownie wykonują w zaufanych środowiskach wykonawczych. Ponieważ wykonanie jest deterministyczne, weryfikacja staje się binarna: czy bajty się zgadzają? Niezgodności uruchamiają cięcie z zabezpieczonej stawki. Operator traci pieniądze; challengers i weryfikatorzy otrzymują płatność.
Projekt ekonomiczny ma na celu uczynienie oszustwa ujemną wartością oczekiwaną, gdy prawdopodobieństwo zakwestionowania przekroczy pewien próg.
Co teraz powstaje
Natychmiastowe zastosowania są proste: arbitrzy rynków predykcyjnych, których werdykty można odtworzyć i audytować, agenty handlowe, w których każda decyzja jest rejestrowana i może być zakwestionowana, oraz narzędzia badawcze, w których wyniki mogą być recenzowane przez ponowne wykonanie, a nie zaufanie.
Szerszy trend jest zgodny z rosnącym zainteresowaniem przedsiębiorstw deterministyczną AI w sektorach wymagających zgodności. Opieka zdrowotna, finanse i aplikacje prawne coraz częściej wymagają rodzaju powtarzalności, której systemy probabilistyczne nie mogą zagwarantować.
Czy 2% narzut EigenAI okaże się akceptowalny dla aplikacji o wysokiej częstotliwości, pozostaje do zobaczenia. Ale dla autonomicznych agentów zarządzających znacznym kapitałem, możliwość udowodnienia integralności wykonania może być warta podatku wydajnościowego.
Pełny whitepaper szczegółowo opisuje formalną analizę bezpieczeństwa, specyfikacje projektu jądra i mechanikę cięć dla tych, którzy budują na infrastrukturze.
Źródło obrazu: Shutterstock
Źródło: https://blockchain.news/news/eigenai-deterministic-inference-mainnet-launch

