Начало 2026 года широко рекламировалось как "Год ИИ-агента". Вместо простых чат-ботов эти новые системы, созданные с использованием фреймворков, таких как OpenClaw, предназначены для реальных действий: подписания транзакций, управления портфелями и самостоятельного выполнения торговых стратегий. Концепция была простой: автономная система, способная запускать финансовые стратегии с минимальным участием человека или вообще без него.
Но реальность оказывается более сложной. Ранние эксперименты и несколько громких технических сбоев поднимают вопросы о том, насколько надежны эти системы на самом деле. ИИ может торговать быстрее людей, но это не всегда означает, что он торгует лучше. В одном случае простая ошибка с десятичной запятой, как сообщается, привела к потере 441 000 $, в то время как некоторые флагманские модели, включая GPT-5, потеряли более половины своего торгового капитала в течение нескольких недель. На данный момент идея о том, что ИИ-агенты могут стабильно генерировать торговую альфу, серьезно проверяется.
В феврале 2026 года криптосообщество стало свидетелем кошмарного сценария. Lobstar Wild, ИИ-агент, разработанный исследователем Open AI, был задействован для распределения небольших токеновых вознаграждений членам сообщества. Из-за сбоя сеанса и последующей "ошибки парсинга" в отношении десятичных знаков агент потерял информацию о состоянии своего кошелька.
После перезагрузки вместо отправки нескольких долларов он автономно подписал транзакцию на 52 миллиона токенов — примерно 5% от общего предложения — стоимостью 441 000 $. Средства были отправлены на случайный адрес, что выявило критический недостаток: когда ИИ имеет право подписывать транзакции без "человека в цепи", простая ошибка превращается в финансовую катастрофу.
Чтобы выяснить, были ли эти ошибки изолированными случаями, платформа NOV1.ai запустила систематический эксперимент в конце 2025 года. Шести ведущим моделям ИИ было предоставлено по 1 000 $ каждой для торговли криптовалютными бессрочными контрактами на Hyperliquid в течение 17 дней без вмешательства человека.
| Модель ИИ | Доходность (17 дней) | Профиль поведения |
|---|---|---|
| Qwen | +22% | Дисциплинированная; мало сделок; строгий стоп-лосс/тейк-профит. |
| DeepSeek | +5% | Умеренная активность; следовала четким трендам. |
| Claude | -31% | Непоследовательное исполнение. |
| Grok | -45% | Трейдер "FOMO"; следовала за настроениями Twitter слишком поздно. |
| Gemini | -57% | Чрезмерная торговля; 238 сделок за 17 дней (высокие комиссии). |
| GPT-5 | -62% | Паралич анализа; колебалась при выигрышных сигналах. |
Результаты были шокирующими. Флагманская модель GPT-5 потеряла более половины своего капитала. Данные показывают, что ИИ-агенты часто воспроизводят худшие человеческие торговые привычки: Gemini действовала как чрезмерно активный дневной трейдер, Grok стала жертвой хайпа в социальных сетях, а GPT-5 страдала от "паралича анализа".
Внедрение растет быстро; например, Crypto.com недавно интегрировал OpenClaw в свою экосистему, чтобы предоставить пользователям управляемых ИИ торговых ассистентов. Однако простота развертывания привела к значительным пробелам в безопасности.
Компания по безопасности Consensus недавно обнаружила более 21 000 общедоступных экземпляров OpenClaw, которые были полностью не аутентифицированы. Это означает, что ключи API, доступ к кошелькам и журналы чатов были открыты в интернете.
Кроме того, анализ Clawhub (репозитория "навыков" агентов) показал, что из 3 000 навыков, внесенных сообществом, 341 содержал вредоносный код. К ним относятся:
Использование готового торгового бота без аудита кода в настоящее время является одним из самых быстрых способов потерять ваш Bitcoin или другие активы.
Торговля с использованием ИИ в 2026 году — это мощный инструмент, но это не кнопка "быстрого обогащения". Вывод из недавней волатильности ясен:


