ПредысторияУдивительно, что про Telegram Cocoon почти нет практической информации, кроме той, что есть на GitHub и на официальном сайте. В разных СМИ много общеПредысторияУдивительно, что про Telegram Cocoon почти нет практической информации, кроме той, что есть на GitHub и на официальном сайте. В разных СМИ много обще

О том как подключить Open WebUI и Cline к Telegram Cocoon

Предыстория

Удивительно, что про Telegram Cocoon почти нет практической информации, кроме той, что есть на GitHub и на официальном сайте. В разных СМИ много общей информации о запуске сети, но почти ничего о реальном пользовательском опыте.

Я решил потратить немного времени и разобраться, что на самом деле происходит в сети, как она работает и, самое главное, могу ли я как разработчик использовать её уже сегодня. Поэтому в этой статье я рассматриваю Cocoon с точки зрения разработчика: как установить и как пользоваться.

Сервис Telegram Cocoon - это децентрализованный инференс ИИ: инфраструктура Cocoon используется для запуска готовых open-source моделей. Владельцы GPU предоставляют вычислительные мощности через Cocoon Worker, а разработчики, которые хотят интегрировать ИИ в свои приложения, подключаются через Cocoon Client. И клиент, и воркеры подключаются к Cocoon Proxy, который распределяет нагрузку — то есть маршрутизирует запросы от клиента между воркерами. Клиент оплачивает запросы в Toncoin, а воркеры получают вознаграждение за вычетом комиссии прокси, которая сейчас составляет около 5%.

В теории все счастливы. Но, как мы дальше увидим, в сети Cocoon сейчас фактически работают всего две модели: Qwen3-32B и Seed-X-PPO-7B и около четырех воркеров. Судя по назначению, Seed-X-PPO-7B используется в основном для переводов, а Qwen3-32B, как более универсальная модель - для выжимки из текста. Этого недостаточно, чтобы рассматривать Cocoon как полноценную замену моделям OpenAI в сценариях вроде Cline и WebUI: да, всё запускается и им можно пользоваться, но на практике продуктивнее будут даже бесплатные версии ChatGPT, Gemini и т. п.

При этом, если в Cocoon начнут быстро добавлять сильные open-source модели по низкой цене, то благодаря открытости платформы он вполне сможет конкурировать с проприетарными решениями. Но на текущий момент складывается ощущение, что система в первую очередь используется самим Telegram, чтобы закрывать свои внутренние задачи.

В чём плюс Cocoon? Во-первых, заявляется, что никто не сможет подсмотреть, о чём пользователь общается с моделью, кроме владельца клиента. Во-вторых, отдельного пользователя сложно заблокировать. В-третьих, это децентрализованная платформа, которая в теории должна дать доступ к любым open-source моделям по низкой цене. В-четвёртых, для разработчика важно, что у клиента есть OpenAI-похожий API: можно подключать его к привычным инструментам почти без переделок, просто поменяв base URL. И, в-пятых, без подписок - оплата за TON только за реальные запросы.

Практическая часть

То, что мы хотим получить, выглядит так:

WebUI/Cline -> Cocoon Client (OpenAI API) -> Proxy -> Workers (GPU) -> Model

Мы установим Cocoon Client и подключим к нему open-source чат-окно Open WebUI, чтобы “болтать” с моделью, а на бэкграунде Cocoon будет отвечать напрямую. Потом подключим Cocoon к агенту Cline в Visual Studio Code и попробуем написать работающюю программу.

Запуск Cocoon Client

Начнём с установки Cocoon Client. Проект Cocoon использует Intel TDX (Confidential Computing), и на Ubuntu 25.10 это поддерживается из коробки, поэтому для простоты я буду использовать именно её. При этом нам не принципиально, поддерживает процессор TDX или нет, в нашем сценарии это не критично. Кому интересно, вот репозиторий от Canonical про TDX: https://github.com/canonical/tdx

Сразу скажу, из коробки клиент у меня не запускался и падал с ошибками, связанными с TEE/TDX. Большинство VPS-провайдеров не поддерживают полноценную проверку TEE, поэтому я запускаю клиент с отключёнными проверками. Open WebUI тоже сначала не работал, пока я не добавил заголовки application/json в ответе.

Сначала установим все зависимости, тут не только для Cocoon, но и для Open WebUI/Cline

sudo apt-get update && sudo apt-get install -y \ zlib1g-dev \ libjemalloc-dev \ libssl-dev \ liblz4-dev \ libsodium-dev \ libreadline-dev \ apache2-utils \ autoconf \ automake \ libtool \ pkg-config

Дальше скачиваем проект:

git clone --recursive https://github.com/TelegramMessenger/cocoon.git

Как я упоминал выше, я написал небольшой патч, чтобы Cocoon Client нормально работал с WebUI/Cline и запускался в случае, если Confidential Computing (TDX/TEE) не поддерживается:

https://gist.github.com/raiym/d5e916e915cb3e146d3b46d4a50344f8

Применяем патч.

git apply cocoon.patch

Качаем конфиг сети с официального сайта проекта:

curl -o spec/mainnet-full-ton-config.json https://cocoon.org/resources/mainnet.cocoon.global.config.json

Дальше создаем конфиг уникальный для клиента снова в рут папке проекта client.conf:

[node] type = client owner_address = UQAKPq2DV...HX4YpjBd node_wallet_key = N4Y/5.../2ryRygu/6c= root_contract_address = EQCns7bYSp0igFvS1wpb5wsZjCKCV19MD5AVzI4EyxsnU73k ton_config = spec/mainnet-full-ton-config.json instance = 0

Заметьте, что owner_address у вас должен быть свой, этот TON кошелек контроллирует клиент (но я как создал его больше не использовал).

Дальше node_wallet_key это просто набор случайных 32 байт конвертированных в base64 формат, может быть любой, на основе этого случайного числа генерируется адрес кошелька клиента в TON.

head -c 32 /dev/urandom | base64 N4Y/5.../2ryRygu/6c=

Далее, root_contract_address - это адрес root-контракта Cocoon в сети TON. В нём хранится конфигурация сети: например, список Proxy и параметры экономики (цены/мультипликаторы токенов и т. п.). На момент написания в сети фактически один Proxy по IP 91.108.4.11 с двумя портами (хотя может это Anycast IP): :5222 и :8888 — к одному подключаются воркеры, к другому клиенты.

Дальше запускаем, скрипт скомпилирует за нас:

COCOON_ROUTER_POLICY=any COCOON_SKIP_TDX_USERCLAIMS=1 COCOON_SKIP_PROXY_HASH=1 COCOON_CLIENT_VERBOSITY=3 ./scripts/cocoon-launch client.con

В следующий раз можно пропустить компиляцию:

COCOON_ROUTER_POLICY=any COCOON_SKIP_TDX_USERCLAIMS=1 COCOON_SKIP_PROXY_HASH=1 COCOON_CLIENT_VERBOSITY=3 ./scripts/cocoon-launch client.conf --skip-build

После запуска в логах появится адрес кошелька в TON, который нужно пополнить, чтобы получить доступ к моделям. Я пополнил его на 30 TON. Из них 15 TON уходит в депозит — насколько я понял, его можно вернуть, если не использовать полностью (я это не проверял).

[CLIENT] **[ 1][t 2][2026-01-06 12:11:40.671298504][BaseRunner.cpp:1048][!client] ACTION REQUIRED: BALANCE ON CONTRACT UQAf6e2X3wxaKEQveaEwialWcab6cPnIXWW4N7rHHBzKMEfs IS TOO LOW: MINIMUM 2100000000 CURRENT -1

После пополнения в логах должно появиться что-то похожее на это:

[CLIENT] [ 3][t 6][2026-02-01 09:49:00.527275537][TonlibWrapper.cpp:64][!TonlibClientWrapper] TonLib is synced [CLIENT] [ 2][t 6][2026-02-01 09:49:00.679363092][TonlibClient.cpp:846][!GetAccountState] Unknown code hash: WwfGvQw0c1h036NUjNmgHHi+Hg/fINDF6+N3djlsVAA= [CLIENT] [ 3][t 6][2026-02-01 09:49:00.679504904][BaseRunner.cpp:663][!client] got root contract state with ts=1769939333 [CLIENT] [ 3][t 6][2026-02-01 09:49:00.679579734][RootContractConfig.cpp:316][!client] parse root contract state: owner=UQDnlslXI2RtI1WhLmtelkb4CVQGxr8E_xSIjl0Hg79jNk6V unique_id=239 is_test=NO proxy_hashes_size=1 registered_proxies_count=1 last_proxy_seqno=3 workers_hashes_count=3 price_per_token=20 worker_fee_per_token=19 version=76 16 min_proxy_stake=15000000000 min_client_stake=15000000000 prompt_tokens_price_multiplier=10000 cached_tokens_price_multiplier=1000 completion_tokens_price_multiplier=80000 reasoning_tokens_price_multiplier=80000 [CLIENT] [ 3][t 2][2026-02-01 09:49:01.660136137][TonlibWrapper.cpp:66][!TonlibClientWrapper] TonLib is syncing: 56789955/56789955 [CLIENT] [ 3][t 2][2026-02-01 09:49:02.140429635][TonlibWrapper.cpp:64][!TonlibClientWrapper] TonLib is synced

После запуска клиент начинает слушать порт 10000 и поднимает набор API. Например:

127.0.0.1:10000/v1/models — возвращает список доступных моделей, количество воркеров для каждой модели и текущую нагрузку (сколько запросов сейчас выполняется на каждом воркере). Именно тут видно, что в сети доступны всего две модели:

  • https://huggingface.co/ByteDance-Seed/Seed-X-PPO-7B

  • https://huggingface.co/Qwen/Qwen3-32B

{ "object": "list", "data": [ { "id": "ByteDance-Seed/Seed-X-PPO-7B", "object": "model", "created": 0, "owned_by": "?", "workers": [ { "coefficient": 1000, "running_requests": 4, "max_running_requests": 60 }, ... { "id": "Qwen/Qwen3-32B", "object": "model", "created": 0, "owned_by": "?", "workers": [ { "coefficient": 1000, "running_requests": 7, "max_running_requests": 60 },

Кроме этого, доступны такие эндпоинты (есть больше):

- /v1/models - /v1/chat/completions - /v1/completions - /stats - /jsonstats

Дальше, для удобства, я запустил Cocoon Client через systemd, чтобы он постоянно работал в фоне:

# sudo systemctl cat cocoon-client # /etc/systemd/system/cocoon-client.service [Unit] Description=Cocoon Client After=network-online.target Wants=network-online.target [Service] Type=simple WorkingDirectory=/root/cocoon Environment=COCOON_ROUTER_POLICY=any Environment=COCOON_SKIP_TDX_USERCLAIMS=1 Environment=COCOON_SKIP_PROXY_HASH=1 Environment=COCOON_CLIENT_VERBOSITY=3 ExecStartPre=/usr/bin/install -d -m 0755 /var/log/cocoon ExecStart=/root/cocoon/scripts/cocoon-launch /root/cocoon/client.conf --skip-build Restart=always RestartSec=5 StandardOutput=append:/var/log/cocoon/client.log StandardError=append:/var/log/cocoon/client.log [Install] WantedBy=multi-user.target

Подключаем Cocoon Client к OpenWebUI

Теперь установим и запустим Open WebUI. Его подключаем к клиенту Cocoon на порту 10000, а сам WebUI, например, поднимаем на порту 8282:

sudo docker run -d --name openwebui --restart unless-stopped \ --add-host=host.docker.internal:host-gateway \ -p 8282:8080 \ -e OPENAI_API_BASE_URL="http://host.docker.internal:10000/v1" \ -e OPENAI_API_BASE="http://host.docker.internal:10000/v1" \ -e OPENAI_API_KEY="none" \ ghcr.io/open-webui/open-webui:main

Он подключится напрямую к Cocoon Client. Заходим по IP и порту, настраиваем вход для админа — и, например, давайте спросим у модели про Хабр.

byi5nabsnjaaborzcmxuoagjbr0.pngwolvbyduvjyhdp8tkzbhz7qwjnc.png

Технически WebUI действительно работает c Cocoon, это мы подтвердили. Но по сути, где ты @deniskin?

Подключаем Cocoon Client к плагину Cline

Так как порт 10000 не должен быть публичным, сделаем прокси на другом порту и добавим простую защиту через Bearer-токен, чтобы API могли использовать только те, кто знает секрет. Это понадобится нам, чтобы подключить Cline.

# /etc/nginx/conf.d/cocoon-cline.conf server { listen 8181; location / { if ($http_authorization != "Bearer XXXXXXXXX") { return 401; } proxy_pass http://127.0.0.1:10000; proxy_http_version 1.1; proxy_buffering off; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Connection ""; } }

Теперь API Cocoon доступен на порте 8181 и защищён токеном. Дальше в настройках Cline в VS Code указываем IP вашего сервера и название модели из ответа /v1/models, например Qwen/Qwen3-32B:

5-2es9u9vnvolciwkpxxxxy2sno.png

Дальше просим Cline написать простенькую программу на Rust, которая получает цену TON с биржи Bitfinex, — по аналогии с TypeScript-примером из официальной документации. После нескольких попыток Cline вместе с Qwen всё-таки выдали рабочий код. Но для повседневной работы этой модели, на мой взгляд, всё же недостаточно.

fuadph8nxxbsvklzfqbrvem1bcy.png

Результаты

Удалось запустить Cocoon в chat-mode через Open WebUI и подключить его к Cline. При этом доступны всего две модели: Qwen3-32B и Seed-X-PPO-7B. Seed, судя по всему, используется Telegram в основном для переводов, а Qwen - для выжимки текстов. Других моделей в сети сейчас нет.

С точки зрения обычного пользователя и разработчика имеет смысл смотреть только на Qwen, но итогом остался не очень доволен: для повседневной работы Qwen3-32B не подходит ни как “чат”, ни как модель для кодинга. Текущий статус Cocoon скорее похож на рабочий прототип, чем на зрелую платформу. Плюс на данный момент Cocoon поддерживает только текст.

Выводы

Возможно в коконе будет все больше и больше крутых моделей и все больше воркеров и будет дешевле чем у всей индустрии, то мы как пользователи очень выигрываем, достаточно купить несколько десятков тон и использовать кокон сколько влезет с большим количеством моделей, с невозможностью цензурирования, без лимитов (только ваш кошелек), без блокировок. Использовать как в чат моде, так и в программирование. Еще бы хотелось генерацию видео и картинок.

Возможно дальше, с развитием можно будет привлечь по настоящему крупные компании, которым нужен дешевый инференс (например, считаю, что использовать Cocoon для генерации видео с интеграцией в Comfy AI - переспективным).

Но хочу вставить кучу оговорок. Платформа запустилась 1 декабря 2025 года, но в сети количество GPU можно пересчитать по пальцам. Сеть генерирует всего 250 Toncoin дохода в день, а прошло уже два месяца с момента запуска. Поэтому ощущение складывается, что у Telegram просто не хватает ресурсов развивать Кокон, хотя на самом деле можно было уже столько всего сделать. Поэтому есть риск, что Telegram просто будет использовать и развивать платформу только для себя из-за нехватки ресурсов.

Но для развития нужна отдельная команда, которая будет искать самые популярные юзкейсы и быстро интегрировать их и рассказывать как ими позльзоваться. Я вижу тут нишу, Open WebUI + Code Agent + Comfy AI, то Кокон может составить неплохую конкуренцию, главное чтобы удобно и дешевле. В таком случае платформа получит постоянный трафик, но с условием, что платформа будет постоянно обновляться.

Плюс нужно потратить деньги на маркетинг создать комьюнити на реддит, дискорд чтобы собралось ядро энтузиастов.

В данный момент поддерживаются только серверный модели GPU типа H200, а стоит такой сервер от $35000, так как только серверное железо поддерживает Confidential Compute. Но хотелось бы, чтобы Кокон запускался не только на Intel, но и AMD и Qualcomm и Apple, а еще чтобы работал не только с NVIDIA GPU, но и AMD, а может и Huawei и так далее, в общем, чтобы Cocoon стал Android в мире AI.

Cocoon уже можно использовать, но пока это больше инфраструктурный прототип Telegram, чем платформа для разработчиков.

Если у вас есть опыт работы с Cocoon, пожалуйста поделитесь в комментариях.

Мы думали

В реальности сейчас

Самые современные модели

2 старые модели

Масштаб (1000+ воркеров)

примерно 16 воркеров

Замена OpenAI

нет

Приватность

заявлено, но зависит от железа

Доходность покроет GPU

в данный вся сеть Cocoon генерирует 250 TON в день

Поддержка генерации видео

нет

Поддержка голоса и фото

нет

Ссылки

Официальный сайт Telegram Cocoon - https://cocoon.org
Официальный Github - https://github.com/TelegramMessenger/cocoon
Open WebUI - https://github.com/open-webui/open-webui
Cline - https://github.com/cline/cline
Видео - https://github.com/Comfy-Org/ComfyUI

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Раздавлены криптопотерями? Откройте для себя бэктестинг криптовалют без кода на Cointester.io

Раздавлены криптопотерями? Откройте для себя бэктестинг криптовалют без кода на Cointester.io

Устали наблюдать, как ваши криптовалютные сделки идут ко дну? Это знакомое разочарование для розничных инвесторов – вкладывать деньги в эмоции, только чтобы увидеть, как рынок меняет направление
Поделиться
Techbullion2026/02/02 10:30
Почему эта фаза бокового движения отличается от прошлых медвежьих рынков

Почему эта фаза бокового движения отличается от прошлых медвежьих рынков

Статья "Почему эта фаза ограниченного диапазона отличается от прошлых медвежьих рынков" появилась на BitcoinEthereumNews.com. Коррекция Bitcoin демонстрирует удивительную устойчивость: почему эта
Поделиться
BitcoinEthereumNews2026/02/02 10:31
ASI близок к ключевому пробою, который готовит почву для следующего рыночного ралли, поскольку покупатели берут контроль: аналитик

ASI близок к ключевому пробою, который готовит почву для следующего рыночного ралли, поскольку покупатели берут контроль: аналитик

Статья ASI близок к ключевому прорыву, который готовит почву для следующего рыночного ралли, поскольку покупатели получают контроль: Аналитик появилась на BitcoinEthereumNews.com. Sender AI (ASI)
Поделиться
BitcoinEthereumNews2026/02/02 10:02