- PVSM.RU - https://www.pvsm.ru -
В последнее время из общего ИИ-пузыря выделилось несколько хайповых тем:
автономные ИИ-агенты и другие инструменты, которые якобы помогают человеку выполнять рутинные задачи и экономить время (это обман, на самом деле всё наоборот: загруженность человека с ИИ сильно возрастает [1] — увеличивается интенсивность труда, усталость, риски выгорания и требования к производительности [2]),
частные облака для «локального» инференса,
децентрализованный ИИ, который будет работать на компьютерах пользователей.
С агентами всё понятно, а вот частные облака и P2P-суперинтеллект можно рассмотреть внимательнее.
С самого начала коммерческой эксплуатации облачных ИИ-сервисов энтузиасты предпринимают попытки запустить эти модели локально, на своих серверах и ПК. К сожалению, самые последние передовые модели локализовать не получается, но остальные нормально работают. Все знают сайт Hugging Face [3], откуда можно скачать файлы обученных моделей, и графическую оболочку Ollama [4] для их запуска. Оболочка работает на опенсорсной библиотеке llama.cpp [5] от Георгия Герганова [6].

Её можно использовать и без GUI, просто в консоли:
# Использовать файл локальной модели
llama-cli -m my_model.gguf
# Или скачать и запустить модель напрямую с Hugging Face
llama-cli -hf ggml-org/gemma-3-1b-it-GGUF
# Запустить OpenAI-совместимый сервер API
llama-server -hf ggml-org/gemma-3-1b-it-GGUF
Разработчики llama.cpp считают [7], что сейчас локальный инференс «становится значимой и конкурентоспособной альтернативой облачному». Они говорят, что для будущей сверхмощной системы ИИ важно, чтобы она работала по распределённой модели на железе пользователей, а не в дата-центре коммерческой корпорации.
По их мнению, будущий Сверхинтеллект должен работать в P2P-сети и принадлежать всему человечеству.
Разумеется, корпорации с этим не согласны.
«Частные облака» от корпораций позиционируются как «приватная» альтернатива облачным ИИ-сервисам. То есть это якобы безопасный аналог локального ИИ, совершенно секретный, конфиденциальный и т. д. Альтернатива собственному серверу для клиентов, которые боятся работать с облачными сервисами из-за угрозы утечек данных.
В ноябре 2025 года Google запустила [8] «частное облако» Private AI Compute [9] с моделями семейства Gemini.
Облако Private AI Compute работает на едином технологическом стеке Google, включая собственные тензорные TPU-процессоры Trillium [10] и аппаратную технологию шифрования Trusted Execution Environment [11] (TEE) на CPU и TPU.
Коммуникации с фронтендом идут по зашифрованным каналам Noise [12] и ALTS [13] (Application Layer Transport Security), чтобы изолировать частное облако от остальной инфраструктуры Google. Клиент устанавливает соединение с фронтенд-сервером по криптопротоколу Noise. Впоследствии фронтенд-сервер устанавливает канал шифрования ALTS с другими службами и с серверами моделей, работающими на защищённой платформе TPU. Каждая рабочая нагрузка запрашивает и криптографически проверяет учётные данные другой стороны.
Теоретически, всё зашифровано и защищено. Главная цель этих наукоподобных «заклинаний» — убедить клиента отказаться от локального сервера в пользу частного облака.
Заявлено, что облако «обеспечивает высокий уровень приватности, сопоставимый с локальной обработкой данных». Новая система «построена на изолированном защищённом окружении, где все вычисления происходят в зашифрованном пространстве, доступ к которому имеет только пользователь». Даже сотрудники Google якобы не могут получить доступ к этим данным.
Первыми на платформе запустили ИИ-функции смартфонов Pixel 10 [14]: улучшатель промптов Magic Cue [15] и функцию обобщения транскрипций в приложении Recorder [16]. Эти задачи помогут протестировать сервис, который предлагается в аренду корпоративным клиентам. Кстати, на новом смартфоне Pixel 10 целая куча ИИ-функций, включая генератор картинок [17] и прочий нейрослоп:
Платформа Private AI Compute «открывает новые возможности для интеграции Gemini в различные продукты Google».
Все понимают, что приватность и Google — вещи не совместимые. Если на телефоне Android вы набрали какое-то слово в блокноте (заметках), телеграме или где-то ещё — скоро увидите контекстную рекламу и видеоролики на YouTube на эту тему. Судя по всему, информация сливается через клавиатуру Gboard [18] и другие каналы.
В 2024-2025 гг свои «приватные облака» запустили и другие корпорации: Private Cloud Compute [19] от Apple и Private Processing [20] от Meta (экстремистская организация, запрещённая в РФ). У них схожие цели по переносу нагрузок ИИ в облако, с внедрением криптографических и аппаратных средств защиты. Этот процесс отражает общую тенденцию в отрасли — запуск систем ИИ, которые якобы ориентируются на конфиденциальность.
Но всё это маркетинговая чушь. Даже сейчас в открытом доступе есть несколько научных статей с подробным описанием атак на TEE [21]. Плюс очевидный риск, что производитель TEE владеет ключами и всегда может поделиться этим доступом с третьими лицами.
Тем не менее, «приватное облако» остаётся привлекательным для многих заказчиков. На гитхабе есть открытый фреймворк OpenPCC [22] для тех, кто хочет поэкспериментировать с архитектурой приватного ИИ.
Компоненты OpenPCC:

Клиентские SDK для OpenPCC:
Python Client SDK [23]
Typescript и Javascript SDK [24]
Go Client SDK [25]
Системные компоненты OpenPCC:
AuthBank, Relay, Gateway, BlindBank, Router [25]
ComputeNode [26]
Кросс-компонентные библиотеки:
Binary HTTP (Go) [27]
Oblivious HTTP (Go) [28]
Two-way HPKE (Go) [29]
NVIDIA Trusted Compute (Go) [30]
При использовании сторонних коммерческих серверов о приватности речи не идёт. Все «частные облака» — просто попытка корпораций оторвать клиентов от локальных серверов. Задача — убедить, что здесь всё безопасно и приватно, как на своём сервере, при этом удобнее.
Но единственное безопасное «облако» — это свой собственный сервер.
Есть маленькая надежда, что будущий Сверхинтеллект не окажется под контролем корпораций, а будет развёрнут в нормальном открытом виде на распределённой сети частных компьютеров.
Например, стартап Prime Intellect [32] разработал модель распределённого интеллекта INTELLECT-3 [33] на 106 млрд параметров (веса модели [34], обучающий фреймворк prime-rl [35], технический отчёт [36]). Особенность модели — поддержка распределённых вычислений, то есть она нормально работает и синхронизируется на кластере машин по типу Infrastructure-as-Code (управление через Ansible), с автоматическим обнаружением новых машин в кластере, с горячей заменой машин, и проверками InfiniBand для изоляции медленных или сбойных машин в кластере. Теоретически, такая система может непрерывно синхронизироваться через интернет. И тогда это будет стандартная модель распределённых вычислений, как классический SETI@Home [37].

Prime Intellect создала фреймворк, который позволяет любому создать среду обучения с подкреплением, настроенную для конкретной задачи. Генеральный директор компании Винсент Вайссер (Vincent Weisser) говорит [38], что это приведёт к созданию ценных новых программ, включая специализированных агентов. По его словам, мир ИИ в настоящее время разделён между теми, кто полагается на закрытые американские модели, и теми, кто использует открытые китайские разработки. Технология Prime Intellect демократизирует ИИ, позволяя большему количеству людей создавать и модифицировать передовой ИИ для себя.
Андрей Карпати назвал [39] среду обучения с подкреплением Prime Intellect «отличной работой [и] идеей». Он призвал исследователей открытого исходного кода использовать различные среды и адаптировать их к новым задачам, чтобы улучшить навыки передовых моделей новыми способами.


Версия BF16 запускается на двух H200, версия FP8 — на одном.
Свой гибрид «частного облака» и распределённых вычислений запустил даже Telegram, с поддержкой криптоплатежей. Проект Cocoon [40] (Confidential Compute Open Network, но в русской транскрипции его шуточно называют «Сосун») анонсировали [41] в ноябре 2025 года. По идее, это должна быть децентрализованная приватная сеть GPU-ускорителей, которую могут приватно арендовать любые клиенты и через API запрашивать выполнение необходимых вычислений, см. документацию для разработчиков [42].
Правда, старт получился не очень удачным. В январе 2026 года через месяц после запуска в онлайне было всего три пользователя, да и общая статистика не очень впечатляет:

Сама идея кажется правильной: будущий ИИ (возможно, Сверхинтеллект) должен работать в распределённой сети [43] на компьютерах пользователей. Здесь только реализация подкачала. Сейчас Cocoon запускается только на GPU-серверах с ускорителями H100+ [44] стоимостью около $30 тыс. [45], что никак не назовёшь массовым оборудованием.
Тем не менее, отрасль децентрализованных GPU-вычислений уже зародилась и бурно развивается [31]:

За последние два года ландшафт ИИ кардинально изменился. Meta открыла эпоху опенсорсных моделей, выпустив первую версию Llama в 2023 году. Следующим огромным прорывом стала недорогая и открытая модель рассуждений DeepSeek в январе 2025-го. Ещё несколько китайских моделей последовали её примеру. В ответ китайцам OpenAI впервые за несколько лет выпустила модель с открытым исходным кодом в августе 2025 года, но китайские Qwen от Alibaba, Kimi от Moonshot и R1 от DeepSeek оказались более популярными.
Сейчас в этой отрасли события развиваются так быстро, что даже год кажется вечностью. Только подумать, что Deepseek вышел всего год назад, а первая открытая модель Llama — два с половиной года назад. После этого всё и завертелось...
Конечно, помешанные на деньгах инвесторы и предприниматели надули знатный пузырь. С другой стороны, чем бы занимались айтишники в 2026 году, если бы не LLM? Это сейчас самая интересная технология, с которой можно поиграться...
© 2026 ООО «МТ ФИНАНС»
Автор: alizar
Источник [46]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/cocoon/446469
Ссылки в тексте:
[1] загруженность человека с ИИ сильно возрастает: https://hbr.org/2026/02/ai-doesnt-reduce-work-it-intensifies-it
[2] требования к производительности: https://beabetterdev.com/2026/02/21/i-was-wrong-about-ai/#:~:text=The%20New%20Productivity%20Baseline
[3] Hugging Face: https://huggingface.co/
[4] Ollama: https://ollama.com/
[5] llama.cpp: https://github.com/ggml-org/llama.cpp
[6] Георгия Герганова: https://habr.com/ru/companies/ruvds/articles/923304/
[7] считают: https://github.com/ggml-org/llama.cpp/discussions/19759
[8] запустила: https://blog.google/innovation-and-ai/products/google-private-ai-compute/
[9] Private AI Compute: https://services.google.com/fh/files/misc/private_ai_compute_technical_brief.pdf
[10] Trillium: https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus
[11] Trusted Execution Environment: https://en.wikipedia.org/wiki/Trusted_execution_environment
[12] Noise: https://noiseprotocol.org/
[13] ALTS: https://docs.cloud.google.com/docs/security/encryption-in-transit/application-layer-transport-security
[14] ИИ-функции смартфонов Pixel 10: https://store.google.com/intl/en/ideas/categories/ai/
[15] Magic Cue: https://store.google.com/intl/en/ideas/articles/magic-cue/
[16] Recorder: https://support.google.com/pixelphone/answer/16267698?hl=en
[17] генератор картинок: https://store.google.com/intl/en/ideas/articles/pixel-image-gen/
[18] Gboard: https://play.google.com/store/apps/details?id=com.google.android.inputmethod.latin&hl=en
[19] Private Cloud Compute: https://security.apple.com/blog/private-cloud-compute/
[20] Private Processing: https://engineering.fb.com/2025/04/29/security/whatsapp-private-processing-ai-tools/
[21] несколько научных статей с подробным описанием атак на TEE: https://www.sciencedirect.com/science/article/abs/pii/S0167404821002959
[22] OpenPCC: https://github.com/openpcc/openpcc/blob/main/README.md
[23] Python Client SDK: https://github.com/confidentsecurity/confsec-py
[24] Typescript и Javascript SDK: https://github.com/confidentsecurity/confsec-js
[25] Go Client SDK: https://github.com/openpcc/openpcc
[26] ComputeNode: https://github.com/confidentsecurity/confidentcompute
[27] Binary HTTP (Go): https://github.com/openpcc/bhttp
[28] Oblivious HTTP (Go): https://github.com/openpcc/ohttp
[29] Two-way HPKE (Go): https://github.com/openpcc/twoway
[30] NVIDIA Trusted Compute (Go): https://github.com/confidentsecurity/go-nvtrust
[31] источник: https://www.decentralised.co/p/decentralised-compute
[32] Prime Intellect: https://www.primeintellect.ai/
[33] INTELLECT-3: https://www.primeintellect.ai/blog/intellect-3
[34] веса модели: https://huggingface.co/PrimeIntellect/INTELLECT-3
[35] prime-rl: https://github.com/PrimeIntellect-ai/prime-rl
[36] технический отчёт: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf
[37] SETI@Home: https://setiathome.berkeley.edu/
[38] говорит: https://www.youtube.com/watch?v=6cQdJSzVTpg
[39] назвал: https://x.com/karpathy/status/1960803117689397543
[40] Cocoon: https://cocoon.org/
[41] анонсировали: https://t.me/durov/462
[42] документацию для разработчиков: https://cocoon.org/developers
[43] должен работать в распределённой сети: https://gonka.ai/whitepaper.pdf
[44] только на GPU-серверах с ускорителями H100+: https://cocoon.org/gpu-owners
[45] около $30 тыс.: https://www.asacomputers.com/nvidia-h100-80gb-nvh100tcgpu-gpu-card.html
[46] Источник: https://habr.com/ru/companies/ruvds/articles/1003992/?utm_campaign=1003992&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.