ru
Назад к списку

Tether представила кроссплатформенную систему для локального дообучения LLM

source-logo  incrypted.com 03 Декабрь 2025 10:28, UTC
image
  • Tether Data интегрировала полноценную LoRA-тренировку в llama.cpp с кроссплатформенной поддержкой.
  • QVAC-fabric-llm работает благодаря Vulkan, Metal и LoRA.
  • Новая ИИ-система Tether позволяет дообучать Qwen3 и Gemma3 на любом устройстве — от смартфона до сервера.

Исследовательское подразделение искусственного интеллекта (ИИ) компании Tether — Tether Data AI — представило QVAC-fabric-llm. Это новая инфраструктура для Low-Rank Adaptation (LoRA)-дообучения больших языковых моделей (LLM) непосредственно в рамках экосистемы llama.cpp.

Как отмечает компания, это первое решение, позволяющее проводить параметро-эффективное обучение LLM на всем спектре потребительского оборудования — от мобильных графических процессоров (GPU) до десктопных видеокарт.

В Tether говорят, что проект является «значительным шагом в миссии QVAC», ведь система обеспечивает настоящую аппаратно-независимую совместимость и устраняет зависимость от конкретных вендоров.

Разработчики отметили, что технология позволяет выполнять дообучение «на любом современном устройстве — от мобильного до серверного».

Одной из ключевых инноваций является возможность запускать LoRA-дообучение на мобильных графических процессорах, что до этого считалось недоступным. В Tether заявили:

«Мы демонстрируем первые успешные результаты точной настройки на мобильных GPU, ранее недоступные возможности, которые открывают путь к настоящей персонализации на устройстве».

Поддержка охватывает GPU Adreno, Mali и Apple, а также настольные графические решения AMD, Intel, NVIDIA и Apple.

QVAC-fabric-llm также добавляет первую кроссплатформенную поддержку LoRA-обучения для моделей Qwen3 и Gemma3, что существенно расширяет функциональность llama.cpp.

Чтобы ускорить развитие экосистемы, Tether Data AI открывает доступ к:

  • мультиплатформенным бинарным файлам;
  • LoRA-адаптерам, дообученным непосредственно на устройствах;
  • исходному коду новых модулей.

Компания подчеркивает:

«Все взносы являются безопасными для высших уровней: мы не меняли публичные API llama.cpp и добавляли только новые модули».

Код опубликовали под лицензией Apache 2.0.

Зачем это криптовалютной индустрии и Tether

Для Tether, крупнейшего эмитента стейблкоинов, развитие собственного ИИ-направления направлено на:

  • создание автономных систем, которые могут работать локально в регионах с высокой задержкой или нестабильной инфраструктурой;
  • защиту приватности, ведь чувствительные данные пользователей не нужно передавать в облако;
  • масштабируемость, которая не зависит от вендора GPU.

В Tether Data подчеркнули важность локального дообучения:

«Способность к точной настройке LLM на персональных данных пользователя является критической для персонализации и более широкого принятия технологии».

Среди ключевых технических решений:

  • перенос полного LoRA-workflow в llama.cpp с API для инициализации, тренировки, чекпойнтинга и слияния адаптеров;
  • использование Vulkan для универсальной GPU-совместимости (NVIDIA, AMD, Intel, Adreno, Mali);
  • поддержка Apple Metal для M-серии и мобильных A-серий;
  • поддержка инструкционного дообучения благодаря маскированным потерям (обучение только на токенах ассистента);
  • добавление обратных проходов для современных архитектур, включая GEGLU;
  • динамический алгоритм разбиения на блоки для обхода жестких ограничений драйверов Adreno и выполнения больших матричных операций.

Результаты тестов: мобильное дообучение и качество на уровне PyTorch

Проект показал жизнеспособность LoRA-тренировки на самых разных устройствах — от RTX 4090 до мобильных Mali.

Согласно тестам, качество моделей после дообучения в QVAC-fabric-llm сопоставимо с PyTorch-HuggingFace:

  • процент побед LLM-судей: 45-48% (против 52-55% в PyTorch);
  • биомедицинская точность: 79-94% (против 78-86%);
  • косинусное сходство: 0.82 против 0.77.

В Tether отметили, что технология особенно полезна для сфер со строгими требованиями к приватности — медицины, науки, регулируемых финансовых сервисов.

Дальнейшие планы

Среди следующих шагов команда назвала расширение поддержки количественных форматов (GPTQ-INT8, Q5_K_M), оптимизацию GPU-операторов и улучшение управления памятью.

Представив QVAC-fabric-llm, Tether сделала попытку перенести ИИ-возможности, которые обычно доступны только в дата-центрах, непосредственно на потребительские устройства.

Компания заявила, что эта технология «разрушает давние аппаратные ограничения» и открывает путь к эпохе частных, локальных, устойчивых ИИ-решений.

Напомним, что недавно Tether подписала арендное соглашение на 20 000 GPU для поддержки ИИ-сферы на фоне партнерства видеоплатформы Rumble и немецкой майнинговой компании Northern Data.

incrypted.com