Общ. рыноч. кап.:$00
API
RU
Тёмный

ПоискSSI/Mag7/Meme/ETF/Монета/Индекс/Графики/Исследования
00:00 / 00:00
Вид
    Рынки
    Индексы
    Лента
    TokenBar®
    Анализ
    Макрос
    Список наблюдения
Поделится

Представляем распределенный проверяемый вывод LLM на Theta EdgeCloud: объединение сильных сторон AI…

#Layer1
$THETA
Theta Network - Medium
1KСлова
01/07/2025

Представляем распределенный проверяемый вывод LLM на $Theta EdgeCloud: объединение сильных сторон AI и Blockchain

Мы рады объявить о новейшей функции $Theta EdgeCloud: службе вывода большой языковой модели (LLM) с распределенной проверяемостью. Эта новая функция позволит чат-ботам и AI агентам выполнять надежный и независимо проверяемый вывод LLM, основанный на публичных маяках случайности, поддерживаемых blockchain, впервые в отрасли. Это уникальная технология, сочетающая в себе сильные стороны передового AI и надежную, децентрализованную природу blockchain.

Благодаря этой реализации EdgeCloud является первой и единственной платформой, предлагающей надежный вывод LLM для всех, как среди крипто-ориентированных, так и среди традиционных облачных платформ. Для конфиденциальных вычислительных потребностей в предприятиях, научных кругах и других вертикалях EdgeCloud — это единственное облачное решение, которое может гарантировать целостность выходных данных LLM.

Идея

Современные AI агенты в значительной степени полагаются на LLM для генерации ответов и выполнения сложных задач. Но действительно ли вы можете доверять результату? Сегодня большинство платформ агентов полагаются на централизованные API LLM (например, OpenAI) или аппаратную защиту, такую как TEE (Trusted Execution Environments). Эти решения возлагают доверие на централизованного поставщика или программное обеспечение с закрытым исходным кодом, которое может изменять или фальсифицировать результаты.

Недавний выпуск DeepSeek-V3/R1, первой действительно конкурентоспособной альтернативы с открытым исходным кодом проприетарным LLM, открывает дверь для полной проверки стека. Этот прорыв позволяет сообществам начать отходить от непрозрачных API AI к прозрачным, проверяемым рабочим процессам вывода.

Основываясь на этих достижениях, мы разработали и внедрили систему Distributed Verifiable Inference, которая гарантирует, что выходные данные LLM являются воспроизводимыми и защищенными от несанкционированного доступа, даже поставщиком услуг (таким как $Theta Labs для EdgeCloud). Объединяя AI модели с открытым исходным кодом, децентрализованные вычисления и проверяемость на основе blockchain, мы создаем основу доверия для AI агентов следующего поколения.

Наше решение

Мы выпускаем первый в отрасли проверяемый механизм вывода LLM, интегрированный непосредственно в $Theta EdgeCloud. Вот как он обеспечивает общедоступность:

  • Детерминированное распределение вероятностей токенов: LLM вычисляет распределение вероятностей следующего токена, учитывая подсказку. Поскольку мы используем модели с открытым исходным кодом (например, DeepSeek R1), любой может проверить этот шаг, запустив модель локально или на другом доверенном узле.
  • Проверяемая выборка: Выборка следующего токена обычно является недетерминированным процессом. Чтобы сделать его проверяемым, мы используем общедоступное проверяемое случайное начальное число, вдохновленное такими протоколами, как RanDAO от Ethereum. С этим начальным числом выборка становится псевдослучайной и полностью воспроизводимой. Окончательный результат может быть независимо проверен любым наблюдателем.

Эта двухкомпонентная конструкция гарантирует, что любой может использовать общедоступную случайность для проверки вывода LLM, учитывая входные данные. Таким образом, ни одна из сторон, включая службу хостинга LLM, не может вмешиваться в вывод модели, обеспечивая строгие гарантии целостности.

Для реализации этого решения мы усовершенствовали vLLM, один из самых популярных в отрасли механизмов вывода LLM, и оснастили его дополнительными компонентами для поддержки общедоступной проверяемости. Мы упаковали реализацию в образ контейнера docker и опубликовали его в открытом доступе в нашей учетной записи DockerHub:

https://hub.docker.com/repository/docker/thetalabsofficial/vllm-theta

Мы также обновили наш стандартный шаблон для модели «DeepSeek R1 / Distill-Qwen-7B», доступной на панели запуска выделенной модели Theta EdgeCloud, чтобы по умолчанию использовать вышеуказанный образ контейнера:

Используя этот образ контейнера, результат вывода LLM будет включать следующий дополнительный раздел, который содержит общедоступную случайность, извлеченную из $Theta Blockchain, что позволяет пользователям проверять вывод LLM для данной подсказки.

{

…

“theta_verified”: {

“seed”: 2825676771,

“verification_hash”: “aec8beec3306dddb9b9bad32cb90831d0d04132e57b318ebce64fb0f77208cdc”,

“sampling_params”: {

“seed”: 2825676771,

…

},

“block”: {

“hash”: “0xd8ba61b261ddda55520301ee23846a547615c60d29c1c4a893779ba0d53f0656”,

“height”: “30168742”,

“timestamp”: “1749770570”

}

}

Публикация в сети (необязательно)

Для более важных вариантов использования мы планируем публиковать метаданные вывода (подсказка, распределение, случайное начальное число, результат) в сети, где они могут быть подтверждены децентрализованными хранителями или свидетелями. Это открывает двери для аудируемых и надежных AI сервисов с потенциальной интеграцией в инструменты DAO, автономных агентов и DeFi механизмы управления рисками.

Будущее AI — в проверяемости

По мере того, как AI агенты становятся более автономными, а принятие решений переходит от людей к машинам, доверие к уровню вывода LLM становится основополагающим. Поскольку эти AI агенты интегрированы во все аспекты нашей повседневной жизни и коммерции, возможность проверять и доверять их результатам и действиям будет иметь решающее значение для безопасности, защищенности и финансовой целостности. Наша недавно выпущенная услуга обеспечивает столь необходимый уровень прозрачности, возможности аудита и безопасности для этих рабочих процессов AI. Благодаря мощи $Theta Blockchain/EdgeCloud и инновациям с открытым исходным кодом мы лидируем в создании AI не только мощным, но и доказуемо надежным.

Introducing Distributed Verifiable LLM Inference on Theta EdgeCloud: Combining the Strengths of AI… originally published in Theta Network on Medium, where people are continuing the conversation by highlighting and responding to this story.

Все, что вам нужно знать за 10 секунд
УсловияПолитика конфиденциальностиБелая книгаОфициальная проверкаCookieБлог
sha512-gmb+mMXJiXiv+eWvJ2SAkPYdcx2jn05V/UFSemmQN07Xzi5pn0QhnS09TkRj2IZm/UnUmYV4tRTVwvHiHwY2BQ==
sha512-kYWj302xPe4RCV/dCeCy7bQu1jhBWhkeFeDJid4V8+5qSzhayXq80dsq8c+0s7YFQKiUUIWvHNzduvFJAPANWA==