AI Layer1 Экосистемное исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы такие ведущие технологические компании, как OpenAI, Anthropic, Google и Meta, продолжают активно развивать большие языковые модели (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя пространство человеческого воображения и даже в некоторых случаях показывая потенциал замены человеческого труда. Однако ядро этих технологий по-прежнему надежно контролируется небольшим числом централизованных технологических гигантов. Благодаря мощному капиталу и контролю над дорогими вычислительными ресурсами эти компании создали непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на начальном этапе быстрого развития ИИ, общественное мнение часто сосредоточено на прорывах и удобстве, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно недостаточно. В долгосрочной перспективе эти проблемы глубоко повлияют на здоровье развития ИИ-отрасли и общественное принятие. Если их не удастся надлежащим образом решить, споры о том, будет ли ИИ "направлен на добро" или "направлен на зло", будут становиться все более актуальными, в то время как централизованные гиганты, движимые инстинктом прибыли, часто не имеют достаточной мотивации, чтобы активно справляться с этими вызовами.
Технология блокчейн, благодаря своим децентрализованным, прозрачным и антицензурным характеристикам, открывает новые возможности для устойчивого развития AI-отрасли. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно увидеть, что у этих проектов все еще есть множество проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура все еще зависят от централизованных облачных сервисов, что затрудняет поддержку действительно открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI на цепочке все еще ограничен в таких аспектах, как возможности модели, использование данных и сценарии применения, глубина и широта инноваций требуют улучшения.
Чтобы действительно реализовать видение децентрализованного ИИ, необходимо, чтобы в блокчейне безопасно, эффективно и демократично размещались масштабные ИИ-приложения и чтобы его производительность могла конкурировать с централизованными решениями, нам необходимо разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI приложений, его базовая архитектура и проектирование производительности тесно связаны с потребностями AI задач, с целью эффективно поддерживать устойчивое развитие и процветание AI экосистемы в блокчейне. В частности, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса
核心 AI Layer 1 заключается в построении открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на учете в бухгалтерских книгах, узлы AI Layer 1 должны выполнять более сложные задачи: они не только должны предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также должны вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов на инфраструктуру AI. Это предъявляет более высокие требования к базовому консенсусу и механизмам стимулирования: AI Layer 1 должен точно оценивать, мотивировать и проверять фактический вклад узлов в задачи, такие как вывод и обучение AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходная производительность и поддержка гетерогенных задач
Задачи ИИ, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема ИИ в блокчейне часто должна поддерживать разнообразные и гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для удовлетворения требований к высокой пропускной способности, низкой задержке и эластичной параллельности, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач ИИ и обеспечить плавное расширение от "единичных задач" к "сложным многообразным экосистемам".
Проверяемость и обеспечение надежного вывода
AI Layer 1 не только должен предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. Интегрируя такие передовые технологии, как надежная вычислительная среда (TEE), нулевые знания (ZK) и безопасные многопартнерские вычисления (MPC), платформа может позволить каждому этапу модели, обучения и обработки данных быть независимо проверяемым, что гарантирует справедливость и прозрачность системы AI. В то же время такая проверяемость может помочь пользователям понять логику и основания выводов AI, реализуя принцип "что получено, то и задумано", что повышает доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных
Приложения ИИ часто связаны с конфиденциальными данными пользователей, и в таких областях, как финансы, медицина и социальные сети, защита конфиденциальности данных особенно важна. AI Layer 1 должен обеспечивать верифицируемость, одновременно используя технологии обработки данных на основе шифрования, протоколы вычислений с конфиденциальностью и управление правами доступа к данным, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя тем самым опасения пользователей по поводу безопасности данных.
Сильные возможности по поддержке экосистемы и разработки
В качестве инфраструктуры Layer 1, изначально созданной для ИИ, платформа должна не только обладать техническим преимуществом, но и предоставлять разработчикам, операторам узлов, поставщикам ИИ-услуг и другим участникам экосистемы полные инструменты для разработки, интегрированные SDK, поддержку эксплуатации и механизмы поощрения. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных приложений, основанных на ИИ, и обеспечиваем устойчивое процветание децентрализованной экосистемы ИИ.
Основываясь на вышеизложенном контексте и ожиданиях, в этой статье будет подробно рассмотрено шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематизированы последние достижения в данной области, проанализировано текущее состояние проектов и обсуждены будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI модели
Обзор проекта
Sentient — это платформа с открытым исходным кодом, которая создает AI Layer1 в блокчейне (. На начальном этапе это будет Layer 2, затем она будет мигрировать на Layer 1). Объединив AI Pipeline и технологии блокчейна, она строит децентрализованную экономику искусственного интеллекта. Основная цель заключается в решении проблем принадлежности моделей, отслеживания вызовов и распределения ценностей на централизованном рынке LLM с помощью структуры "OML" (открытая, прибыльная, лояльная), чтобы обеспечить структуру собственности на модели ИИ в блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient заключается в том, чтобы каждый мог создавать, сотрудничать, владеть и монетизировать продукты ИИ, тем самым способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединила ведущих мировых академических экспертов, блокчейн-предпринимателей и инженеров, стремясь создать сообществом управляемую, открытую и проверяемую платформу AGI. В её состав входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность AI и защиту конфиденциальности, а также соучредитель Polygon Sandeep Nailwal, который возглавляет стратегию блокчейна и экосистему. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих учебных заведениях, таких как Принстонский университет и Индийский институт технологий, охватывающих области AI/ML, NLP, компьютерного зрения и совместно способствуют реализации проекта.
Как второй проект предпринимателя и соучредителя Polygon Sandeep Nailwal, Sentient с самого начала имел ореол, обладая богатым ресурсами, связями и рыночной осведомленностью, что обеспечивало сильную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд seed-финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а среди других инвестиционных компаний были Delphi, Hashkey и десятки известных венчурных капиталистов, таких как Spartan.
проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Ядро архитектуры
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного AI" артефактов, включает в себя два основных процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, для выравнивания модели.
Обучение лояльности (Loyalty Training): обеспечение того, чтобы модель поддерживала процесс обучения, соответствующий намерениям сообщества.
Система блокчейна обеспечивает прозрачность и децентрализованный контроль для протокола, гарантируя право собственности на искусственный интеллект, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков.
Уровень распределения: контракт авторизации контролирует входные точки вызова модели;
Уровень доступа: проверка авторизации пользователя через подтверждение прав.
Уровень стимулов: Контракт маршрутизации доходов будет распределять оплату при каждом вызове между тренерами, деплоями и валидами.
OML модельный фрейм
OML фреймворк (Открытый Open, Монизируемый Monetizable, Лояльный Loyal) является основной концепцией, предложенной Sentient, и направлен на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Сочетая технологии в блокчейне и нативную криптографию AI, он обладает следующими характеристиками:
Открытость: Модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло воспроизводить, проверять и улучшать.
Монетизация: Каждый вызов модели будет генерировать поток доходов, в блокчейне контракт будет распределять доходы между тренерами, развертывателями и проверяющими.
Преданность: Модель принадлежит сообществу участников, направление обновлений и управление определяются DAO, использование и модификация контролируются криптомеханизмом.
AI нативная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность AI-моделей, структуру низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Ее核心技术是:
Встраивание отпечатка: во время обучения вставляется набор скрытых пар запрос-ответ для формирования уникальной подписи модели;
Протокол проверки прав собственности: проверка сохранения отпечатка пальца в форме запроса через сторонний детектор (Prover);
Механизм разрешенного вызова: перед вызовом необходимо получить "удостоверение полномочий", выданное владельцем модели, после чего система предоставляет модели разрешение декодировать этот ввод и вернуть точный ответ.
Этот способ позволяет реализовать "авторизованный вызов на основе поведения + верификация принадлежности" без дополнительных затрат на повторное шифрование.
Модель подтверждения прав и безопасного выполнения
Sentient в настоящее время использует безопасный механизм Melange: комбинация подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. Метод отпечатков пальцев реализуется через OML 1.0 как основная линия, подчеркивающая принцип "оптимистичной безопасности (Optimistic Security)", то есть по умолчанию считается соблюдающим, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевым элементом OML. Он позволяет модели генерировать уникальные подписи на этапе обучения, внедряя определенные пары «вопрос-ответ». С помощью этих подписей владельцы модели могут проверять право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительный фреймворк Enclave TEE, который использует защищённые среды выполнения (например, AWS Nitro Enclaves), чтобы гарантировать, что модель реагирует только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определённые риски безопасности, его высокая производительность и
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
4
Поделиться
комментарий
0/400
ZenZKPlayer
· 6ч назад
Снова мечтаешь? Это может сравниться с гигантами в отрасли?
Посмотреть ОригиналОтветить0
BlockchainArchaeologist
· 6ч назад
Не смотрите, что цена не была озвучена! Какой экосистемный Токен попробуем?
Посмотреть ОригиналОтветить0
ForkPrince
· 6ч назад
Слишком централизовано, нужно проводить антимонопольные меры.
Исследование экосистемы AI Layer1: шесть крупных проектов в области в блокчейне DeAI в будущем
AI Layer1 Экосистемное исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы такие ведущие технологические компании, как OpenAI, Anthropic, Google и Meta, продолжают активно развивать большие языковые модели (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя пространство человеческого воображения и даже в некоторых случаях показывая потенциал замены человеческого труда. Однако ядро этих технологий по-прежнему надежно контролируется небольшим числом централизованных технологических гигантов. Благодаря мощному капиталу и контролю над дорогими вычислительными ресурсами эти компании создали непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на начальном этапе быстрого развития ИИ, общественное мнение часто сосредоточено на прорывах и удобстве, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно недостаточно. В долгосрочной перспективе эти проблемы глубоко повлияют на здоровье развития ИИ-отрасли и общественное принятие. Если их не удастся надлежащим образом решить, споры о том, будет ли ИИ "направлен на добро" или "направлен на зло", будут становиться все более актуальными, в то время как централизованные гиганты, движимые инстинктом прибыли, часто не имеют достаточной мотивации, чтобы активно справляться с этими вызовами.
Технология блокчейн, благодаря своим децентрализованным, прозрачным и антицензурным характеристикам, открывает новые возможности для устойчивого развития AI-отрасли. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно увидеть, что у этих проектов все еще есть множество проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура все еще зависят от централизованных облачных сервисов, что затрудняет поддержку действительно открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI на цепочке все еще ограничен в таких аспектах, как возможности модели, использование данных и сценарии применения, глубина и широта инноваций требуют улучшения.
Чтобы действительно реализовать видение децентрализованного ИИ, необходимо, чтобы в блокчейне безопасно, эффективно и демократично размещались масштабные ИИ-приложения и чтобы его производительность могла конкурировать с централизованными решениями, нам необходимо разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI приложений, его базовая архитектура и проектирование производительности тесно связаны с потребностями AI задач, с целью эффективно поддерживать устойчивое развитие и процветание AI экосистемы в блокчейне. В частности, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса 核心 AI Layer 1 заключается в построении открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на учете в бухгалтерских книгах, узлы AI Layer 1 должны выполнять более сложные задачи: они не только должны предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также должны вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов на инфраструктуру AI. Это предъявляет более высокие требования к базовому консенсусу и механизмам стимулирования: AI Layer 1 должен точно оценивать, мотивировать и проверять фактический вклад узлов в задачи, такие как вывод и обучение AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходная производительность и поддержка гетерогенных задач Задачи ИИ, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема ИИ в блокчейне часто должна поддерживать разнообразные и гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для удовлетворения требований к высокой пропускной способности, низкой задержке и эластичной параллельности, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач ИИ и обеспечить плавное расширение от "единичных задач" к "сложным многообразным экосистемам".
Проверяемость и обеспечение надежного вывода AI Layer 1 не только должен предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. Интегрируя такие передовые технологии, как надежная вычислительная среда (TEE), нулевые знания (ZK) и безопасные многопартнерские вычисления (MPC), платформа может позволить каждому этапу модели, обучения и обработки данных быть независимо проверяемым, что гарантирует справедливость и прозрачность системы AI. В то же время такая проверяемость может помочь пользователям понять логику и основания выводов AI, реализуя принцип "что получено, то и задумано", что повышает доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Приложения ИИ часто связаны с конфиденциальными данными пользователей, и в таких областях, как финансы, медицина и социальные сети, защита конфиденциальности данных особенно важна. AI Layer 1 должен обеспечивать верифицируемость, одновременно используя технологии обработки данных на основе шифрования, протоколы вычислений с конфиденциальностью и управление правами доступа к данным, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя тем самым опасения пользователей по поводу безопасности данных.
Сильные возможности по поддержке экосистемы и разработки В качестве инфраструктуры Layer 1, изначально созданной для ИИ, платформа должна не только обладать техническим преимуществом, но и предоставлять разработчикам, операторам узлов, поставщикам ИИ-услуг и другим участникам экосистемы полные инструменты для разработки, интегрированные SDK, поддержку эксплуатации и механизмы поощрения. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных приложений, основанных на ИИ, и обеспечиваем устойчивое процветание децентрализованной экосистемы ИИ.
Основываясь на вышеизложенном контексте и ожиданиях, в этой статье будет подробно рассмотрено шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематизированы последние достижения в данной области, проанализировано текущее состояние проектов и обсуждены будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI модели
Обзор проекта
Sentient — это платформа с открытым исходным кодом, которая создает AI Layer1 в блокчейне (. На начальном этапе это будет Layer 2, затем она будет мигрировать на Layer 1). Объединив AI Pipeline и технологии блокчейна, она строит децентрализованную экономику искусственного интеллекта. Основная цель заключается в решении проблем принадлежности моделей, отслеживания вызовов и распределения ценностей на централизованном рынке LLM с помощью структуры "OML" (открытая, прибыльная, лояльная), чтобы обеспечить структуру собственности на модели ИИ в блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient заключается в том, чтобы каждый мог создавать, сотрудничать, владеть и монетизировать продукты ИИ, тем самым способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединила ведущих мировых академических экспертов, блокчейн-предпринимателей и инженеров, стремясь создать сообществом управляемую, открытую и проверяемую платформу AGI. В её состав входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность AI и защиту конфиденциальности, а также соучредитель Polygon Sandeep Nailwal, который возглавляет стратегию блокчейна и экосистему. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих учебных заведениях, таких как Принстонский университет и Индийский институт технологий, охватывающих области AI/ML, NLP, компьютерного зрения и совместно способствуют реализации проекта.
Как второй проект предпринимателя и соучредителя Polygon Sandeep Nailwal, Sentient с самого начала имел ореол, обладая богатым ресурсами, связями и рыночной осведомленностью, что обеспечивало сильную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд seed-финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а среди других инвестиционных компаний были Delphi, Hashkey и десятки известных венчурных капиталистов, таких как Spartan.
проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Ядро архитектуры
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного AI" артефактов, включает в себя два основных процесса:
Система блокчейна обеспечивает прозрачность и децентрализованный контроль для протокола, гарантируя право собственности на искусственный интеллект, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:
OML модельный фрейм
OML фреймворк (Открытый Open, Монизируемый Monetizable, Лояльный Loyal) является основной концепцией, предложенной Sentient, и направлен на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Сочетая технологии в блокчейне и нативную криптографию AI, он обладает следующими характеристиками:
AI нативная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность AI-моделей, структуру низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Ее核心技术是:
Этот способ позволяет реализовать "авторизованный вызов на основе поведения + верификация принадлежности" без дополнительных затрат на повторное шифрование.
Модель подтверждения прав и безопасного выполнения
Sentient в настоящее время использует безопасный механизм Melange: комбинация подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. Метод отпечатков пальцев реализуется через OML 1.0 как основная линия, подчеркивающая принцип "оптимистичной безопасности (Optimistic Security)", то есть по умолчанию считается соблюдающим, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевым элементом OML. Он позволяет модели генерировать уникальные подписи на этапе обучения, внедряя определенные пары «вопрос-ответ». С помощью этих подписей владельцы модели могут проверять право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительный фреймворк Enclave TEE, который использует защищённые среды выполнения (например, AWS Nitro Enclaves), чтобы гарантировать, что модель реагирует только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определённые риски безопасности, его высокая производительность и