Анализ сектора AI Layer1: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, продолжают активно развивать большие языковые модели (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя человеческое воображение, и даже в некоторых сценариях показывают потенциал замены человеческого труда. Однако ядро этих технологий находится под контролем немногих централизованных технологических гигантов. Благодаря мощному капиталу и контролю над дорогостоящими вычислительными ресурсами эти компании создали непреодолимые барьеры, из-за которых подавляющему большинству разработчиков и инновационных команд трудно с ними соперничать.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредоточивается на прорывах и удобствах, которые предоставляет технология, в то время как внимание к таким основным вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно недостаточным. В долгосрочной перспективе эти вопросы будут оказывать глубокое влияние на здоровое развитие индустрии ИИ и ее социальное принятие. Если их не удастся должным образом решить, спор о том, будет ли ИИ "направлен на добро" или "направлен на зло", станет все более актуальным, а централизованные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации, чтобы активно справляться с этими вызовами.
Технология блокчейн, благодаря своим децентрализованным, прозрачным и антикоррупционным характеристикам, открывает новые возможности для устойчивого развития отрасли ИИ. В настоящее время на основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно обнаружить, что у этих проектов все еще есть много проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных услуг, что затрудняет поддержку по-настоящему открытой экосистемы; с другой стороны, по сравнению с продуктами ИИ из мира Web2, ИИ в блокчейне все еще ограничен в возможностях моделей, использовании данных и сценариях применения, глубина и широта инноваций требуют повышения.
Чтобы по-настоящему реализовать видение децентрализованного ИИ, необходимо, чтобы в блокчейне безопасно, эффективно и демократично размещались масштабные приложения ИИ, и чтобы по производительности он мог конкурировать с централизованными решениями. Мы должны разработать Layer1 блокчейн, специально созданный для ИИ. Это создаст прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно связаны с потребностями AI-задач, с целью эффективно поддерживать устойчивое развитие и процветание экосистемы AI в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса. Ядро AI Layer 1 заключается в создании открытой сети для共享 ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерии, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов в инфрастуктуре AI. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен быть в состоянии точно оценивать, поощрять и проверять фактический вклад узлов в задачи AI вывода и обучения, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходные высокопроизводительные возможности и поддержка гетерогенных задач. AI задачи, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто требует поддержки разнообразных и гетерогенных типов задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован для удовлетворения требований высокой пропускной способности, низкой задержки и эластичной параллельности на уровне базовой архитектуры, а также иметь предустановленную нативную поддержку гетерогенных вычислительных ресурсов, чтобы обеспечить эффективное выполнение различных AI задач и плавное расширение от "единичных задач" до "сложной многообразной экосистемы."
Проверяемость и гарантии доверительного вывода AI Layer 1 должны не только предотвращать злонамеренные действия моделей, искажение данных и другие риски безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. Интегрируя такие передовые технологии, как доверенные вычислительные среды (TEE), нулевые доказательства (ZK), защищенные вычисления с участием нескольких сторон (MPC), платформа может обеспечить независимую проверку каждого процесса вывода модели, обучения и обработки данных, гарантируя справедливость и прозрачность AI-системы. В то же время такая проверяемость помогает пользователям четко понимать логику и основания вывода AI, достигая "полученного именно того, что желалось", повышая доверие пользователей к AI-продуктам и их удовлетворенность.
Защита конфиденциальности данных Приложения ИИ часто связаны с чувствительными данными пользователей, в финансовой, медицинской, социальной и других областях защита конфиденциальности данных особенно критична. AI Layer 1 должен обеспечивать проверяемость, используя технологии обработки данных на основе шифрования, протоколы вычислений с сохранением конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя опасения пользователей по поводу безопасности данных.
Мощные возможности по поддержке экосистемы и разработки. В качестве инфраструктуры Layer 1, родной для ИИ, платформа должна не только обладать техническим лидерством, но и предоставлять разработчикам, операторам узлов, поставщикам ИИ-услуг и другим участникам экосистемы полный набор инструментов для разработки, интегрированные SDK, поддержку операций и механизмы стимулов. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем внедрению разнообразных приложений, родных для ИИ, и обеспечиваем непрерывное процветание децентрализованной экосистемы ИИ.
Исходя из вышеизложенного контекста и ожиданий, в данной статье будет подробно рассмотрено шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически обобщая последние достижения в данной области, анализируя текущее состояние проектов и обсуждая будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI модели
Обзор проекта
Sentient является платформой открытых протоколов, которая разрабатывает AI Layer1 в блокчейне (, первоначально на Layer 2, после чего будет перенесена на Layer 1). Объединив AI Pipeline и технологии блокчейна, мы создаем децентрализованную экономику искусственного интеллекта. Его основная цель - решить проблемы принадлежности моделей, отслеживания вызовов и распределения ценностей на централизованном рынке LLM с помощью "OML" (открытость, прибыльность, лояльность), обеспечивая структуру собственности на модели AI в блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, таким образом способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет ведущих мировых академических экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообщественно-ориентированную, открытую и проверяемую платформу AGI. В её состав входят профессор Принстонского университета Прамод Вишванат и профессор Индийского института науки Химаншу Тяги, которые отвечают за безопасность и защиту данных ИИ, в то время как соучредитель Polygon Сандип Найлвал руководит стратегией блокчейна и экосистемным развитием. Члены команды имеют опыт работы в таких компаниях, как Meta, Coinbase, Polygon, а также в ведущих учебных заведениях, таких как Принстонский университет и Индийский институт технологий, охватывающих области ИИ/МЛ, НЛП, компьютерного зрения и содействуют реализации проекта.
Как вторичный проект соучредителя Polygon Sandeep Nailwal, Sentient с самого начала имела ауру, обладая богатым набором ресурсов, связей и рыночной осведомленностью, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершила раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а также другие инвестиционные компании, включая Delphi, Hashkey и десятки других VC.
проектная архитектура и уровень приложений
Инфраструктурный уровень
Основная архитектура
Ядро Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного AI" артефактов и включает в себя два основных процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, предназначенный для согласования модели.
Обучение лояльности (Loyalty Training): обеспечение того, чтобы модель поддерживала процесс обучения, согласующийся с намерениями сообщества.
Система в блокчейне обеспечивает прозрачность и децентрализованное управление протоколом, гарантируя право собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура делится на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков пальцев;
Уровень распределения: точка входа для вызова модели управления контрактом.
Уровень доступа: проверка, авторизован ли пользователь через подтверждение прав.
Стимулирующий уровень: контракт маршрутизации доходов будет распределять платежи между тренерами, развертывателями и валидаторами при каждом вызове.
OML модельная структура
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) — это основная концепция, предложенная Sentient, которая направлена на обеспечение четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Он обладает следующими характеристиками благодаря сочетанию цепочечной технологии и нативной криптографии AI:
Открытость: Модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло воспроизводить, проверять и улучшать.
Монетизация: Каждый вызов модели генерирует поток доходов, в блокчейне контракт распределяет доходы между тренерами, развертывателями и проверяющими.
Верность: Модель принадлежит сообществу участников, направление обновления и управление определяются DAO, использование и изменение контролируются криптомеханизмами.
AI-родная криптография использует непрерывность моделей AI, структуру низкоразмерных манифольдов и дифференцируемые свойства моделей для разработки "проверяемого, но не подлежащего удалению" легковесного механизма безопасности. Основная технология заключается в:
Встраивание отпечатков: во время обучения вставляется набор скрытых пар ключ-значение запрос-ответ, формируя уникальную подпись модели;
Протокол проверки прав собственности: проверка сохранения отпечатков пальцев с помощью стороннего детектора (Prover) в форме запроса (query);
Механизм разрешения вызова: перед вызовом необходимо получить "разрешительный сертификат", выданный владельцем модели, после чего система предоставит модели разрешение на декодирование данного ввода и возврат точного ответа.
Этот способ позволяет реализовать "поведенческий авторизационный вызов + верификация принадлежности" без дополнительных затрат на повторное шифрование.
Модель прав собственности и безопасного исполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. Метод отпечатков пальцев реализован в OML 1.0 как основная линия, подчеркивающая идею "оптимистичной безопасности (Optimistic Security)", то есть по умолчанию соблюдение правил, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевой реализацией OML, который позволяет модели генерировать уникальную подпись на этапе обучения, внедряя определенные пары "вопрос-ответ". С помощью этих подписей владельцы модели могут проверять принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные исполняемые среды (такие как AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.
В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы дополнительно усилить защиту конфиденциальности и проверяемость, предоставляя более зрелые решения для децентрализованного развертывания AI моделей.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
6
Поделиться
комментарий
0/400
ColdWalletGuardian
· 10м назад
Погружение в AI-сферу
Посмотреть ОригиналОтветить0
DegenMcsleepless
· 4ч назад
Искусственный интеллект и централизация в конечном итоге исчезнут.
Анализ сектора AI Layer1: исследование плодородной почвы для развития DeAI в блокчейне
Анализ сектора AI Layer1: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, продолжают активно развивать большие языковые модели (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя человеческое воображение, и даже в некоторых сценариях показывают потенциал замены человеческого труда. Однако ядро этих технологий находится под контролем немногих централизованных технологических гигантов. Благодаря мощному капиталу и контролю над дорогостоящими вычислительными ресурсами эти компании создали непреодолимые барьеры, из-за которых подавляющему большинству разработчиков и инновационных команд трудно с ними соперничать.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредоточивается на прорывах и удобствах, которые предоставляет технология, в то время как внимание к таким основным вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно недостаточным. В долгосрочной перспективе эти вопросы будут оказывать глубокое влияние на здоровое развитие индустрии ИИ и ее социальное принятие. Если их не удастся должным образом решить, спор о том, будет ли ИИ "направлен на добро" или "направлен на зло", станет все более актуальным, а централизованные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации, чтобы активно справляться с этими вызовами.
Технология блокчейн, благодаря своим децентрализованным, прозрачным и антикоррупционным характеристикам, открывает новые возможности для устойчивого развития отрасли ИИ. В настоящее время на основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно обнаружить, что у этих проектов все еще есть много проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных услуг, что затрудняет поддержку по-настоящему открытой экосистемы; с другой стороны, по сравнению с продуктами ИИ из мира Web2, ИИ в блокчейне все еще ограничен в возможностях моделей, использовании данных и сценариях применения, глубина и широта инноваций требуют повышения.
Чтобы по-настоящему реализовать видение децентрализованного ИИ, необходимо, чтобы в блокчейне безопасно, эффективно и демократично размещались масштабные приложения ИИ, и чтобы по производительности он мог конкурировать с централизованными решениями. Мы должны разработать Layer1 блокчейн, специально созданный для ИИ. Это создаст прочную основу для открытых инноваций в области ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно связаны с потребностями AI-задач, с целью эффективно поддерживать устойчивое развитие и процветание экосистемы AI в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса. Ядро AI Layer 1 заключается в создании открытой сети для共享 ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерии, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но также вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов в инфрастуктуре AI. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен быть в состоянии точно оценивать, поощрять и проверять фактический вклад узлов в задачи AI вывода и обучения, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Превосходные высокопроизводительные возможности и поддержка гетерогенных задач. AI задачи, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто требует поддержки разнообразных и гетерогенных типов задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован для удовлетворения требований высокой пропускной способности, низкой задержки и эластичной параллельности на уровне базовой архитектуры, а также иметь предустановленную нативную поддержку гетерогенных вычислительных ресурсов, чтобы обеспечить эффективное выполнение различных AI задач и плавное расширение от "единичных задач" до "сложной многообразной экосистемы."
Проверяемость и гарантии доверительного вывода AI Layer 1 должны не только предотвращать злонамеренные действия моделей, искажение данных и другие риски безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. Интегрируя такие передовые технологии, как доверенные вычислительные среды (TEE), нулевые доказательства (ZK), защищенные вычисления с участием нескольких сторон (MPC), платформа может обеспечить независимую проверку каждого процесса вывода модели, обучения и обработки данных, гарантируя справедливость и прозрачность AI-системы. В то же время такая проверяемость помогает пользователям четко понимать логику и основания вывода AI, достигая "полученного именно того, что желалось", повышая доверие пользователей к AI-продуктам и их удовлетворенность.
Защита конфиденциальности данных Приложения ИИ часто связаны с чувствительными данными пользователей, в финансовой, медицинской, социальной и других областях защита конфиденциальности данных особенно критична. AI Layer 1 должен обеспечивать проверяемость, используя технологии обработки данных на основе шифрования, протоколы вычислений с сохранением конфиденциальности и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах, включая вывод, обучение и хранение, эффективно предотвращая утечку и злоупотребление данными, устраняя опасения пользователей по поводу безопасности данных.
Мощные возможности по поддержке экосистемы и разработки. В качестве инфраструктуры Layer 1, родной для ИИ, платформа должна не только обладать техническим лидерством, но и предоставлять разработчикам, операторам узлов, поставщикам ИИ-услуг и другим участникам экосистемы полный набор инструментов для разработки, интегрированные SDK, поддержку операций и механизмы стимулов. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем внедрению разнообразных приложений, родных для ИИ, и обеспечиваем непрерывное процветание децентрализованной экосистемы ИИ.
Исходя из вышеизложенного контекста и ожиданий, в данной статье будет подробно рассмотрено шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически обобщая последние достижения в данной области, анализируя текущее состояние проектов и обсуждая будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI модели
Обзор проекта
Sentient является платформой открытых протоколов, которая разрабатывает AI Layer1 в блокчейне (, первоначально на Layer 2, после чего будет перенесена на Layer 1). Объединив AI Pipeline и технологии блокчейна, мы создаем децентрализованную экономику искусственного интеллекта. Его основная цель - решить проблемы принадлежности моделей, отслеживания вызовов и распределения ценностей на централизованном рынке LLM с помощью "OML" (открытость, прибыльность, лояльность), обеспечивая структуру собственности на модели AI в блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, таким образом способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет ведущих мировых академических экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообщественно-ориентированную, открытую и проверяемую платформу AGI. В её состав входят профессор Принстонского университета Прамод Вишванат и профессор Индийского института науки Химаншу Тяги, которые отвечают за безопасность и защиту данных ИИ, в то время как соучредитель Polygon Сандип Найлвал руководит стратегией блокчейна и экосистемным развитием. Члены команды имеют опыт работы в таких компаниях, как Meta, Coinbase, Polygon, а также в ведущих учебных заведениях, таких как Принстонский университет и Индийский институт технологий, охватывающих области ИИ/МЛ, НЛП, компьютерного зрения и содействуют реализации проекта.
Как вторичный проект соучредителя Polygon Sandeep Nailwal, Sentient с самого начала имела ауру, обладая богатым набором ресурсов, связей и рыночной осведомленностью, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершила раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а также другие инвестиционные компании, включая Delphi, Hashkey и десятки других VC.
проектная архитектура и уровень приложений
Инфраструктурный уровень
Основная архитектура
Ядро Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного AI" артефактов и включает в себя два основных процесса:
Система в блокчейне обеспечивает прозрачность и децентрализованное управление протоколом, гарантируя право собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура делится на четыре уровня:
OML модельная структура
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) — это основная концепция, предложенная Sentient, которая направлена на обеспечение четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Он обладает следующими характеристиками благодаря сочетанию цепочечной технологии и нативной криптографии AI:
Искусственный интеллект-родная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность моделей AI, структуру низкоразмерных манифольдов и дифференцируемые свойства моделей для разработки "проверяемого, но не подлежащего удалению" легковесного механизма безопасности. Основная технология заключается в:
Этот способ позволяет реализовать "поведенческий авторизационный вызов + верификация принадлежности" без дополнительных затрат на повторное шифрование.
Модель прав собственности и безопасного исполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав с помощью отпечатков пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. Метод отпечатков пальцев реализован в OML 1.0 как основная линия, подчеркивающая идею "оптимистичной безопасности (Optimistic Security)", то есть по умолчанию соблюдение правил, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевой реализацией OML, который позволяет модели генерировать уникальную подпись на этапе обучения, внедряя определенные пары "вопрос-ответ". С помощью этих подписей владельцы модели могут проверять принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные исполняемые среды (такие как AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.
В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы дополнительно усилить защиту конфиденциальности и проверяемость, предоставляя более зрелые решения для децентрализованного развертывания AI моделей.