Informe de investigación del ecosistema AI Layer1: buscando tierras fértiles para DeAI en la cadena.
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando en ciertos escenarios el potencial de reemplazar el trabajo humano. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un fuerte capital y el control sobre costosos recursos computacionales, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y comodidades que trae la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "benévola" o "malévola" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de forma proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ha proporcionado nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en algunas de las principales blockchains. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y las etapas clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en la cadena presenta limitaciones en capacidades de modelo, uso de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan mejorar.
Para lograr verdaderamente la visión de la inteligencia artificial descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el desarrollo próspero del ecosistema de IA descentralizada.
características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centran estrechamente en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenibles del ecosistema de IA en la cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y consenso descentralizado
El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionar potencia de cálculo, completar el entrenamiento y la inferencia de modelos de IA, sino también contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y el mecanismo de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la eficiente distribución de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas
Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean demandas extremadamente altas en términos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en la cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizar profundamente la arquitectura subyacente para satisfacer las necesidades de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y preestablecer la capacidad de soporte nativo para recursos de computación heterogéneos, asegurando que diversas tareas de IA se puedan ejecutar de manera eficiente, logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable
AI Layer 1 no solo debe prevenir el mal uso de los modelos y la manipulación de datos, sino que también debe garantizar, desde los mecanismos subyacentes, la verificabilidad y alineación de los resultados de salida de la IA. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y computación segura multiparte (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos pueda ser verificado de manera independiente, asegurando la equidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y fundamentos de la salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción del usuario en los productos de IA.
Protección de la privacidad de los datos
Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, eliminando así las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo para la carga del ecosistema
Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener un liderazgo técnico, sino también proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos para los participantes del ecosistema como desarrolladores, operadores de nodos y proveedores de servicios de IA. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain AI Layer1 (. La fase inicial es Layer 2, y luego se migrará a Layer 1). Al combinar AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores académicos, emprendedores de blockchain e ingenieros del mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y la disposición ecológica. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo campos como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento de semillas de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de fondos de capital de riesgo reconocidos, incluidos Delphi, Hashkey y Spartan.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un pipeline de IA (AI Pipeline) y un sistema de blockchain.
La tubería de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
Curaduría de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación de modelos.
Entrenamiento de Lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenamiento de pesos del modelo y la información de registro de huellas digitales;
Capa de distribución: la entrada de llamada del modelo está controlada por el contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado mediante prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago a los entrenadores, desplegadores y validadores en cada llamada.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar protección clara de propiedad y mecanismos de incentivo económico para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructuras de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada vez que se llama al modelo, se activa un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, implementadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de actualización y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Inserción de huellas digitales: Inserta un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar una firma única del modelo;
Protocolo de verificación de propiedad: verifica si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada con permisos: antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema autorizará al modelo a decodificar la entrada y devolver la respuesta correcta.
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de la re-encriptación.
Marco de certificación de modelos y ejecución segura
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huellas dactilares es la implementación de OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, detección y castigo en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos, permite al modelo generar firmas únicas durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable en la cadena para el comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de cálculo Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, evitando el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, su alto rendimiento y
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
4
Compartir
Comentar
0/400
ZenZKPlayer
· hace12h
¿Estás soñando de nuevo? ¿Esto puede competir con los gigantes de la pista?
Ver originalesResponder0
BlockchainArchaeologist
· hace12h
¡No digas el precio después de ver todo! ¿Qué tal un token ecológico?
Ver originalesResponder0
ForkPrince
· hace12h
Está demasiado centralizado, hay que aplicar la antimonopolio.
Ver originalesResponder0
ChainDetective
· hace12h
Es muy difícil que los gigantes tecnológicos controlen la IA.
Investigación del ecosistema Layer1 de IA: distribución de seis grandes proyectos en el futuro de DeAI on-chain
Informe de investigación del ecosistema AI Layer1: buscando tierras fértiles para DeAI en la cadena.
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando en ciertos escenarios el potencial de reemplazar el trabajo humano. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un fuerte capital y el control sobre costosos recursos computacionales, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y comodidades que trae la tecnología, mientras que la atención a problemas centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA es "benévola" o "malévola" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para abordar estos desafíos de forma proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ha proporcionado nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en algunas de las principales blockchains. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y las etapas clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en la cadena presenta limitaciones en capacidades de modelo, uso de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan mejorar.
Para lograr verdaderamente la visión de la inteligencia artificial descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el desarrollo próspero del ecosistema de IA descentralizada.
características clave de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centran estrechamente en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenibles del ecosistema de IA en la cadena. Específicamente, AI Layer 1 debe poseer las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionar potencia de cálculo, completar el entrenamiento y la inferencia de modelos de IA, sino también contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y el mecanismo de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la eficiente distribución de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean demandas extremadamente altas en términos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en la cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizar profundamente la arquitectura subyacente para satisfacer las necesidades de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y preestablecer la capacidad de soporte nativo para recursos de computación heterogéneos, asegurando que diversas tareas de IA se puedan ejecutar de manera eficiente, logrando una expansión fluida desde "tareas de tipo único" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable AI Layer 1 no solo debe prevenir el mal uso de los modelos y la manipulación de datos, sino que también debe garantizar, desde los mecanismos subyacentes, la verificabilidad y alineación de los resultados de salida de la IA. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y computación segura multiparte (MPC), la plataforma permite que cada inferencia de modelo, entrenamiento y proceso de manejo de datos pueda ser verificado de manera independiente, asegurando la equidad y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y fundamentos de la salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción del usuario en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en campos como las finanzas, la salud y las redes sociales, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, eliminando así las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo para la carga del ecosistema Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener un liderazgo técnico, sino también proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos para los participantes del ecosistema como desarrolladores, operadores de nodos y proveedores de servicios de IA. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua de un ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain AI Layer1 (. La fase inicial es Layer 2, y luego se migrará a Layer 1). Al combinar AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores académicos, emprendedores de blockchain e ingenieros del mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y la disposición ecológica. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo campos como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento de semillas de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de fondos de capital de riesgo reconocidos, incluidos Delphi, Hashkey y Spartan.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un pipeline de IA (AI Pipeline) y un sistema de blockchain.
La tubería de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar protección clara de propiedad y mecanismos de incentivo económico para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de la re-encriptación.
Marco de certificación de modelos y ejecución segura
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y reparto de beneficios de contratos on-chain. El método de huellas dactilares es la implementación de OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, detección y castigo en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que a través de la incorporación de pares de "pregunta-respuesta" específicos, permite al modelo generar firmas únicas durante la fase de entrenamiento. A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable en la cadena para el comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de cálculo Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, evitando el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, su alto rendimiento y