Relatório de pesquisa AI Layer1: Encontrando a terra fértil para DeAI na cadeia
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Simultaneamente, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção às questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "ser boa" ou "ser má" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia de blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações de "Web3 AI" em algumas blockchains mainstream. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados, com uma forte ênfase em atributos de meme, dificultando a sustentação de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação ainda a serem aprimoradas.
Para realmente concretizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismo de incentivo eficiente e consenso descentralizado
O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder computacional, armazenamento, entre outros. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e os mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós nas tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente altos. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar tipos de tarefas diversificadas e heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos computacionais heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo a expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável
A camada 1 da IA não só deve prevenir riscos de segurança, como mau uso do modelo e manipulação de dados, mas também deve garantir, a partir da sua mecânica subjacente, a verificabilidade e a alinhamento dos resultados da IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma consegue permitir que cada inferência de modelo, treinamento e processo de manipulação de dados possam ser verificados independentemente, garantindo a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entenderem a lógica e os fundamentos das saídas da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Protecção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, especialmente nas áreas financeira, médica e social, a proteção da privacidade dos dados é especialmente crucial. A IA Layer 1 deve garantir a verificabilidade, ao mesmo tempo em que utiliza tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privativa e gestão de permissões de dados, para garantir a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica
Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, fornecedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de uma diversidade de aplicações nativas de IA, realizando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente analisar os avanços mais recentes do setor, examinar o estado atual do desenvolvimento dos projetos e discutir as tendências futuras.
Sentient: construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto, que está construindo uma blockchain AI Layer1 ( na fase inicial como Layer 2, e posteriormente migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, está construindo uma economia de inteligência artificial descentralizada. Seu objetivo central é resolver os problemas de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através do framework "OML" (aberto, lucrativo, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão do Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como em instituições de ensino de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP, visão computacional, colaborando para a implementação do projeto.
Como projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, o Sentient nasceu com uma aura especial, possuindo recursos abundantes, conexões e reconhecimento no mercado, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de outras VCs renomadas.
Arquitetura de design e camada de aplicação
camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", que contém dois processos principais:
Planejamento de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, usado para o alinhamento do modelo.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain oferece transparência e controle descentralizado para o protocolo, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: contrato de autorização controla a entrada da chamada do modelo;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita distribuirá o pagamento a cada chamada para os treinadores, implantadores e validadores.
OML modelo de estrutura
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é a ideia central proposta pela Sentient, destinada a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada de modelo irá desencadear um fluxo de receita, o contrato na cadeia irá distribuir os ganhos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação são controlados por mecanismos de criptografia.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital incorporada: durante o treinamento, insira um conjunto de pares de chave-valor de consulta-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi mantida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: antes da chamada, é necessário obter o "certificado de permissão" emitido pelo proprietário do modelo, e o sistema autoriza o modelo a decodificar a entrada e retornar a resposta correta com base nisso.
Este método permite realizar "chamadas autorizadas baseadas em comportamento + validação de pertencimento" sem o custo de recriptografia.
Modelo de titularidade e estrutura de execução segura
Sentient atualmente utiliza a segurança Melange: combinação de reconhecimento de impressões digitais, execução TEE e contratos na cadeia para compartilhamento de lucros. O método de impressões digitais é implementado pela OML 1.0 como linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", que assume conformidade por padrão e permite a detecção e punição após a violação.
O mecanismo de impressão digital é a implementação chave do OML, que permite ao modelo gerar assinaturas únicas durante a fase de treinamento, incorporando pares específicos de "perguntas-respostas". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores de modelos, mas também fornece um registro rastreável na cadeia sobre o uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, utilizando ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e em tempo real fazem dele uma opção atual.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
4
Partilhar
Comentar
0/400
consensus_whisperer
· 6h atrás
Os gigantes monopolizam a IA, quem vai regular isso?
Ver originalResponder0
MaticHoleFiller
· 6h atrás
Monopólio é o pecado original, pro todos entendem.
Qual é o melhor Layer1 de IA? Explorando 6 grandes projetos no terreno fértil da DeAI.
Relatório de pesquisa AI Layer1: Encontrando a terra fértil para DeAI na cadeia
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Simultaneamente, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção às questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "ser boa" ou "ser má" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia de blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações de "Web3 AI" em algumas blockchains mainstream. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados, com uma forte ênfase em atributos de meme, dificultando a sustentação de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação ainda a serem aprimoradas.
Para realmente concretizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder computacional, armazenamento, entre outros. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e os mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós nas tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente altos. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar tipos de tarefas diversificadas e heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos computacionais heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo a expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A camada 1 da IA não só deve prevenir riscos de segurança, como mau uso do modelo e manipulação de dados, mas também deve garantir, a partir da sua mecânica subjacente, a verificabilidade e a alinhamento dos resultados da IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma consegue permitir que cada inferência de modelo, treinamento e processo de manipulação de dados possam ser verificados independentemente, garantindo a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entenderem a lógica e os fundamentos das saídas da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Protecção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, especialmente nas áreas financeira, médica e social, a proteção da privacidade dos dados é especialmente crucial. A IA Layer 1 deve garantir a verificabilidade, ao mesmo tempo em que utiliza tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privativa e gestão de permissões de dados, para garantir a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, fornecedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de uma diversidade de aplicações nativas de IA, realizando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente analisar os avanços mais recentes do setor, examinar o estado atual do desenvolvimento dos projetos e discutir as tendências futuras.
Sentient: construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto, que está construindo uma blockchain AI Layer1 ( na fase inicial como Layer 2, e posteriormente migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, está construindo uma economia de inteligência artificial descentralizada. Seu objetivo central é resolver os problemas de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através do framework "OML" (aberto, lucrativo, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão do Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como em instituições de ensino de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP, visão computacional, colaborando para a implementação do projeto.
Como projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, o Sentient nasceu com uma aura especial, possuindo recursos abundantes, conexões e reconhecimento no mercado, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de outras VCs renomadas.
Arquitetura de design e camada de aplicação
camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", que contém dois processos principais:
O sistema de blockchain oferece transparência e controle descentralizado para o protocolo, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
OML modelo de estrutura
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é a ideia central proposta pela Sentient, destinada a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Este método permite realizar "chamadas autorizadas baseadas em comportamento + validação de pertencimento" sem o custo de recriptografia.
Modelo de titularidade e estrutura de execução segura
Sentient atualmente utiliza a segurança Melange: combinação de reconhecimento de impressões digitais, execução TEE e contratos na cadeia para compartilhamento de lucros. O método de impressões digitais é implementado pela OML 1.0 como linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", que assume conformidade por padrão e permite a detecção e punição após a violação.
O mecanismo de impressão digital é a implementação chave do OML, que permite ao modelo gerar assinaturas únicas durante a fase de treinamento, incorporando pares específicos de "perguntas-respostas". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores de modelos, mas também fornece um registro rastreável na cadeia sobre o uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, utilizando ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e em tempo real fazem dele uma opção atual.