Autor original: @BlazingKevin_ , o Pesquisador na Movemaker
O armazenamento foi uma das principais narrativas do setor, com o Filecoin como líder do mercado na última corrida de alta, alcançando um valor de mercado superior a 10 bilhões de dólares. O Arweave, como um protocolo de armazenamento comparável, destacou-se pelo armazenamento permanente, atingindo um valor de mercado máximo de 3,5 bilhões de dólares. No entanto, à medida que a viabilidade do armazenamento de dados frios foi questionada, a necessidade de armazenamento permanente foi colocada em dúvida, levantando um grande sinal de interrogação sobre se essa narrativa de armazenamento descentralizado pode prosperar. O surgimento do Walrus trouxe novas energias para a narrativa de armazenamento, e agora a Aptos, em parceria com a Jump Crypto, lançou o Shelby, com o objetivo de elevar o armazenamento descentralizado para um novo patamar no segmento de dados quentes. Então, será que o armazenamento descentralizado pode voltar a ter relevância e oferecer casos de uso amplos? Ou será apenas mais uma onda de especulação? Este artigo analisa a evolução das narrativas de armazenamento descentralizado a partir das trajetórias de desenvolvimento do Filecoin, Arweave, Walrus e Shelby, tentando encontrar uma resposta para a seguinte pergunta: quão longe está a popularização do armazenamento descentralizado?
Filecoin: O armazenamento é a aparência, a mineração é a essência
Filecoin é uma das criptomoedas alternativas que surgiu inicialmente, e sua direção de desenvolvimento gira naturalmente em torno da descentralização, que é uma característica comum entre as criptomoedas iniciais — ou seja, a busca pelo significado da existência da descentralização em várias áreas tradicionais. Filecoin não é exceção, pois conecta armazenamento à descentralização, evocando naturalmente as desvantagens do armazenamento centralizado: a suposição de confiança em provedores de serviços de armazenamento de dados centralizados. Portanto, o que o Filecoin faz é transformar o armazenamento centralizado em armazenamento descentralizado. No entanto, algumas facetas sacrificadas nesse processo para alcançar a descentralização se tornaram os pontos críticos que projetos posteriores como Arweave ou Walrus pretendem resolver. Para entender por que o Filecoin é apenas uma moeda de mineração, é necessário compreender as limitações objetivas de sua tecnologia subjacente IPFS, que não é adequada para dados quentes.
IPFS: Arquitetura descentralizada, mas limitada pelo gargalo de transmissão
O IPFS (InterPlanetary File System) foi lançado por volta de 2015 e visa revolucionar o protocolo HTTP tradicional através do endereçamento de conteúdo. A maior desvantagem do IPFS é que a velocidade de obtenção é extremamente lenta. Em uma era em que os provedores de serviços de dados tradicionais conseguem respostas em milissegundos, o IPFS ainda leva mais de dez segundos para obter um arquivo, o que dificulta sua promoção em aplicações práticas e explica por que, além de alguns projetos em blockchain, é raramente adotado pela indústria tradicional.
O protocolo P2P de camada IPFS é principalmente adequado para "dados frios", ou seja, conteúdos estáticos que não mudam com frequência, como vídeos, imagens e documentos. No entanto, ao lidar com dados quentes, como páginas da web dinâmicas, jogos online ou aplicações de inteligência artificial, o protocolo P2P não apresenta vantagens significativas em relação ao CDN tradicional.
No entanto, apesar de o IPFS não ser uma blockchain, a sua abordagem de design baseada em gráfico acíclico dirigido (DAG) alinha-se muito bem com muitas blockchains e protocolos Web3, tornando-o intrinsecamente adequado como uma estrutura de construção de base para blockchains. Portanto, mesmo que não tenha valor prático, como uma estrutura de base que sustenta a narrativa da blockchain, já é mais do que suficiente. Projetos iniciais apenas precisavam de uma estrutura funcional para iniciar a exploração. No entanto, quando o Filecoin se desenvolveu em um certo ponto, as limitações do IPFS começaram a obstruir seu progresso.
A lógica das moedas mineradas sob a camada de armazenamento
O design do IPFS foi concebido para permitir que os usuários armazenem dados enquanto também fazem parte de uma rede de armazenamento. No entanto, na ausência de incentivos econômicos, é difícil para os usuários utilizarem voluntariamente este sistema, muito menos se tornarem nós de armazenamento ativos. Isso significa que a maioria dos usuários apenas armazenará arquivos no IPFS, mas não contribuirá com seu espaço de armazenamento ou armazenará arquivos de outros. É nesse contexto que o Filecoin surgiu.
No modelo econômico de tokens do Filecoin, existem três papéis principais: os usuários são responsáveis por pagar taxas para armazenar dados; os mineradores de armazenamento recebem incentivos em tokens por armazenar dados dos usuários; os mineradores de recuperação fornecem dados quando os usuários precisam e recebem incentivos.
Este modelo apresenta um potencial espaço para comportamentos maliciosos. Os mineradores de armazenamento podem, após fornecer espaço de armazenamento, preencher com dados inúteis para obter recompensas. Como esses dados inúteis não são recuperados, mesmo que sejam perdidos, não acionam o mecanismo de penalização dos mineradores de armazenamento. Isso permite que os mineradores de armazenamento excluam dados inúteis e repitam esse processo. O consenso de prova de replicação do Filecoin só pode garantir que os dados dos usuários não foram excluídos de forma não autorizada, mas não pode impedir que os mineradores preencham dados inúteis.
A operação da Filecoin depende em grande parte do investimento contínuo dos mineradores na economia dos tokens, em vez de se basear na demanda real dos usuários finais por armazenamento distribuído. Embora o projeto ainda esteja em iteração contínua, nesta fase, a construção do ecossistema da Filecoin se alinha mais à definição de projetos de armazenamento "baseados em mineração" do que "impulsionados por aplicações".
Arweave: Sucede com o longo prazo, fracassa com o longo prazo
Se o objetivo de design do Filecoin é construir uma "nuvem de dados" descentralizada, incentivada e verificável, o Arweave segue em outra direção extrema no armazenamento: a capacidade de fornecer armazenamento permanente para os dados. O Arweave não tenta construir uma plataforma de computação distribuída; todo o seu sistema gira em torno de uma hipótese central - dados importantes devem ser armazenados uma vez e permanecer para sempre na rede. Esse extremismo do longo prazo faz com que o Arweave, desde seus mecanismos até seu modelo de incentivos, desde os requisitos de hardware até a perspectiva narrativa, seja muito diferente do Filecoin.
Arweave usa o Bitcoin como objeto de estudo, tentando otimizar continuamente sua rede de armazenamento permanente ao longo de longos períodos contados em anos. Arweave não se preocupa com marketing, nem com concorrentes ou tendências de mercado. Está apenas avançando no caminho da iteração da arquitetura da rede, mesmo que ninguém esteja prestando atenção, pois essa é a essência da equipe de desenvolvimento da Arweave: o longo prazo. Graças ao longo prazo, a Arweave foi amplamente aclamada no último mercado em alta; e também por causa do longo prazo, mesmo que caia para o fundo do poço, a Arweave ainda pode suportar várias rodadas de alta e baixa. Mas haverá um lugar para a Arweave no futuro do armazenamento descentralizado? O valor da existência do armazenamento permanente só pode ser comprovado pelo tempo.
A mainnet do Arweave, desde a versão 1.5 até à mais recente versão 2.9, embora tenha perdido discussões de mercado, tem-se esforçado para permitir que um maior número de mineradores participe na rede com o menor custo possível, incentivando os mineradores a armazenar dados ao máximo, o que fortalece continuamente a robustez de toda a rede. O Arweave, ciente de que não se adequa às preferências do mercado, adotou uma abordagem conservadora, não abraçando a comunidade mineradora, com o ecossistema completamente estagnado, atualizando a mainnet com o menor custo possível e, sem comprometer a segurança da rede, diminuindo constantemente a barreira de entrada em termos de hardware.
Revisão do caminho de atualização de 1.5-2.9
A versão 1.5 do Arweave expôs uma vulnerabilidade onde os mineradores podiam confiar na empilhagem de GPU em vez de armazenamento real para otimizar a probabilidade de encontrar blocos. Para conter essa tendência, a versão 1.7 introduziu o algoritmo RandomX, limitando o uso de poder computacional especializado e exigindo que CPUs gerais participassem da mineração, enfraquecendo assim a centralização do poder computacional.
Na versão 2.0, o Arweave adotou SPoA, convertendo a prova de dados em um caminho simplificado de estrutura de árvore de Merkle, e introduziu transações de formato 2 para reduzir a carga de sincronização. Essa arquitetura alivia a pressão sobre a largura de banda da rede, aumentando significativamente a capacidade de colaboração dos nós. No entanto, alguns mineradores ainda podem evitar a responsabilidade real pela posse de dados por meio de uma estratégia de pool de armazenamento centralizado de alta velocidade.
Para corrigir essa tendência, a 2.4 introduziu o mecanismo SPoRA, que traz um índice global e acesso aleatório de hash lento, obrigando os mineradores a realmente possuírem blocos de dados para participar da produção de blocos válidos, enfraquecendo mecanicamente o efeito de empilhamento de poder computacional. Como resultado, os mineradores começaram a se concentrar na velocidade de acesso ao armazenamento, impulsionando a aplicação de SSDs e dispositivos de leitura e gravação de alta velocidade. A 2.6 introduziu uma cadeia de hashes para controlar o ritmo de criação de blocos, equilibrando o benefício marginal de dispositivos de alto desempenho e oferecendo um espaço de participação justa para mineradores de pequeno e médio porte.
As versões subsequentes reforçam ainda mais a capacidade de colaboração em rede e a diversidade de armazenamento: 2.7 Introduz mineração colaborativa e mecanismos de pool, aumentando a competitividade dos pequenos mineradores; 2.8 Lança um mecanismo de empacotamento composto, permitindo que dispositivos de alta capacidade e baixa velocidade participem de forma flexível; 2.9 Introduz um novo processo de empacotamento no formato replica_ 2 _ 9, aumentando significativamente a eficiência e reduzindo a dependência computacional, completando o ciclo do modelo de mineração orientado a dados.
De um modo geral, o caminho de atualização do Arweave apresenta claramente sua estratégia de longo prazo orientada para o armazenamento: ao mesmo tempo em que resiste continuamente à tendência de concentração de poder computacional, reduz constantemente as barreiras de entrada, garantindo a viabilidade do funcionamento do protocolo a longo prazo.
Walrus: Abraçando dados quentes é uma moda ou esconde um grande segredo?
Walrus, do ponto de vista do design, é completamente diferente do Filecoin e do Arweave. O ponto de partida do Filecoin é criar um sistema de armazenamento descentralizado e verificável, com o custo de armazenamento de dados frios; o ponto de partida do Arweave é criar uma biblioteca de Alexandria em cadeia que possa armazenar dados permanentemente, com o custo de ter poucos cenários; o ponto de partida do Walrus é otimizar o custo de armazenamento do protocolo de armazenamento de dados quentes.
Código de correção mágico: inovação de custos ou um novo rótulo para o velho vinho?
Na questão do design de custos de armazenamento, a Walrus acredita que os custos de armazenamento do Filecoin e do Arweave são irrazoáveis, uma vez que ambos adotam uma arquitetura de replicação completa. Sua principal vantagem é que cada nó possui uma cópia completa, o que proporciona uma forte capacidade de tolerância a falhas e independência entre os nós. Este tipo de arquitetura garante que, mesmo com a desconexão de alguns nós, a rede ainda mantém a disponibilidade dos dados. No entanto, isso também significa que o sistema requer redundância de múltiplas cópias para manter a robustez, o que aumenta os custos de armazenamento. Especialmente no design do Arweave, o mecanismo de consenso em si incentiva a redundância de armazenamento nos nós para aumentar a segurança dos dados. Em comparação, o Filecoin é mais flexível em termos de controle de custos, mas o preço a pagar é que o armazenamento de baixo custo pode apresentar um risco maior de perda de dados. A Walrus tenta encontrar um equilíbrio entre os dois, com um mecanismo que controla os custos de replicação enquanto aumenta a disponibilidade através de uma abordagem de redundância estruturada, estabelecendo assim um novo caminho de compromisso entre a disponibilidade de dados e a eficiência de custos.
A Redstuff criada pelo Walrus é uma tecnologia chave para a redução da redundância em nós, originando-se da codificação Reed-Solomon (RS). A codificação RS é um algoritmo de código de correção de erros muito tradicional, e o código de correção de erros é uma técnica que permite duplicar conjuntos de dados através da adição de fragmentos redundantes (erasure code), podendo ser usada para reconstruir os dados originais. Desde CD-ROM até comunicações via satélite e códigos QR, é frequentemente utilizada na vida cotidiana.
Códigos de correção de erro permitem que os usuários obtenham um bloco, por exemplo, de 1 MB, e depois o "ampliem" para 2 MB, onde o adicional de 1 MB é um dado especial chamado de código de correção de erro. Se qualquer byte no bloco estiver perdido, o usuário pode facilmente recuperar esses bytes através do código. Mesmo que até 1 MB do bloco esteja perdido, você pode recuperar o bloco inteiro. A mesma técnica permite que os computadores leiam todos os dados em um CD-ROM, mesmo que esteja danificado.
Atualmente, o código RS é o mais utilizado. A implementação consiste em, a partir de k blocos de informação, construir um polinómio relacionado e avaliá-lo em diferentes coordenadas x para obter blocos codificados. Usando o código de correção RS, a probabilidade de amostragem aleatória de grandes blocos de dados perdidos é muito pequena.
Exemplo: Dividir um arquivo em 6 blocos de dados e 4 blocos de verificação, totalizando 10 partes. Basta manter qualquer 6 partes para conseguir recuperar os dados originais completos.
Vantagens: Alta tolerância a falhas, amplamente aplicado em CD/DVD, matrizes de discos rígidos tolerantes a falhas (RAID) e sistemas de armazenamento em nuvem (como Azure Storage, Facebook F 4).
Desvantagens: a decodificação é complexa, com custos elevados; não é adequada para cenários de dados que mudam frequentemente. Portanto, geralmente é usada para recuperação e agendamento de dados em ambientes centralizados fora da cadeia.
Na arquitetura descentralizada, a Storj e a Sia ajustaram a codificação RS tradicional para atender às necessidades reais de redes distribuídas. A Walrus também propôs sua própria variante — o algoritmo de codificação RedStuff — para alcançar um mecanismo de armazenamento redundante mais econômico e flexível.
Qual é a principal característica do Redstuff? **Através da melhoria do algoritmo de codificação de correção de erros, o Walrus consegue codificar rapidamente e de forma robusta blocos de dados não estruturados em fragmentos menores, que são armazenados distribuídos em uma rede de nós de armazenamento. Mesmo com a perda de até dois terços dos fragmentos, é possível reconstruir rapidamente o bloco de dados original usando fragmentos parciais. **Isso se torna possível mantendo o fator de replicação entre 4 e 5 vezes.
Portanto, é razoável definir o Walrus como um protocolo leve de redundância e recuperação redesenhado em torno de cenários descentralizados. Em comparação com códigos de correção tradicionais (como o Reed-Solomon), o RedStuff não busca mais a consistência matemática rigorosa, mas faz compensações realistas em relação à distribuição de dados, verificação de armazenamento e custos computacionais. Este modelo abandona o mecanismo de decodificação instantânea exigido pela programação centralizada, passando a verificar on-chain se os nós possuem cópias específicas de dados através de Proof, adaptando-se assim a uma estrutura de rede mais dinâmica e marginalizada.
O núcleo do design do RedStuff é dividir os dados em duas categorias: fatias principais e fatias secundárias. As fatias principais são usadas para recuperar os dados originais, sua geração e distribuição estão sujeitas a restrições rigorosas, o limiar de recuperação é de f + 1 e requer 2 f + 1 assinaturas como respaldo de disponibilidade; as fatias secundárias são geradas através de operações simples como combinações XOR, com a finalidade de fornecer tolerância a falhas e aumentar a robustez geral do sistema. Essa estrutura, em essência, reduz a exigência de consistência dos dados - permitindo que diferentes nós armazenem versões diferentes dos dados por um curto período, enfatizando a prática de "consistência final". Embora semelhante aos requisitos mais flexíveis de blocos retroativos em sistemas como o Arweave, que obteve certo efeito na redução da carga na rede, também enfraqueceu a garantia de disponibilidade e integridade imediata dos dados.
Não se pode ignorar que, embora o RedStuff tenha conseguido um armazenamento eficaz em ambientes de baixa capacidade de computação e baixa largura de banda, ele ainda é essencialmente uma "variante" de um sistema de código de correção de erros. Ele sacrifica uma parte da determinância da leitura dos dados em troca de controle de custos e escalabilidade em um ambiente descentralizado. No entanto, a questão de saber se essa arquitetura pode suportar cenários de dados de grande escala e alta frequência de interação ainda precisa ser observada. Além disso, o RedStuff não superou realmente o gargalo de cálculo de codificação que existe há muito tempo nos códigos de correção de erros, mas contornou os pontos de alta acoplamento da arquitetura tradicional por meio de estratégias estruturais, sendo sua inovação mais evidente na otimização combinatória do lado da engenharia, e não em uma ruptura no nível dos algoritmos básicos.
Assim, o RedStuff é mais como uma "modificação razoável" feita para o atual ambiente de armazenamento descentralizado. Ele realmente trouxe melhorias nos custos de redundância e na carga de operação, permitindo que dispositivos de borda e nós não de alto desempenho participem das tarefas de armazenamento de dados. No entanto, em cenários de negócios com aplicações em larga escala, adaptação de computação geral e requisitos de consistência mais elevados, seus limites de capacidade ainda são bastante evidentes. Isso faz com que a inovação do Walrus pareça mais uma adaptação do sistema tecnológico existente, em vez de uma ruptura decisiva que impulsione a migração para o paradigma de armazenamento descentralizado.
Sui e Walrus: Será que as blockchains de alto desempenho podem impulsionar a utilidade do armazenamento?
A partir do artigo de pesquisa oficial do Walrus, podemos ver seu cenário objetivo: "O design do Walrus foi concebido para fornecer uma solução para o armazenamento de grandes arquivos binários (Blobs), que são a essência de muitas aplicações descentralizadas."
Os chamados dados blob de grande dimensão referem-se geralmente a objetos binários de grande volume e estrutura não fixa, como vídeos, áudios, imagens, arquivos de modelo ou pacotes de software.
No contexto da criptomoeda, refere-se mais a imagens e vídeos em NFT e conteúdos de redes sociais. Isso também constitui a principal direção de aplicação do Walrus.
Embora o texto mencione também os potenciais usos do armazenamento de conjuntos de dados de modelos de IA e da camada de disponibilidade de dados (DA), a desaceleração faseada da Web3 AI deixou os projetos relacionados em número muito reduzido, e o número real de protocolos que adotam o Walrus no futuro pode ser bastante limitado.
E na direção do nível DA, se o Walrus pode ser um substituto eficaz, ainda precisamos esperar que projetos principais como Celestia voltem a atrair a atenção do mercado para validar sua viabilidade.
Assim, a posição central do Walrus pode ser entendida como um sistema de armazenamento em quente para ativos de conteúdo, como NFTs, enfatizando a capacidade de chamadas dinâmicas, atualizações em tempo real e gestão de versões.
Isto também explica por que o Walrus precisa depender do Sui: com a capacidade da cadeia de alto desempenho do Sui, o Walrus consegue construir uma rede de recuperação de dados de alta velocidade, reduzindo significativamente os custos operacionais sem a necessidade de desenvolver uma cadeia pública de alto desempenho, evitando assim a competição direta com os serviços de armazenamento em nuvem tradicionais em termos de custo unitário.
De acordo com dados oficiais, o custo de armazenamento do Walrus é aproximadamente um quinto do das tradicionais serviços de nuvem, embora seja dezenas de vezes mais caro em comparação com Filecoin e Arweave, o seu objetivo não é buscar um custo extremamente baixo, mas sim construir um sistema de armazenamento quente descentralizado que possa ser utilizado em cenários de negócios reais. O Walrus opera como uma rede PoS, cuja responsabilidade principal é verificar a honestidade dos nós de armazenamento, fornecendo a segurança básica para todo o sistema.
Quanto à necessidade real do Sui em relação ao Walrus, atualmente isso ainda se encontra mais no âmbito da narrativa ecológica.** Se for apenas utilizado para liquidação financeira, o Sui não precisa urgentemente de suporte para armazenamento off-chain.** No entanto, se no futuro ele desejar suportar aplicações de IA, a monetização de conteúdos, Agentes combináveis e outros cenários on-chain mais complexos, então a camada de armazenamento será indispensável para fornecer contexto, contexto e capacidade de indexação. Uma cadeia de alto desempenho pode lidar com modelos de estado complexos, mas esses estados precisam estar vinculados a dados verificáveis para construir uma rede de conteúdo confiável.
Shelby: A rede de fibra óptica dedicada libera completamente os cenários de aplicação do Web3
No atual cenário, a "performance de leitura" continua a ser um ponto fraco difícil de superar entre os maiores gargalos técnicos enfrentados por aplicações Web3.
Quer se trate de streaming de vídeo, sistemas RAG, ferramentas de colaboração em tempo real ou motores de inferência de modelos de IA, todos dependem de uma capacidade de acesso a dados quentes com baixa latência e alta taxa de transferência. Embora os protocolos de armazenamento descentralizado (de Arweave, Filecoin a Walrus) tenham feito progressos em termos de persistência de dados e desconfiança, eles não conseguem escapar das limitações de alta latência, largura de banda instável e controle ineficaz de agendamento de dados, uma vez que operam sobre a Internet pública.
Shelby tentou resolver este problema desde a raiz.
Primeiro, o mecanismo Paid Reads reconfigura diretamente o dilema da "operação de leitura" no armazenamento descentralizado. Em sistemas tradicionais, ler dados é quase gratuito, e a falta de um mecanismo de incentivo eficaz leva os nós de serviço a serem geralmente relapsos, fazendo um trabalho de má qualidade, resultando em uma experiência do usuário que fica muito aquém da Web2.
Shelby liga diretamente a experiência do usuário à receita dos nós de serviço ao introduzir um modelo de pagamento baseado na quantidade de leitura: quanto mais rápido e estável um nó retornar dados, mais recompensas ele pode obter.
Este modelo não é um "design econômico acessório", mas sim a lógica central do design de desempenho Shelby — sem incentivos, não há desempenho confiável; com incentivos, há uma melhoria sustentável na qualidade do serviço.
Em segundo lugar, uma das maiores inovações tecnológicas propostas por Shelby é a introdução da Rede de Fibra Dedicada (Dedicated Fiber Network), que equivale a construir uma rede de alta velocidade para a leitura instantânea de dados quentes da Web3.
Esta arquitetura contorna completamente a camada de transporte pública da qual os sistemas Web3 geralmente dependem, implantando nós de armazenamento e nós RPC diretamente em um backbone de transporte de alto desempenho, baixa congestão e fisicamente isolado. Isso não apenas reduz significativamente a latência na comunicação entre nós, mas também garante a previsibilidade e estabilidade da largura de banda de transporte. A estrutura de rede subjacente da Shelby está mais próxima do modelo de implantação de linha dedicada entre os centros de dados internos da AWS, em vez da lógica de "carregar para algum nó minerador" de outros protocolos Web3.
Fonte: Shelby Whitepaper
Esta reversão da arquitetura em nível de rede faz da Shelby o primeiro protocolo de armazenamento em quente descentralizado capaz de oferecer uma experiência de uso ao nível do Web2 de forma verdadeira. Os usuários que leem um vídeo 4K, chamam dados de embedding de um grande modelo de linguagem ou rastreiam um log de transações na Shelby, não precisam mais suportar os atrasos de segundos comuns em sistemas de dados frios, mas podem obter respostas em menos de um segundo. E para os nós de serviço, uma rede dedicada não apenas melhora a eficiência do serviço, mas também reduz drasticamente os custos de largura de banda, tornando o mecanismo de "pagamento por leitura" verdadeiramente economicamente viável, incentivando o sistema a evoluir em direção a um desempenho mais alto em vez de maior capacidade de armazenamento.
Pode-se dizer que a introdução de redes de fibra óptica dedicadas é o suporte fundamental que permite à Shelby "parecer com a AWS, mas ser essencialmente Web3". Isso não apenas rompe a oposição natural entre descentralização e desempenho, mas também abre a possibilidade real para que aplicações Web3 sejam implementadas em áreas como leitura de alta frequência, agendamento de alta largura de banda e acesso de borda de baixo custo.
Além disso, entre a persistência de dados e o custo, a Shelby adotou o Efficient Coding Scheme construído com Clay Codes, alcançando uma redundância de armazenamento de até <2 x através da estrutura de codificação ótima MSR e MDS matematicamente, mantendo ao mesmo tempo uma persistência de 11 noves e 99,9% de disponibilidade. Enquanto a maioria dos protocolos de armazenamento Web3 ainda permanece com uma taxa de redundância de 5 x~ 15 x hoje, a Shelby é não apenas tecnicamente mais eficiente, mas também mais competitiva em termos de custo. Isso também significa que, para desenvolvedores de dApp que realmente valorizam a otimização de custos e a alocação de recursos, a Shelby oferece uma opção real de "barato e rápido".
Resumo
Ao observar a evolução de Filecoin, Arweave, Walrus até Shelby, podemos ver claramente: a narrativa do armazenamento descentralizado já passou de uma utopia tecnológica de "existir é razoável" para uma abordagem realista de "disponibilidade é justiça". O Filecoin inicial impulsionou a participação de hardware através de incentivos econômicos, mas a verdadeira demanda dos usuários foi marginalizada a longo prazo; Arweave escolheu um armazenamento permanente extremo, mas se tornou cada vez mais uma ilha em um ecossistema de aplicações silencioso; Walrus tenta encontrar um novo equilíbrio entre custo e desempenho, mas ainda há dúvidas sobre a construção de cenários de aplicação e mecanismos de incentivo. Foi só com a chegada do Shelby que o armazenamento descentralizado apresentou pela primeira vez uma resposta sistemática à "disponibilidade de nível Web2" — desde uma rede de fibra óptica dedicada na camada de transporte, até um design eficiente de código de correção de erros na camada de computação, e um mecanismo de incentivo de pagamento por leitura, essas capacidades que antes pertenciam exclusivamente a plataformas de nuvem centralizadas começaram a ser reestruturadas no mundo Web3.
A aparição da Shelby não significa o fim dos problemas. Também não resolveu todos os desafios: questões como ecossistema de desenvolvedores, gestão de permissões e acesso a terminais ainda estão pela frente. Mas seu significado reside em abrir um caminho possível de "desempenho sem compromissos" para a indústria de armazenamento descentralizado, rompendo a dualidade paradoxal de "ou resiste à censura, ou é fácil de usar".
O caminho para a popularização do armazenamento descentralizado não se sustentará apenas pela popularidade dos conceitos ou pela especulação de tokens, mas deverá avançar para uma fase impulsionada por aplicações que sejam "utilizáveis, integráveis e sustentáveis". Nesta fase, quem conseguir resolver os verdadeiros pontos de dor dos usuários primeiro, será capaz de reconfigurar a narrativa da próxima geração de infraestrutura. Da lógica das moedas mineradas à lógica de uso, a ruptura da Shelby pode marcar o fim de uma era — e o começo de outra.
Sobre o Movemaker
Movemaker é a primeira organização comunitária oficial autorizada pela Fundação Aptos, iniciada em conjunto pela Ankaa e pela BlockBooster, focada em promover a construção e o desenvolvimento do ecossistema Aptos na região de língua chinesa. Como representante oficial da Aptos na região de língua chinesa, a Movemaker se dedica a conectar desenvolvedores, usuários, capital e diversos parceiros do ecossistema, criando um sistema ecológico Aptos diversificado, aberto e próspero.
Isenção de responsabilidade:
Este artigo/blogue é apenas para referência, representa a opinião pessoal do autor e não reflete a posição da Movemaker. Este artigo não pretende fornecer: (i) conselhos de investimento ou recomendações de investimento; (ii) ofertas ou solicitações para comprar, vender ou manter ativos digitais; ou (iii) conselhos financeiros, contábeis, legais ou fiscais. Manter ativos digitais, incluindo stablecoins e NFTs, envolve riscos extremamente altos, com grandes flutuações de preço, podendo até tornar-se completamente sem valor. Você deve considerar cuidadosamente se negociar ou manter ativos digitais é adequado para você, com base na sua situação financeira. Para questões específicas, consulte seu advogado, consultor fiscal ou de investimentos. As informações fornecidas neste artigo (incluindo dados de mercado e estatísticas, se houver) são apenas para referência geral. Foi tomado cuidado razoável ao compilar esses dados e gráficos, mas não nos responsabilizamos por quaisquer erros factuais ou omissões expressas.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
De Filecoin, Arweave a Walrus, Shelby: quão longe está o caminho para a popularização do armazenamento descentralizado?
Autor original: @BlazingKevin_ , o Pesquisador na Movemaker
O armazenamento foi uma das principais narrativas do setor, com o Filecoin como líder do mercado na última corrida de alta, alcançando um valor de mercado superior a 10 bilhões de dólares. O Arweave, como um protocolo de armazenamento comparável, destacou-se pelo armazenamento permanente, atingindo um valor de mercado máximo de 3,5 bilhões de dólares. No entanto, à medida que a viabilidade do armazenamento de dados frios foi questionada, a necessidade de armazenamento permanente foi colocada em dúvida, levantando um grande sinal de interrogação sobre se essa narrativa de armazenamento descentralizado pode prosperar. O surgimento do Walrus trouxe novas energias para a narrativa de armazenamento, e agora a Aptos, em parceria com a Jump Crypto, lançou o Shelby, com o objetivo de elevar o armazenamento descentralizado para um novo patamar no segmento de dados quentes. Então, será que o armazenamento descentralizado pode voltar a ter relevância e oferecer casos de uso amplos? Ou será apenas mais uma onda de especulação? Este artigo analisa a evolução das narrativas de armazenamento descentralizado a partir das trajetórias de desenvolvimento do Filecoin, Arweave, Walrus e Shelby, tentando encontrar uma resposta para a seguinte pergunta: quão longe está a popularização do armazenamento descentralizado?
Filecoin: O armazenamento é a aparência, a mineração é a essência
Filecoin é uma das criptomoedas alternativas que surgiu inicialmente, e sua direção de desenvolvimento gira naturalmente em torno da descentralização, que é uma característica comum entre as criptomoedas iniciais — ou seja, a busca pelo significado da existência da descentralização em várias áreas tradicionais. Filecoin não é exceção, pois conecta armazenamento à descentralização, evocando naturalmente as desvantagens do armazenamento centralizado: a suposição de confiança em provedores de serviços de armazenamento de dados centralizados. Portanto, o que o Filecoin faz é transformar o armazenamento centralizado em armazenamento descentralizado. No entanto, algumas facetas sacrificadas nesse processo para alcançar a descentralização se tornaram os pontos críticos que projetos posteriores como Arweave ou Walrus pretendem resolver. Para entender por que o Filecoin é apenas uma moeda de mineração, é necessário compreender as limitações objetivas de sua tecnologia subjacente IPFS, que não é adequada para dados quentes.
IPFS: Arquitetura descentralizada, mas limitada pelo gargalo de transmissão
O IPFS (InterPlanetary File System) foi lançado por volta de 2015 e visa revolucionar o protocolo HTTP tradicional através do endereçamento de conteúdo. A maior desvantagem do IPFS é que a velocidade de obtenção é extremamente lenta. Em uma era em que os provedores de serviços de dados tradicionais conseguem respostas em milissegundos, o IPFS ainda leva mais de dez segundos para obter um arquivo, o que dificulta sua promoção em aplicações práticas e explica por que, além de alguns projetos em blockchain, é raramente adotado pela indústria tradicional.
O protocolo P2P de camada IPFS é principalmente adequado para "dados frios", ou seja, conteúdos estáticos que não mudam com frequência, como vídeos, imagens e documentos. No entanto, ao lidar com dados quentes, como páginas da web dinâmicas, jogos online ou aplicações de inteligência artificial, o protocolo P2P não apresenta vantagens significativas em relação ao CDN tradicional.
No entanto, apesar de o IPFS não ser uma blockchain, a sua abordagem de design baseada em gráfico acíclico dirigido (DAG) alinha-se muito bem com muitas blockchains e protocolos Web3, tornando-o intrinsecamente adequado como uma estrutura de construção de base para blockchains. Portanto, mesmo que não tenha valor prático, como uma estrutura de base que sustenta a narrativa da blockchain, já é mais do que suficiente. Projetos iniciais apenas precisavam de uma estrutura funcional para iniciar a exploração. No entanto, quando o Filecoin se desenvolveu em um certo ponto, as limitações do IPFS começaram a obstruir seu progresso.
A lógica das moedas mineradas sob a camada de armazenamento
O design do IPFS foi concebido para permitir que os usuários armazenem dados enquanto também fazem parte de uma rede de armazenamento. No entanto, na ausência de incentivos econômicos, é difícil para os usuários utilizarem voluntariamente este sistema, muito menos se tornarem nós de armazenamento ativos. Isso significa que a maioria dos usuários apenas armazenará arquivos no IPFS, mas não contribuirá com seu espaço de armazenamento ou armazenará arquivos de outros. É nesse contexto que o Filecoin surgiu.
No modelo econômico de tokens do Filecoin, existem três papéis principais: os usuários são responsáveis por pagar taxas para armazenar dados; os mineradores de armazenamento recebem incentivos em tokens por armazenar dados dos usuários; os mineradores de recuperação fornecem dados quando os usuários precisam e recebem incentivos.
Este modelo apresenta um potencial espaço para comportamentos maliciosos. Os mineradores de armazenamento podem, após fornecer espaço de armazenamento, preencher com dados inúteis para obter recompensas. Como esses dados inúteis não são recuperados, mesmo que sejam perdidos, não acionam o mecanismo de penalização dos mineradores de armazenamento. Isso permite que os mineradores de armazenamento excluam dados inúteis e repitam esse processo. O consenso de prova de replicação do Filecoin só pode garantir que os dados dos usuários não foram excluídos de forma não autorizada, mas não pode impedir que os mineradores preencham dados inúteis.
A operação da Filecoin depende em grande parte do investimento contínuo dos mineradores na economia dos tokens, em vez de se basear na demanda real dos usuários finais por armazenamento distribuído. Embora o projeto ainda esteja em iteração contínua, nesta fase, a construção do ecossistema da Filecoin se alinha mais à definição de projetos de armazenamento "baseados em mineração" do que "impulsionados por aplicações".
Arweave: Sucede com o longo prazo, fracassa com o longo prazo
Se o objetivo de design do Filecoin é construir uma "nuvem de dados" descentralizada, incentivada e verificável, o Arweave segue em outra direção extrema no armazenamento: a capacidade de fornecer armazenamento permanente para os dados. O Arweave não tenta construir uma plataforma de computação distribuída; todo o seu sistema gira em torno de uma hipótese central - dados importantes devem ser armazenados uma vez e permanecer para sempre na rede. Esse extremismo do longo prazo faz com que o Arweave, desde seus mecanismos até seu modelo de incentivos, desde os requisitos de hardware até a perspectiva narrativa, seja muito diferente do Filecoin.
Arweave usa o Bitcoin como objeto de estudo, tentando otimizar continuamente sua rede de armazenamento permanente ao longo de longos períodos contados em anos. Arweave não se preocupa com marketing, nem com concorrentes ou tendências de mercado. Está apenas avançando no caminho da iteração da arquitetura da rede, mesmo que ninguém esteja prestando atenção, pois essa é a essência da equipe de desenvolvimento da Arweave: o longo prazo. Graças ao longo prazo, a Arweave foi amplamente aclamada no último mercado em alta; e também por causa do longo prazo, mesmo que caia para o fundo do poço, a Arweave ainda pode suportar várias rodadas de alta e baixa. Mas haverá um lugar para a Arweave no futuro do armazenamento descentralizado? O valor da existência do armazenamento permanente só pode ser comprovado pelo tempo.
A mainnet do Arweave, desde a versão 1.5 até à mais recente versão 2.9, embora tenha perdido discussões de mercado, tem-se esforçado para permitir que um maior número de mineradores participe na rede com o menor custo possível, incentivando os mineradores a armazenar dados ao máximo, o que fortalece continuamente a robustez de toda a rede. O Arweave, ciente de que não se adequa às preferências do mercado, adotou uma abordagem conservadora, não abraçando a comunidade mineradora, com o ecossistema completamente estagnado, atualizando a mainnet com o menor custo possível e, sem comprometer a segurança da rede, diminuindo constantemente a barreira de entrada em termos de hardware.
Revisão do caminho de atualização de 1.5-2.9
A versão 1.5 do Arweave expôs uma vulnerabilidade onde os mineradores podiam confiar na empilhagem de GPU em vez de armazenamento real para otimizar a probabilidade de encontrar blocos. Para conter essa tendência, a versão 1.7 introduziu o algoritmo RandomX, limitando o uso de poder computacional especializado e exigindo que CPUs gerais participassem da mineração, enfraquecendo assim a centralização do poder computacional.
Na versão 2.0, o Arweave adotou SPoA, convertendo a prova de dados em um caminho simplificado de estrutura de árvore de Merkle, e introduziu transações de formato 2 para reduzir a carga de sincronização. Essa arquitetura alivia a pressão sobre a largura de banda da rede, aumentando significativamente a capacidade de colaboração dos nós. No entanto, alguns mineradores ainda podem evitar a responsabilidade real pela posse de dados por meio de uma estratégia de pool de armazenamento centralizado de alta velocidade.
Para corrigir essa tendência, a 2.4 introduziu o mecanismo SPoRA, que traz um índice global e acesso aleatório de hash lento, obrigando os mineradores a realmente possuírem blocos de dados para participar da produção de blocos válidos, enfraquecendo mecanicamente o efeito de empilhamento de poder computacional. Como resultado, os mineradores começaram a se concentrar na velocidade de acesso ao armazenamento, impulsionando a aplicação de SSDs e dispositivos de leitura e gravação de alta velocidade. A 2.6 introduziu uma cadeia de hashes para controlar o ritmo de criação de blocos, equilibrando o benefício marginal de dispositivos de alto desempenho e oferecendo um espaço de participação justa para mineradores de pequeno e médio porte.
As versões subsequentes reforçam ainda mais a capacidade de colaboração em rede e a diversidade de armazenamento: 2.7 Introduz mineração colaborativa e mecanismos de pool, aumentando a competitividade dos pequenos mineradores; 2.8 Lança um mecanismo de empacotamento composto, permitindo que dispositivos de alta capacidade e baixa velocidade participem de forma flexível; 2.9 Introduz um novo processo de empacotamento no formato replica_ 2 _ 9, aumentando significativamente a eficiência e reduzindo a dependência computacional, completando o ciclo do modelo de mineração orientado a dados.
De um modo geral, o caminho de atualização do Arweave apresenta claramente sua estratégia de longo prazo orientada para o armazenamento: ao mesmo tempo em que resiste continuamente à tendência de concentração de poder computacional, reduz constantemente as barreiras de entrada, garantindo a viabilidade do funcionamento do protocolo a longo prazo.
Walrus: Abraçando dados quentes é uma moda ou esconde um grande segredo?
Walrus, do ponto de vista do design, é completamente diferente do Filecoin e do Arweave. O ponto de partida do Filecoin é criar um sistema de armazenamento descentralizado e verificável, com o custo de armazenamento de dados frios; o ponto de partida do Arweave é criar uma biblioteca de Alexandria em cadeia que possa armazenar dados permanentemente, com o custo de ter poucos cenários; o ponto de partida do Walrus é otimizar o custo de armazenamento do protocolo de armazenamento de dados quentes.
Código de correção mágico: inovação de custos ou um novo rótulo para o velho vinho?
Na questão do design de custos de armazenamento, a Walrus acredita que os custos de armazenamento do Filecoin e do Arweave são irrazoáveis, uma vez que ambos adotam uma arquitetura de replicação completa. Sua principal vantagem é que cada nó possui uma cópia completa, o que proporciona uma forte capacidade de tolerância a falhas e independência entre os nós. Este tipo de arquitetura garante que, mesmo com a desconexão de alguns nós, a rede ainda mantém a disponibilidade dos dados. No entanto, isso também significa que o sistema requer redundância de múltiplas cópias para manter a robustez, o que aumenta os custos de armazenamento. Especialmente no design do Arweave, o mecanismo de consenso em si incentiva a redundância de armazenamento nos nós para aumentar a segurança dos dados. Em comparação, o Filecoin é mais flexível em termos de controle de custos, mas o preço a pagar é que o armazenamento de baixo custo pode apresentar um risco maior de perda de dados. A Walrus tenta encontrar um equilíbrio entre os dois, com um mecanismo que controla os custos de replicação enquanto aumenta a disponibilidade através de uma abordagem de redundância estruturada, estabelecendo assim um novo caminho de compromisso entre a disponibilidade de dados e a eficiência de custos.
A Redstuff criada pelo Walrus é uma tecnologia chave para a redução da redundância em nós, originando-se da codificação Reed-Solomon (RS). A codificação RS é um algoritmo de código de correção de erros muito tradicional, e o código de correção de erros é uma técnica que permite duplicar conjuntos de dados através da adição de fragmentos redundantes (erasure code), podendo ser usada para reconstruir os dados originais. Desde CD-ROM até comunicações via satélite e códigos QR, é frequentemente utilizada na vida cotidiana.
Códigos de correção de erro permitem que os usuários obtenham um bloco, por exemplo, de 1 MB, e depois o "ampliem" para 2 MB, onde o adicional de 1 MB é um dado especial chamado de código de correção de erro. Se qualquer byte no bloco estiver perdido, o usuário pode facilmente recuperar esses bytes através do código. Mesmo que até 1 MB do bloco esteja perdido, você pode recuperar o bloco inteiro. A mesma técnica permite que os computadores leiam todos os dados em um CD-ROM, mesmo que esteja danificado.
Atualmente, o código RS é o mais utilizado. A implementação consiste em, a partir de k blocos de informação, construir um polinómio relacionado e avaliá-lo em diferentes coordenadas x para obter blocos codificados. Usando o código de correção RS, a probabilidade de amostragem aleatória de grandes blocos de dados perdidos é muito pequena.
Exemplo: Dividir um arquivo em 6 blocos de dados e 4 blocos de verificação, totalizando 10 partes. Basta manter qualquer 6 partes para conseguir recuperar os dados originais completos.
Vantagens: Alta tolerância a falhas, amplamente aplicado em CD/DVD, matrizes de discos rígidos tolerantes a falhas (RAID) e sistemas de armazenamento em nuvem (como Azure Storage, Facebook F 4).
Desvantagens: a decodificação é complexa, com custos elevados; não é adequada para cenários de dados que mudam frequentemente. Portanto, geralmente é usada para recuperação e agendamento de dados em ambientes centralizados fora da cadeia.
Na arquitetura descentralizada, a Storj e a Sia ajustaram a codificação RS tradicional para atender às necessidades reais de redes distribuídas. A Walrus também propôs sua própria variante — o algoritmo de codificação RedStuff — para alcançar um mecanismo de armazenamento redundante mais econômico e flexível.
Qual é a principal característica do Redstuff? **Através da melhoria do algoritmo de codificação de correção de erros, o Walrus consegue codificar rapidamente e de forma robusta blocos de dados não estruturados em fragmentos menores, que são armazenados distribuídos em uma rede de nós de armazenamento. Mesmo com a perda de até dois terços dos fragmentos, é possível reconstruir rapidamente o bloco de dados original usando fragmentos parciais. **Isso se torna possível mantendo o fator de replicação entre 4 e 5 vezes.
Portanto, é razoável definir o Walrus como um protocolo leve de redundância e recuperação redesenhado em torno de cenários descentralizados. Em comparação com códigos de correção tradicionais (como o Reed-Solomon), o RedStuff não busca mais a consistência matemática rigorosa, mas faz compensações realistas em relação à distribuição de dados, verificação de armazenamento e custos computacionais. Este modelo abandona o mecanismo de decodificação instantânea exigido pela programação centralizada, passando a verificar on-chain se os nós possuem cópias específicas de dados através de Proof, adaptando-se assim a uma estrutura de rede mais dinâmica e marginalizada.
O núcleo do design do RedStuff é dividir os dados em duas categorias: fatias principais e fatias secundárias. As fatias principais são usadas para recuperar os dados originais, sua geração e distribuição estão sujeitas a restrições rigorosas, o limiar de recuperação é de f + 1 e requer 2 f + 1 assinaturas como respaldo de disponibilidade; as fatias secundárias são geradas através de operações simples como combinações XOR, com a finalidade de fornecer tolerância a falhas e aumentar a robustez geral do sistema. Essa estrutura, em essência, reduz a exigência de consistência dos dados - permitindo que diferentes nós armazenem versões diferentes dos dados por um curto período, enfatizando a prática de "consistência final". Embora semelhante aos requisitos mais flexíveis de blocos retroativos em sistemas como o Arweave, que obteve certo efeito na redução da carga na rede, também enfraqueceu a garantia de disponibilidade e integridade imediata dos dados.
Não se pode ignorar que, embora o RedStuff tenha conseguido um armazenamento eficaz em ambientes de baixa capacidade de computação e baixa largura de banda, ele ainda é essencialmente uma "variante" de um sistema de código de correção de erros. Ele sacrifica uma parte da determinância da leitura dos dados em troca de controle de custos e escalabilidade em um ambiente descentralizado. No entanto, a questão de saber se essa arquitetura pode suportar cenários de dados de grande escala e alta frequência de interação ainda precisa ser observada. Além disso, o RedStuff não superou realmente o gargalo de cálculo de codificação que existe há muito tempo nos códigos de correção de erros, mas contornou os pontos de alta acoplamento da arquitetura tradicional por meio de estratégias estruturais, sendo sua inovação mais evidente na otimização combinatória do lado da engenharia, e não em uma ruptura no nível dos algoritmos básicos.
Assim, o RedStuff é mais como uma "modificação razoável" feita para o atual ambiente de armazenamento descentralizado. Ele realmente trouxe melhorias nos custos de redundância e na carga de operação, permitindo que dispositivos de borda e nós não de alto desempenho participem das tarefas de armazenamento de dados. No entanto, em cenários de negócios com aplicações em larga escala, adaptação de computação geral e requisitos de consistência mais elevados, seus limites de capacidade ainda são bastante evidentes. Isso faz com que a inovação do Walrus pareça mais uma adaptação do sistema tecnológico existente, em vez de uma ruptura decisiva que impulsione a migração para o paradigma de armazenamento descentralizado.
Sui e Walrus: Será que as blockchains de alto desempenho podem impulsionar a utilidade do armazenamento?
A partir do artigo de pesquisa oficial do Walrus, podemos ver seu cenário objetivo: "O design do Walrus foi concebido para fornecer uma solução para o armazenamento de grandes arquivos binários (Blobs), que são a essência de muitas aplicações descentralizadas."
Os chamados dados blob de grande dimensão referem-se geralmente a objetos binários de grande volume e estrutura não fixa, como vídeos, áudios, imagens, arquivos de modelo ou pacotes de software.
No contexto da criptomoeda, refere-se mais a imagens e vídeos em NFT e conteúdos de redes sociais. Isso também constitui a principal direção de aplicação do Walrus.
Assim, a posição central do Walrus pode ser entendida como um sistema de armazenamento em quente para ativos de conteúdo, como NFTs, enfatizando a capacidade de chamadas dinâmicas, atualizações em tempo real e gestão de versões.
Isto também explica por que o Walrus precisa depender do Sui: com a capacidade da cadeia de alto desempenho do Sui, o Walrus consegue construir uma rede de recuperação de dados de alta velocidade, reduzindo significativamente os custos operacionais sem a necessidade de desenvolver uma cadeia pública de alto desempenho, evitando assim a competição direta com os serviços de armazenamento em nuvem tradicionais em termos de custo unitário.
De acordo com dados oficiais, o custo de armazenamento do Walrus é aproximadamente um quinto do das tradicionais serviços de nuvem, embora seja dezenas de vezes mais caro em comparação com Filecoin e Arweave, o seu objetivo não é buscar um custo extremamente baixo, mas sim construir um sistema de armazenamento quente descentralizado que possa ser utilizado em cenários de negócios reais. O Walrus opera como uma rede PoS, cuja responsabilidade principal é verificar a honestidade dos nós de armazenamento, fornecendo a segurança básica para todo o sistema.
Quanto à necessidade real do Sui em relação ao Walrus, atualmente isso ainda se encontra mais no âmbito da narrativa ecológica.** Se for apenas utilizado para liquidação financeira, o Sui não precisa urgentemente de suporte para armazenamento off-chain.** No entanto, se no futuro ele desejar suportar aplicações de IA, a monetização de conteúdos, Agentes combináveis e outros cenários on-chain mais complexos, então a camada de armazenamento será indispensável para fornecer contexto, contexto e capacidade de indexação. Uma cadeia de alto desempenho pode lidar com modelos de estado complexos, mas esses estados precisam estar vinculados a dados verificáveis para construir uma rede de conteúdo confiável.
Shelby: A rede de fibra óptica dedicada libera completamente os cenários de aplicação do Web3
No atual cenário, a "performance de leitura" continua a ser um ponto fraco difícil de superar entre os maiores gargalos técnicos enfrentados por aplicações Web3.
Quer se trate de streaming de vídeo, sistemas RAG, ferramentas de colaboração em tempo real ou motores de inferência de modelos de IA, todos dependem de uma capacidade de acesso a dados quentes com baixa latência e alta taxa de transferência. Embora os protocolos de armazenamento descentralizado (de Arweave, Filecoin a Walrus) tenham feito progressos em termos de persistência de dados e desconfiança, eles não conseguem escapar das limitações de alta latência, largura de banda instável e controle ineficaz de agendamento de dados, uma vez que operam sobre a Internet pública.
Shelby tentou resolver este problema desde a raiz.
Primeiro, o mecanismo Paid Reads reconfigura diretamente o dilema da "operação de leitura" no armazenamento descentralizado. Em sistemas tradicionais, ler dados é quase gratuito, e a falta de um mecanismo de incentivo eficaz leva os nós de serviço a serem geralmente relapsos, fazendo um trabalho de má qualidade, resultando em uma experiência do usuário que fica muito aquém da Web2.
Shelby liga diretamente a experiência do usuário à receita dos nós de serviço ao introduzir um modelo de pagamento baseado na quantidade de leitura: quanto mais rápido e estável um nó retornar dados, mais recompensas ele pode obter.
Este modelo não é um "design econômico acessório", mas sim a lógica central do design de desempenho Shelby — sem incentivos, não há desempenho confiável; com incentivos, há uma melhoria sustentável na qualidade do serviço.
Em segundo lugar, uma das maiores inovações tecnológicas propostas por Shelby é a introdução da Rede de Fibra Dedicada (Dedicated Fiber Network), que equivale a construir uma rede de alta velocidade para a leitura instantânea de dados quentes da Web3.
Esta arquitetura contorna completamente a camada de transporte pública da qual os sistemas Web3 geralmente dependem, implantando nós de armazenamento e nós RPC diretamente em um backbone de transporte de alto desempenho, baixa congestão e fisicamente isolado. Isso não apenas reduz significativamente a latência na comunicação entre nós, mas também garante a previsibilidade e estabilidade da largura de banda de transporte. A estrutura de rede subjacente da Shelby está mais próxima do modelo de implantação de linha dedicada entre os centros de dados internos da AWS, em vez da lógica de "carregar para algum nó minerador" de outros protocolos Web3.
Fonte: Shelby Whitepaper
Esta reversão da arquitetura em nível de rede faz da Shelby o primeiro protocolo de armazenamento em quente descentralizado capaz de oferecer uma experiência de uso ao nível do Web2 de forma verdadeira. Os usuários que leem um vídeo 4K, chamam dados de embedding de um grande modelo de linguagem ou rastreiam um log de transações na Shelby, não precisam mais suportar os atrasos de segundos comuns em sistemas de dados frios, mas podem obter respostas em menos de um segundo. E para os nós de serviço, uma rede dedicada não apenas melhora a eficiência do serviço, mas também reduz drasticamente os custos de largura de banda, tornando o mecanismo de "pagamento por leitura" verdadeiramente economicamente viável, incentivando o sistema a evoluir em direção a um desempenho mais alto em vez de maior capacidade de armazenamento.
Pode-se dizer que a introdução de redes de fibra óptica dedicadas é o suporte fundamental que permite à Shelby "parecer com a AWS, mas ser essencialmente Web3". Isso não apenas rompe a oposição natural entre descentralização e desempenho, mas também abre a possibilidade real para que aplicações Web3 sejam implementadas em áreas como leitura de alta frequência, agendamento de alta largura de banda e acesso de borda de baixo custo.
Além disso, entre a persistência de dados e o custo, a Shelby adotou o Efficient Coding Scheme construído com Clay Codes, alcançando uma redundância de armazenamento de até <2 x através da estrutura de codificação ótima MSR e MDS matematicamente, mantendo ao mesmo tempo uma persistência de 11 noves e 99,9% de disponibilidade. Enquanto a maioria dos protocolos de armazenamento Web3 ainda permanece com uma taxa de redundância de 5 x~ 15 x hoje, a Shelby é não apenas tecnicamente mais eficiente, mas também mais competitiva em termos de custo. Isso também significa que, para desenvolvedores de dApp que realmente valorizam a otimização de custos e a alocação de recursos, a Shelby oferece uma opção real de "barato e rápido".
Resumo
Ao observar a evolução de Filecoin, Arweave, Walrus até Shelby, podemos ver claramente: a narrativa do armazenamento descentralizado já passou de uma utopia tecnológica de "existir é razoável" para uma abordagem realista de "disponibilidade é justiça". O Filecoin inicial impulsionou a participação de hardware através de incentivos econômicos, mas a verdadeira demanda dos usuários foi marginalizada a longo prazo; Arweave escolheu um armazenamento permanente extremo, mas se tornou cada vez mais uma ilha em um ecossistema de aplicações silencioso; Walrus tenta encontrar um novo equilíbrio entre custo e desempenho, mas ainda há dúvidas sobre a construção de cenários de aplicação e mecanismos de incentivo. Foi só com a chegada do Shelby que o armazenamento descentralizado apresentou pela primeira vez uma resposta sistemática à "disponibilidade de nível Web2" — desde uma rede de fibra óptica dedicada na camada de transporte, até um design eficiente de código de correção de erros na camada de computação, e um mecanismo de incentivo de pagamento por leitura, essas capacidades que antes pertenciam exclusivamente a plataformas de nuvem centralizadas começaram a ser reestruturadas no mundo Web3.
A aparição da Shelby não significa o fim dos problemas. Também não resolveu todos os desafios: questões como ecossistema de desenvolvedores, gestão de permissões e acesso a terminais ainda estão pela frente. Mas seu significado reside em abrir um caminho possível de "desempenho sem compromissos" para a indústria de armazenamento descentralizado, rompendo a dualidade paradoxal de "ou resiste à censura, ou é fácil de usar".
O caminho para a popularização do armazenamento descentralizado não se sustentará apenas pela popularidade dos conceitos ou pela especulação de tokens, mas deverá avançar para uma fase impulsionada por aplicações que sejam "utilizáveis, integráveis e sustentáveis". Nesta fase, quem conseguir resolver os verdadeiros pontos de dor dos usuários primeiro, será capaz de reconfigurar a narrativa da próxima geração de infraestrutura. Da lógica das moedas mineradas à lógica de uso, a ruptura da Shelby pode marcar o fim de uma era — e o começo de outra.
Sobre o Movemaker
Movemaker é a primeira organização comunitária oficial autorizada pela Fundação Aptos, iniciada em conjunto pela Ankaa e pela BlockBooster, focada em promover a construção e o desenvolvimento do ecossistema Aptos na região de língua chinesa. Como representante oficial da Aptos na região de língua chinesa, a Movemaker se dedica a conectar desenvolvedores, usuários, capital e diversos parceiros do ecossistema, criando um sistema ecológico Aptos diversificado, aberto e próspero.
Isenção de responsabilidade:
Este artigo/blogue é apenas para referência, representa a opinião pessoal do autor e não reflete a posição da Movemaker. Este artigo não pretende fornecer: (i) conselhos de investimento ou recomendações de investimento; (ii) ofertas ou solicitações para comprar, vender ou manter ativos digitais; ou (iii) conselhos financeiros, contábeis, legais ou fiscais. Manter ativos digitais, incluindo stablecoins e NFTs, envolve riscos extremamente altos, com grandes flutuações de preço, podendo até tornar-se completamente sem valor. Você deve considerar cuidadosamente se negociar ou manter ativos digitais é adequado para você, com base na sua situação financeira. Para questões específicas, consulte seu advogado, consultor fiscal ou de investimentos. As informações fornecidas neste artigo (incluindo dados de mercado e estatísticas, se houver) são apenas para referência geral. Foi tomado cuidado razoável ao compilar esses dados e gráficos, mas não nos responsabilizamos por quaisquer erros factuais ou omissões expressas.