Autor: @BlazingKevin_, el Investigador en Movemaker
El almacenamiento solía ser una de las narrativas principales en la industria. Filecoin, como líder en esta pista durante el último mercado alcista, tuvo una capitalización de mercado que superó los 10,000 millones de dólares. Arweave, como un protocolo de almacenamiento que lo contrasta, utiliza el almacenamiento permanente como su punto de venta, alcanzando una capitalización de mercado máxima de 3,500 millones de dólares. Sin embargo, a medida que se desmiente la disponibilidad del almacenamiento de datos fríos, la necesidad del almacenamiento permanente se pone en duda, y la narrativa del almacenamiento descentralizado se enfrenta a un gran signo de interrogación sobre su viabilidad. La aparición de Walrus ha reavivado la narrativa del almacenamiento que había estado en silencio, y ahora Aptos se une a Jump Crypto para lanzar Shelby, con el objetivo de llevar el almacenamiento descentralizado a un nuevo nivel en la pista de datos calientes. Entonces, ¿puede el almacenamiento descentralizado volver a surgir y proporcionar casos de uso amplios? ¿O será nuevamente una burbuja especulativa? Este artículo comienza desde las trayectorias de desarrollo de Filecoin, Arweave, Walrus y Shelby, analizando la evolución de la narrativa del almacenamiento descentralizado, tratando de encontrar una respuesta a la siguiente pregunta: ¿cuán lejos está la popularización del almacenamiento descentralizado?
Filecoin: El almacenamiento es la apariencia, la minería es la esencia
Filecoin es una de las criptomonedas alternativas que surgieron inicialmente, y su dirección de desarrollo naturalmente gira en torno a la descentralización, que es una característica común de las criptomonedas de la primera etapa: buscar el significado de la existencia de la descentralización en diversas áreas tradicionales. Filecoin no es una excepción, ya que vincula el almacenamiento con la descentralización, lo que naturalmente lleva a pensar en las desventajas del almacenamiento centralizado: la suposición de confianza en los proveedores de servicios de almacenamiento de datos centralizados. Por lo tanto, lo que hace Filecoin es transformar el almacenamiento centralizado en almacenamiento descentralizado. Sin embargo, algunos aspectos sacrificados en este proceso para lograr la descentralización se convirtieron en los puntos críticos que los proyectos posteriores como Arweave o Walrus intentaron resolver. Para comprender por qué Filecoin es solo una moneda minera, es necesario entender por qué su tecnología subyacente IPFS no es adecuada para las limitaciones objetivas de los datos en caliente.
IPFS: arquitectura descentralizada, pero se detiene en el cuello de botella de la transmisión
IPFS (Sistema de Archivos Interplanetario) surgió alrededor de 2015 y tiene como objetivo revolucionar el protocolo HTTP tradicional a través de la dirección de contenido. La mayor desventaja de IPFS es su extremadamente lenta velocidad de obtención. En una época en que los proveedores de servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo a través de IPFS aún puede tardar decenas de segundos, lo que dificulta su promoción en aplicaciones prácticas y explica por qué, aparte de algunos proyectos de blockchain, rara vez es adoptado por la industria tradicional.
El protocolo P2P de nivel IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al tratar datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no presenta ventajas significativas en comparación con los CDN tradicionales.
Sin embargo, a pesar de que IPFS en sí mismo no es una cadena de bloques, su diseño basado en un gráfico acíclico dirigido (DAG) se alinea perfectamente con muchas cadenas de bloques públicas y protocolos Web3, lo que lo hace intrínsecamente adecuado como un marco de construcción subyacente para blockchain. Por lo tanto, incluso si no tiene un valor práctico, como un marco subyacente que sostiene la narrativa de blockchain ya es más que suficiente; los primeros proyectos alternativos solo necesitaban un marco funcional para poder explorar el vasto mar de estrellas. Pero cuando Filecoin alcanzó cierto periodo de desarrollo, las graves deficiencias que trajo IPFS comenzaron a obstaculizar su progreso.
La lógica de las monedas minadas bajo el almacenamiento
El diseño de IPFS tiene como objetivo permitir a los usuarios almacenar datos mientras son parte de una red de almacenamiento. Sin embargo, sin incentivos económicos, es difícil que los usuarios utilicen este sistema de forma voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su espacio de almacenamiento ni almacenarán los archivos de otros. Fue en este contexto que nació Filecoin.
En el modelo de economía de tokens de Filecoin hay tres roles principales: los usuarios son responsables de pagar tarifas para almacenar datos; los mineros de almacenamiento reciben incentivos en tokens por almacenar los datos de los usuarios; y los mineros de recuperación proporcionan datos cuando los usuarios lo necesitan y obtienen incentivos.
Este modelo presenta un potencial espacio para el abuso. Los mineros de almacenamiento pueden, después de proporcionar espacio de almacenamiento, llenar con datos basura para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización de los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede garantizar que los datos del usuario no sean eliminados sin autorización, pero no puede evitar que los mineros llenen con datos basura.
La operación de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de los usuarios finales por el almacenamiento distribuido. Aunque el proyecto sigue iterando, en la actualidad, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "basado en la minería" que a uno "impulsado por aplicaciones".
Arweave: Nacido del largo plazo, destruido por el largo plazo
Si el objetivo de diseño de Filecoin es construir un "nube de datos" descentralizada que sea incentivada y verificable, Arweave, por otro lado, se dirige hacia el extremo opuesto en el almacenamiento: proporcionar la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; su sistema entero se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados de una sola vez y permanecer en la red para siempre. Este extremo largo plazismo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectiva narrativa.
Arweave utiliza Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente a lo largo de largos periodos de tiempo medidos en años. A Arweave no le importa el marketing, ni le preocupan los competidores o las tendencias del mercado. Solo avanza en el camino de iterar la arquitectura de la red, sin importar si hay interés o no, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy valorada en el último mercado alcista; y también por el largo plazo, incluso si cae a mínimos, Arweave podría resistir varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
Desde la versión 1.5 hasta la reciente versión 2.9 de la mainnet de Arweave, a pesar de haber perdido la discusión en el mercado, ha estado trabajando arduamente para permitir que un rango más amplio de mineros participe en la red con el costo mínimo, e incentivar a los mineros a almacenar datos al máximo, mejorando constantemente la robustez de toda la red. Arweave, consciente de que no se ajusta a las preferencias del mercado, ha adoptado una línea conservadora, no abrazando a la comunidad de mineros, con el ecosistema completamente estancado, actualizando la mainnet al menor costo posible, y reduciendo continuamente la barrera de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expone una vulnerabilidad que permite a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar las probabilidades de encontrar bloques. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, que limita el uso de potencia de cálculo especializada y requiere la participación de CPU genéricas en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adoptó SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introdujo transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad real de la posesión de datos a través de estrategias de pools de almacenamiento centralizados de alta velocidad.
Para corregir esta tendencia, se lanzó el mecanismo SPoRA en 2.4, introduciendo un índice global y acceso aleatorio de hash lento, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción de bloques válidos, debilitando así el efecto de apilamiento de potencia de cálculo desde el mecanismo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. En 2.6 se introdujo una cadena de hash para controlar el ritmo de producción de bloques, equilibrando la rentabilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación equitativo para los mineros pequeños y medianos.
Las versiones posteriores fortalecen aún más la capacidad de colaboración en la red y la diversidad de almacenamiento: 2.7 añade minería colaborativa y un mecanismo de pools, mejorando la competitividad de los pequeños mineros; 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, aumentando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, el camino de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: resistiendo constantemente la tendencia a la concentración de poder de cálculo, mientras se reduce continuamente la barrera de entrada, garantizando la viabilidad del funcionamiento del protocolo a largo plazo.
Walrus: ¿Abrazar los datos calientes es una exageración o un secreto oculto?
Desde el punto de vista del diseño, Walrus es completamente diferente de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es crear una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar los costos de almacenamiento del protocolo de almacenamiento de datos calientes.
¿Código de corrección mágica: innovación en costos o el mismo vino en botellas nuevas?
En términos de diseño de costos de almacenamiento, Walrus considera que los costos de almacenamiento de Filecoin y Arweave son irrazonables, ya que ambos utilizan una arquitectura de replicación completa. Su principal ventaja radica en que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos e independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están desconectados, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante en nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que parte del almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras mejora la disponibilidad a través de una forma de redundancia estructural, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
Redstuff, creado por Walrus, es la tecnología clave para reducir la redundancia de nodos. Proviene de la codificación Reed-Solomon (RS). La codificación RS es un algoritmo de código de borrado muy tradicional. El código de borrado es una técnica que permite duplicar un conjunto de datos mediante la adición de fragmentos redundantes ( erasure code ), lo que puede utilizarse para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones satelitales y códigos QR, se utiliza con frecuencia en la vida cotidiana.
Los códigos de corrección permiten a los usuarios obtener un bloque, por ejemplo de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional son datos especiales llamados códigos de corrección. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde hasta 1MB del bloque, aún puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si ha sufrido daños.
Actualmente, el más utilizado es el código RS. La forma de implementación es comenzar con k bloques de información, construir los polinomios relacionados y evaluarlos en diferentes coordenadas x para obtener los bloques codificados. Usando códigos de corrección de errores RS, la posibilidad de muestreo aleatorio de grandes bloques de datos perdidos es muy baja.
Ejemplo: Dividir un archivo en 6 bloques de datos y 4 bloques de verificación, para un total de 10 partes. Siempre que se conserven 6 de ellas, se podrá recuperar completamente los datos originales.
Ventajas: Alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros tolerantes a fallos (RAID) y sistemas de almacenamiento en la nube (como Azure Storage, Facebook F4).
Desventajas: la complejidad del cálculo de decodificación es alta y el costo es elevado; no es adecuado para escenarios de datos que cambian con frecuencia. Por lo tanto, generalmente se utiliza para la recuperación y programación de datos en entornos centralizados fuera de la cadena.
En una arquitectura descentralizada, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante sobre esta base: el algoritmo de codificación RedStuff, para lograr un mecanismo de almacenamiento redundante más económico y flexible.
¿Cuál es la característica más destacada de Redstuff? ** A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. ** Esto es posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario descentralizado. En comparación con los códigos de borrado tradicionales (como Reed-Solomon), RedStuff ya no persigue la estricta consistencia matemática, sino que ha realizado compromisos realistas en torno a la distribución de datos, la verificación de almacenamiento y los costos computacionales. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada y, en su lugar, verifica en la cadena si los nodos tienen copias específicas de datos a través de pruebas, adaptándose así a una estructura de red más dinámica y marginalizada.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1, y se requiere 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan a través de operaciones simples como combinaciones XOR, y su función es proporcionar tolerancia a fallos elástica, mejorando la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de datos, permitiendo que diferentes nodos almacenen temporalmente diferentes versiones de datos, enfatizando la práctica de la "consistencia eventual". Aunque es similar a los requisitos más laxos de retroceso de bloques en sistemas como Arweave, ha logrado cierto efecto en la reducción de la carga de la red, pero al mismo tiempo ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja potencia de cálculo y bajo ancho de banda, en esencia sigue siendo una "variación" de un sistema de códigos de borrado. Sacrifica una parte de la determinación de lectura de datos a cambio de control de costos y escalabilidad en un entorno descentralizado. Sin embargo, en el plano de la aplicación, todavía está por verse si esta arquitectura puede soportar escenarios de datos de gran escala y alta frecuencia de interacción. Más allá de eso, RedStuff no ha superado realmente el cuello de botella en el cálculo de codificación que ha existido durante mucho tiempo en los códigos de borrado, sino que ha evitado los puntos de alta acoplamiento de la arquitectura tradicional a través de estrategias estructurales; su innovación se manifiesta más en la optimización combinatoria del lado de la ingeniería, y no en la ruptura del nivel de algoritmos fundamentales.
Por lo tanto, RedStuff es más bien una "modificación razonable" destinada al actual entorno de almacenamiento descentralizado. Realmente ha traído mejoras en costos de redundancia y carga operativa, permitiendo que dispositivos de borde y nodos no de alto rendimiento puedan participar en tareas de almacenamiento de datos. Sin embargo, en escenarios de negocio de gran escala, adaptación de computación general y requisitos de consistencia más altos, sus límites de capacidad siguen siendo bastante evidentes. Esto hace que la innovación de Walrus se asemeje más a una transformación adaptativa del sistema tecnológico existente, en lugar de ser un avance decisivo que impulse la migración del paradigma de almacenamiento descentralizado.
Sui y Walrus: ¿Puede una cadena de bloques de alto rendimiento impulsar la utilidad del almacenamiento?
En el artículo de investigación oficial de Walrus se puede ver su escenario objetivo: "El propósito del diseño de Walrus es proporcionar una solución para el almacenamiento de grandes archivos binarios (Blobs), que son la columna vertebral de muchas aplicaciones descentralizadas."
Los llamados datos blob de gran tamaño generalmente se refieren a objetos binarios de gran volumen y estructura no fija, como videos, audios, imágenes, archivos de modelos o paquetes de software.
En el contexto de las criptomonedas, se refiere más a las imágenes y videos en NFT y contenido de redes sociales. Esto también constituye la principal dirección de aplicación de Walrus.
A pesar de que el texto menciona los posibles usos de los conjuntos de datos de modelos de IA y la capa de disponibilidad de datos (DA), la retirada gradual de Web3 AI ha dejado muy pocos proyectos relacionados, y el número de protocolos que realmente adoptarán Walrus en el futuro podría ser muy limitado.
En cuanto a la capa DA, si Walrus puede ser un sustituto efectivo, aún deberá esperar a que proyectos principales como Celestia reaviven el interés del mercado para poder validar su viabilidad.
Por lo tanto, se puede entender la posición central de Walrus como un sistema de almacenamiento en caliente para activos de contenido como NFT, enfatizando la capacidad de llamada dinámica, actualización en tiempo real y gestión de versiones.
Esto también explica por qué Walrus necesita depender de Sui: con la capacidad de cadena de alto rendimiento de Sui, Walrus puede construir una red de recuperación de datos de alta velocidad, reduciendo significativamente los costos operativos sin la necesidad de desarrollar su propia cadena pública de alto rendimiento, evitando así la competencia directa en costos unitarios con los servicios de almacenamiento en la nube tradicionales.
Según datos oficiales, el costo de almacenamiento de Walrus es aproximadamente una quinta parte del de los servicios de nube tradicionales. Aunque parece ser decenas de veces más caro en comparación con Filecoin y Arweave, su objetivo no es buscar un costo extremadamente bajo, sino construir un sistema de almacenamiento en caliente descentralizado que se pueda utilizar en escenarios de negocios reales. Walrus funciona como una red PoS, y su responsabilidad principal es verificar la honestidad de los nodos de almacenamiento, proporcionando la seguridad básica para todo el sistema.
En cuanto a si Sui realmente necesita Walrus, actualmente se encuentra más en el nivel de narrativa ecológica.**Si solo se considera la liquidación financiera como el propósito principal, Sui no necesita urgentemente soporte de almacenamiento fuera de la cadena.**Sin embargo, si en el futuro espera albergar aplicaciones de IA, la tokenización de contenido, agentes combinables y otros escenarios en la cadena más complejos, la capa de almacenamiento será indispensable para proporcionar contexto, contexto y capacidad de indexación. Una cadena de alto rendimiento puede manejar modelos de estado complejos, pero estos estados necesitan estar vinculados a datos verificables para construir una red de contenido confiable.
Shelby: La red de fibra óptica dedicada libera por completo los escenarios de aplicación de Web3
En el mayor cuello de botella técnico que enfrentan las aplicaciones Web3 actuales, el "rendimiento de lectura" sigue siendo una debilidad difícil de superar.
Ya sea en streaming de video, sistemas RAG, herramientas de colaboración en tiempo real, o motores de inferencia de modelos de IA, todos dependen de la capacidad de acceso a datos calientes de baja latencia y alto rendimiento. Los protocolos de almacenamiento descentralizado (desde Arweave, Filecoin hasta Walrus) han logrado avances en la persistencia de datos y la desconfianza, pero al operar sobre Internet público, siempre se ven limitados por la alta latencia, la inestabilidad del ancho de banda y la falta de control en la programación de datos.
Shelby intenta resolver este problema desde la raíz.
Primero, el mecanismo de Paid Reads reconfigura directamente el dilema de las "operaciones de lectura" en el almacenamiento descentralizado. En los sistemas tradicionales, leer datos es casi gratuito, y la falta de un mecanismo de incentivos efectivo lleva a que los nodos de servicio sean generalmente perezosos en responder y a que realicen un trabajo deficiente, lo que resulta en una experiencia de usuario real que está muy por detrás de la Web2.
Shelby vincula directamente la experiencia del usuario con los ingresos de los nodos de servicio al introducir un modelo de pago por cantidad de lectura: cuanto más rápido y estable devuelvan los datos los nodos, más recompensas obtendrán.
Este modelo no es un "diseño económico accesorio", sino la lógica central del diseño de rendimiento de Shelby: sin incentivos, no hay rendimiento confiable; con incentivos, hay una mejora sostenible en la calidad del servicio.
En segundo lugar, uno de los mayores avances tecnológicos propuestos por Shelby es la introducción de la red de fibra óptica dedicada (Dedicated Fiber Network), que equivale a construir una red de tren de alta velocidad para la lectura instantánea de datos calientes de Web3.
Esta arquitectura elude completamente la capa de transmisión pública de la que dependen comúnmente los sistemas Web3, desplegando los nodos de almacenamiento y los nodos RPC directamente sobre una columna vertebral de transmisión de alto rendimiento, baja congestión y físicamente aislada. Esto no solo reduce significativamente la latencia de la comunicación entre nodos, sino que también asegura la previsibilidad y estabilidad del ancho de banda de transmisión. La estructura de red subyacente de Shelby se asemeja más a un modo de despliegue de línea dedicada entre los centros de datos internos de AWS, en lugar de la lógica de "subir a algún nodo minero" de otros protocolos Web3.
Fuente: Whitepaper de Shelby
Esta inversión arquitectónica a nivel de red convierte a Shelby en el primer protocolo de almacenamiento en caliente descentralizado que tiene la capacidad, en un sentido real, de ofrecer una experiencia de uso al nivel de Web2. Los usuarios ya no necesitan soportar la latencia de segundos que es común en los sistemas de datos fríos al leer un video 4K en Shelby, llamar a los datos de embedding de un modelo de lenguaje grande, o rastrear un registro de transacciones, sino que pueden obtener respuestas en menos de un segundo. Para los nodos de servicio, una red dedicada no solo mejora la eficiencia del servicio, sino que también reduce drásticamente los costos de ancho de banda, haciendo que el mecanismo de 'pago por cantidad leída' sea verdaderamente viable económicamente, lo que incentiva al sistema a evolucionar hacia un rendimiento más alto en lugar de un mayor volumen de almacenamiento.
Se puede decir que la introducción de una red de fibra óptica dedicada es el soporte clave que permite a Shelby "parecerse a AWS, pero en su esencia es Web3". No solo rompe la oposición natural entre la descentralización y el rendimiento, sino que también abre la posibilidad de una implementación real para las aplicaciones Web3 en aspectos como la lectura de alta frecuencia, la programación de alta capacidad y el acceso de bajo costo en los bordes.
Además, en la persistencia de datos y el costo, Shelby ha adoptado el Esquema de Codificación Eficiente construido con Clay Codes, logrando una redundancia de almacenamiento de hasta <2x a través de la estructura de codificación óptima MSR y MDS, manteniendo al mismo tiempo 11 nueves de persistencia y 99.9% de disponibilidad. En un momento en que la mayoría de los protocolos de almacenamiento Web3 aún se encuentran en una tasa de redundancia de 5x a 15x, Shelby no solo es técnicamente más eficiente, sino que también es más competitivo en costo. Esto también significa que, para los desarrolladores de dApp que realmente valoran la optimización de costos y la programación de recursos, Shelby ofrece una opción real de "barata y rápida".
Resumen
A lo largo de la evolución de Filecoin, Arweave, Walrus hasta Shelby, podemos ver claramente: la narrativa del almacenamiento descentralizado ha pasado de ser una utopía tecnológica del "existir es justificar" a una ruta de realismo de "ser útil es ser justo". Filecoin en sus inicios impulsó la participación de hardware mediante incentivos económicos, pero la demanda real de los usuarios ha estado marginada durante mucho tiempo; Arweave eligió un almacenamiento permanente extremo, pero se ha vuelto cada vez más aislado en un ecosistema de aplicaciones silencioso; Walrus intenta encontrar un nuevo equilibrio entre costo y rendimiento, pero aún quedan dudas sobre la construcción de escenarios de aplicación y mecanismos de incentivos. Hasta que apareció Shelby, el almacenamiento descentralizado no había ofrecido una respuesta sistemática a la "usabilidad a nivel Web2" por primera vez: desde la red de fibra óptica dedicada en la capa de transporte, hasta el diseño eficiente de códigos de corrección en la capa de computación, y el mecanismo de incentivos basado en el pago por lectura, estas capacidades que originalmente pertenecían a plataformas de nube centralizadas, comienzan a reestructurarse en el mundo Web3.
La aparición de Shelby no significa el final de los problemas. Tampoco ha resuelto todos los desafíos: la ecología de desarrolladores, la gestión de permisos, el acceso de terminales y otros problemas siguen adelante. Pero su significado radica en que ha abierto un posible camino de "sin comprometer el rendimiento" para la industria del almacenamiento descentralizado, rompiendo la paradoja binaria de "o resistencia a la censura, o facilidad de uso".
El camino hacia la popularización del almacenamiento descentralizado no se mantendrá solo por la calidez del concepto o la especulación de tokens, sino que debe avanzar hacia una fase impulsada por aplicaciones "utilizables, integrables y sostenibles". En esta fase, quien pueda resolver primero los verdaderos puntos de dolor de los usuarios, podrá reconfigurar la narrativa de la infraestructura en la próxima ronda. Desde la lógica de las monedas minadas hasta la lógica de uso, el avance de Shelby podría marcar el final de una era —y más aún, el inicio de otra.
Acerca de Movemaker
Movemaker es la primera organización comunitaria oficial autorizada por la Fundación Aptos, cofundada por Ankaa y BlockBooster, que se centra en promover la construcción y el desarrollo del ecosistema de Aptos en la región de habla china. Como representante oficial de Aptos en la región de habla china, Movemaker se compromete a crear un ecosistema de Aptos diverso, abierto y próspero al conectar desarrolladores, usuarios, capital y numerosos socios ecológicos.
Descargo de responsabilidad:
Este artículo/blog es solo para referencia, representa la opinión personal del autor y no refleja la posición de Movemaker. Este artículo no tiene la intención de proporcionar: (i) asesoramiento de inversión o recomendaciones de inversión; (ii) ofertas o solicitudes para comprar, vender o mantener activos digitales; o (iii) asesoramiento financiero, contable, legal o fiscal. Mantener activos digitales, incluidas stablecoins y NFT, conlleva un alto riesgo, la volatilidad de precios es significativa y pueden incluso llegar a no tener valor. Debe considerar cuidadosamente si la negociación o la posesión de activos digitales son adecuadas para usted, según su situación financiera. Si tiene preguntas específicas sobre su situación, consulte a su asesor legal, fiscal o de inversiones. La información proporcionada en este artículo (incluidos los datos de mercado y estadísticas, si las hay) es solo para referencia general. Se ha ejercido un razonable cuidado al redactar estos datos y gráficos, pero no se asume ninguna responsabilidad por errores fácticos u omisiones en ellos.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¿Cuán lejos está el camino hacia la Descentralización del almacenamiento desde FIL hasta Arweave?
Autor: @BlazingKevin_, el Investigador en Movemaker
El almacenamiento solía ser una de las narrativas principales en la industria. Filecoin, como líder en esta pista durante el último mercado alcista, tuvo una capitalización de mercado que superó los 10,000 millones de dólares. Arweave, como un protocolo de almacenamiento que lo contrasta, utiliza el almacenamiento permanente como su punto de venta, alcanzando una capitalización de mercado máxima de 3,500 millones de dólares. Sin embargo, a medida que se desmiente la disponibilidad del almacenamiento de datos fríos, la necesidad del almacenamiento permanente se pone en duda, y la narrativa del almacenamiento descentralizado se enfrenta a un gran signo de interrogación sobre su viabilidad. La aparición de Walrus ha reavivado la narrativa del almacenamiento que había estado en silencio, y ahora Aptos se une a Jump Crypto para lanzar Shelby, con el objetivo de llevar el almacenamiento descentralizado a un nuevo nivel en la pista de datos calientes. Entonces, ¿puede el almacenamiento descentralizado volver a surgir y proporcionar casos de uso amplios? ¿O será nuevamente una burbuja especulativa? Este artículo comienza desde las trayectorias de desarrollo de Filecoin, Arweave, Walrus y Shelby, analizando la evolución de la narrativa del almacenamiento descentralizado, tratando de encontrar una respuesta a la siguiente pregunta: ¿cuán lejos está la popularización del almacenamiento descentralizado?
Filecoin: El almacenamiento es la apariencia, la minería es la esencia
Filecoin es una de las criptomonedas alternativas que surgieron inicialmente, y su dirección de desarrollo naturalmente gira en torno a la descentralización, que es una característica común de las criptomonedas de la primera etapa: buscar el significado de la existencia de la descentralización en diversas áreas tradicionales. Filecoin no es una excepción, ya que vincula el almacenamiento con la descentralización, lo que naturalmente lleva a pensar en las desventajas del almacenamiento centralizado: la suposición de confianza en los proveedores de servicios de almacenamiento de datos centralizados. Por lo tanto, lo que hace Filecoin es transformar el almacenamiento centralizado en almacenamiento descentralizado. Sin embargo, algunos aspectos sacrificados en este proceso para lograr la descentralización se convirtieron en los puntos críticos que los proyectos posteriores como Arweave o Walrus intentaron resolver. Para comprender por qué Filecoin es solo una moneda minera, es necesario entender por qué su tecnología subyacente IPFS no es adecuada para las limitaciones objetivas de los datos en caliente.
IPFS: arquitectura descentralizada, pero se detiene en el cuello de botella de la transmisión
IPFS (Sistema de Archivos Interplanetario) surgió alrededor de 2015 y tiene como objetivo revolucionar el protocolo HTTP tradicional a través de la dirección de contenido. La mayor desventaja de IPFS es su extremadamente lenta velocidad de obtención. En una época en que los proveedores de servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo a través de IPFS aún puede tardar decenas de segundos, lo que dificulta su promoción en aplicaciones prácticas y explica por qué, aparte de algunos proyectos de blockchain, rara vez es adoptado por la industria tradicional.
El protocolo P2P de nivel IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al tratar datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no presenta ventajas significativas en comparación con los CDN tradicionales.
Sin embargo, a pesar de que IPFS en sí mismo no es una cadena de bloques, su diseño basado en un gráfico acíclico dirigido (DAG) se alinea perfectamente con muchas cadenas de bloques públicas y protocolos Web3, lo que lo hace intrínsecamente adecuado como un marco de construcción subyacente para blockchain. Por lo tanto, incluso si no tiene un valor práctico, como un marco subyacente que sostiene la narrativa de blockchain ya es más que suficiente; los primeros proyectos alternativos solo necesitaban un marco funcional para poder explorar el vasto mar de estrellas. Pero cuando Filecoin alcanzó cierto periodo de desarrollo, las graves deficiencias que trajo IPFS comenzaron a obstaculizar su progreso.
La lógica de las monedas minadas bajo el almacenamiento
El diseño de IPFS tiene como objetivo permitir a los usuarios almacenar datos mientras son parte de una red de almacenamiento. Sin embargo, sin incentivos económicos, es difícil que los usuarios utilicen este sistema de forma voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su espacio de almacenamiento ni almacenarán los archivos de otros. Fue en este contexto que nació Filecoin.
En el modelo de economía de tokens de Filecoin hay tres roles principales: los usuarios son responsables de pagar tarifas para almacenar datos; los mineros de almacenamiento reciben incentivos en tokens por almacenar los datos de los usuarios; y los mineros de recuperación proporcionan datos cuando los usuarios lo necesitan y obtienen incentivos.
Este modelo presenta un potencial espacio para el abuso. Los mineros de almacenamiento pueden, después de proporcionar espacio de almacenamiento, llenar con datos basura para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización de los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede garantizar que los datos del usuario no sean eliminados sin autorización, pero no puede evitar que los mineros llenen con datos basura.
La operación de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de los usuarios finales por el almacenamiento distribuido. Aunque el proyecto sigue iterando, en la actualidad, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "basado en la minería" que a uno "impulsado por aplicaciones".
Arweave: Nacido del largo plazo, destruido por el largo plazo
Si el objetivo de diseño de Filecoin es construir un "nube de datos" descentralizada que sea incentivada y verificable, Arweave, por otro lado, se dirige hacia el extremo opuesto en el almacenamiento: proporcionar la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; su sistema entero se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados de una sola vez y permanecer en la red para siempre. Este extremo largo plazismo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectiva narrativa.
Arweave utiliza Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente a lo largo de largos periodos de tiempo medidos en años. A Arweave no le importa el marketing, ni le preocupan los competidores o las tendencias del mercado. Solo avanza en el camino de iterar la arquitectura de la red, sin importar si hay interés o no, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy valorada en el último mercado alcista; y también por el largo plazo, incluso si cae a mínimos, Arweave podría resistir varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
Desde la versión 1.5 hasta la reciente versión 2.9 de la mainnet de Arweave, a pesar de haber perdido la discusión en el mercado, ha estado trabajando arduamente para permitir que un rango más amplio de mineros participe en la red con el costo mínimo, e incentivar a los mineros a almacenar datos al máximo, mejorando constantemente la robustez de toda la red. Arweave, consciente de que no se ajusta a las preferencias del mercado, ha adoptado una línea conservadora, no abrazando a la comunidad de mineros, con el ecosistema completamente estancado, actualizando la mainnet al menor costo posible, y reduciendo continuamente la barrera de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expone una vulnerabilidad que permite a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar las probabilidades de encontrar bloques. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, que limita el uso de potencia de cálculo especializada y requiere la participación de CPU genéricas en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adoptó SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introdujo transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad real de la posesión de datos a través de estrategias de pools de almacenamiento centralizados de alta velocidad.
Para corregir esta tendencia, se lanzó el mecanismo SPoRA en 2.4, introduciendo un índice global y acceso aleatorio de hash lento, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción de bloques válidos, debilitando así el efecto de apilamiento de potencia de cálculo desde el mecanismo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. En 2.6 se introdujo una cadena de hash para controlar el ritmo de producción de bloques, equilibrando la rentabilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación equitativo para los mineros pequeños y medianos.
Las versiones posteriores fortalecen aún más la capacidad de colaboración en la red y la diversidad de almacenamiento: 2.7 añade minería colaborativa y un mecanismo de pools, mejorando la competitividad de los pequeños mineros; 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, aumentando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, el camino de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: resistiendo constantemente la tendencia a la concentración de poder de cálculo, mientras se reduce continuamente la barrera de entrada, garantizando la viabilidad del funcionamiento del protocolo a largo plazo.
Walrus: ¿Abrazar los datos calientes es una exageración o un secreto oculto?
Desde el punto de vista del diseño, Walrus es completamente diferente de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es crear una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar los costos de almacenamiento del protocolo de almacenamiento de datos calientes.
¿Código de corrección mágica: innovación en costos o el mismo vino en botellas nuevas?
En términos de diseño de costos de almacenamiento, Walrus considera que los costos de almacenamiento de Filecoin y Arweave son irrazonables, ya que ambos utilizan una arquitectura de replicación completa. Su principal ventaja radica en que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos e independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están desconectados, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante en nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que parte del almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras mejora la disponibilidad a través de una forma de redundancia estructural, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
Redstuff, creado por Walrus, es la tecnología clave para reducir la redundancia de nodos. Proviene de la codificación Reed-Solomon (RS). La codificación RS es un algoritmo de código de borrado muy tradicional. El código de borrado es una técnica que permite duplicar un conjunto de datos mediante la adición de fragmentos redundantes ( erasure code ), lo que puede utilizarse para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones satelitales y códigos QR, se utiliza con frecuencia en la vida cotidiana.
Los códigos de corrección permiten a los usuarios obtener un bloque, por ejemplo de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional son datos especiales llamados códigos de corrección. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde hasta 1MB del bloque, aún puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si ha sufrido daños.
Actualmente, el más utilizado es el código RS. La forma de implementación es comenzar con k bloques de información, construir los polinomios relacionados y evaluarlos en diferentes coordenadas x para obtener los bloques codificados. Usando códigos de corrección de errores RS, la posibilidad de muestreo aleatorio de grandes bloques de datos perdidos es muy baja.
Ejemplo: Dividir un archivo en 6 bloques de datos y 4 bloques de verificación, para un total de 10 partes. Siempre que se conserven 6 de ellas, se podrá recuperar completamente los datos originales.
Ventajas: Alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros tolerantes a fallos (RAID) y sistemas de almacenamiento en la nube (como Azure Storage, Facebook F4).
Desventajas: la complejidad del cálculo de decodificación es alta y el costo es elevado; no es adecuado para escenarios de datos que cambian con frecuencia. Por lo tanto, generalmente se utiliza para la recuperación y programación de datos en entornos centralizados fuera de la cadena.
En una arquitectura descentralizada, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante sobre esta base: el algoritmo de codificación RedStuff, para lograr un mecanismo de almacenamiento redundante más económico y flexible.
¿Cuál es la característica más destacada de Redstuff? ** A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. ** Esto es posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario descentralizado. En comparación con los códigos de borrado tradicionales (como Reed-Solomon), RedStuff ya no persigue la estricta consistencia matemática, sino que ha realizado compromisos realistas en torno a la distribución de datos, la verificación de almacenamiento y los costos computacionales. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada y, en su lugar, verifica en la cadena si los nodos tienen copias específicas de datos a través de pruebas, adaptándose así a una estructura de red más dinámica y marginalizada.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1, y se requiere 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan a través de operaciones simples como combinaciones XOR, y su función es proporcionar tolerancia a fallos elástica, mejorando la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de datos, permitiendo que diferentes nodos almacenen temporalmente diferentes versiones de datos, enfatizando la práctica de la "consistencia eventual". Aunque es similar a los requisitos más laxos de retroceso de bloques en sistemas como Arweave, ha logrado cierto efecto en la reducción de la carga de la red, pero al mismo tiempo ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja potencia de cálculo y bajo ancho de banda, en esencia sigue siendo una "variación" de un sistema de códigos de borrado. Sacrifica una parte de la determinación de lectura de datos a cambio de control de costos y escalabilidad en un entorno descentralizado. Sin embargo, en el plano de la aplicación, todavía está por verse si esta arquitectura puede soportar escenarios de datos de gran escala y alta frecuencia de interacción. Más allá de eso, RedStuff no ha superado realmente el cuello de botella en el cálculo de codificación que ha existido durante mucho tiempo en los códigos de borrado, sino que ha evitado los puntos de alta acoplamiento de la arquitectura tradicional a través de estrategias estructurales; su innovación se manifiesta más en la optimización combinatoria del lado de la ingeniería, y no en la ruptura del nivel de algoritmos fundamentales.
Por lo tanto, RedStuff es más bien una "modificación razonable" destinada al actual entorno de almacenamiento descentralizado. Realmente ha traído mejoras en costos de redundancia y carga operativa, permitiendo que dispositivos de borde y nodos no de alto rendimiento puedan participar en tareas de almacenamiento de datos. Sin embargo, en escenarios de negocio de gran escala, adaptación de computación general y requisitos de consistencia más altos, sus límites de capacidad siguen siendo bastante evidentes. Esto hace que la innovación de Walrus se asemeje más a una transformación adaptativa del sistema tecnológico existente, en lugar de ser un avance decisivo que impulse la migración del paradigma de almacenamiento descentralizado.
Sui y Walrus: ¿Puede una cadena de bloques de alto rendimiento impulsar la utilidad del almacenamiento?
En el artículo de investigación oficial de Walrus se puede ver su escenario objetivo: "El propósito del diseño de Walrus es proporcionar una solución para el almacenamiento de grandes archivos binarios (Blobs), que son la columna vertebral de muchas aplicaciones descentralizadas."
Los llamados datos blob de gran tamaño generalmente se refieren a objetos binarios de gran volumen y estructura no fija, como videos, audios, imágenes, archivos de modelos o paquetes de software.
En el contexto de las criptomonedas, se refiere más a las imágenes y videos en NFT y contenido de redes sociales. Esto también constituye la principal dirección de aplicación de Walrus.
Por lo tanto, se puede entender la posición central de Walrus como un sistema de almacenamiento en caliente para activos de contenido como NFT, enfatizando la capacidad de llamada dinámica, actualización en tiempo real y gestión de versiones.
Esto también explica por qué Walrus necesita depender de Sui: con la capacidad de cadena de alto rendimiento de Sui, Walrus puede construir una red de recuperación de datos de alta velocidad, reduciendo significativamente los costos operativos sin la necesidad de desarrollar su propia cadena pública de alto rendimiento, evitando así la competencia directa en costos unitarios con los servicios de almacenamiento en la nube tradicionales.
Según datos oficiales, el costo de almacenamiento de Walrus es aproximadamente una quinta parte del de los servicios de nube tradicionales. Aunque parece ser decenas de veces más caro en comparación con Filecoin y Arweave, su objetivo no es buscar un costo extremadamente bajo, sino construir un sistema de almacenamiento en caliente descentralizado que se pueda utilizar en escenarios de negocios reales. Walrus funciona como una red PoS, y su responsabilidad principal es verificar la honestidad de los nodos de almacenamiento, proporcionando la seguridad básica para todo el sistema.
En cuanto a si Sui realmente necesita Walrus, actualmente se encuentra más en el nivel de narrativa ecológica.**Si solo se considera la liquidación financiera como el propósito principal, Sui no necesita urgentemente soporte de almacenamiento fuera de la cadena.**Sin embargo, si en el futuro espera albergar aplicaciones de IA, la tokenización de contenido, agentes combinables y otros escenarios en la cadena más complejos, la capa de almacenamiento será indispensable para proporcionar contexto, contexto y capacidad de indexación. Una cadena de alto rendimiento puede manejar modelos de estado complejos, pero estos estados necesitan estar vinculados a datos verificables para construir una red de contenido confiable.
Shelby: La red de fibra óptica dedicada libera por completo los escenarios de aplicación de Web3
En el mayor cuello de botella técnico que enfrentan las aplicaciones Web3 actuales, el "rendimiento de lectura" sigue siendo una debilidad difícil de superar.
Ya sea en streaming de video, sistemas RAG, herramientas de colaboración en tiempo real, o motores de inferencia de modelos de IA, todos dependen de la capacidad de acceso a datos calientes de baja latencia y alto rendimiento. Los protocolos de almacenamiento descentralizado (desde Arweave, Filecoin hasta Walrus) han logrado avances en la persistencia de datos y la desconfianza, pero al operar sobre Internet público, siempre se ven limitados por la alta latencia, la inestabilidad del ancho de banda y la falta de control en la programación de datos.
Shelby intenta resolver este problema desde la raíz.
Primero, el mecanismo de Paid Reads reconfigura directamente el dilema de las "operaciones de lectura" en el almacenamiento descentralizado. En los sistemas tradicionales, leer datos es casi gratuito, y la falta de un mecanismo de incentivos efectivo lleva a que los nodos de servicio sean generalmente perezosos en responder y a que realicen un trabajo deficiente, lo que resulta en una experiencia de usuario real que está muy por detrás de la Web2.
Shelby vincula directamente la experiencia del usuario con los ingresos de los nodos de servicio al introducir un modelo de pago por cantidad de lectura: cuanto más rápido y estable devuelvan los datos los nodos, más recompensas obtendrán.
Este modelo no es un "diseño económico accesorio", sino la lógica central del diseño de rendimiento de Shelby: sin incentivos, no hay rendimiento confiable; con incentivos, hay una mejora sostenible en la calidad del servicio.
En segundo lugar, uno de los mayores avances tecnológicos propuestos por Shelby es la introducción de la red de fibra óptica dedicada (Dedicated Fiber Network), que equivale a construir una red de tren de alta velocidad para la lectura instantánea de datos calientes de Web3.
Esta arquitectura elude completamente la capa de transmisión pública de la que dependen comúnmente los sistemas Web3, desplegando los nodos de almacenamiento y los nodos RPC directamente sobre una columna vertebral de transmisión de alto rendimiento, baja congestión y físicamente aislada. Esto no solo reduce significativamente la latencia de la comunicación entre nodos, sino que también asegura la previsibilidad y estabilidad del ancho de banda de transmisión. La estructura de red subyacente de Shelby se asemeja más a un modo de despliegue de línea dedicada entre los centros de datos internos de AWS, en lugar de la lógica de "subir a algún nodo minero" de otros protocolos Web3.
Fuente: Whitepaper de Shelby
Esta inversión arquitectónica a nivel de red convierte a Shelby en el primer protocolo de almacenamiento en caliente descentralizado que tiene la capacidad, en un sentido real, de ofrecer una experiencia de uso al nivel de Web2. Los usuarios ya no necesitan soportar la latencia de segundos que es común en los sistemas de datos fríos al leer un video 4K en Shelby, llamar a los datos de embedding de un modelo de lenguaje grande, o rastrear un registro de transacciones, sino que pueden obtener respuestas en menos de un segundo. Para los nodos de servicio, una red dedicada no solo mejora la eficiencia del servicio, sino que también reduce drásticamente los costos de ancho de banda, haciendo que el mecanismo de 'pago por cantidad leída' sea verdaderamente viable económicamente, lo que incentiva al sistema a evolucionar hacia un rendimiento más alto en lugar de un mayor volumen de almacenamiento.
Se puede decir que la introducción de una red de fibra óptica dedicada es el soporte clave que permite a Shelby "parecerse a AWS, pero en su esencia es Web3". No solo rompe la oposición natural entre la descentralización y el rendimiento, sino que también abre la posibilidad de una implementación real para las aplicaciones Web3 en aspectos como la lectura de alta frecuencia, la programación de alta capacidad y el acceso de bajo costo en los bordes.
Además, en la persistencia de datos y el costo, Shelby ha adoptado el Esquema de Codificación Eficiente construido con Clay Codes, logrando una redundancia de almacenamiento de hasta <2x a través de la estructura de codificación óptima MSR y MDS, manteniendo al mismo tiempo 11 nueves de persistencia y 99.9% de disponibilidad. En un momento en que la mayoría de los protocolos de almacenamiento Web3 aún se encuentran en una tasa de redundancia de 5x a 15x, Shelby no solo es técnicamente más eficiente, sino que también es más competitivo en costo. Esto también significa que, para los desarrolladores de dApp que realmente valoran la optimización de costos y la programación de recursos, Shelby ofrece una opción real de "barata y rápida".
Resumen
A lo largo de la evolución de Filecoin, Arweave, Walrus hasta Shelby, podemos ver claramente: la narrativa del almacenamiento descentralizado ha pasado de ser una utopía tecnológica del "existir es justificar" a una ruta de realismo de "ser útil es ser justo". Filecoin en sus inicios impulsó la participación de hardware mediante incentivos económicos, pero la demanda real de los usuarios ha estado marginada durante mucho tiempo; Arweave eligió un almacenamiento permanente extremo, pero se ha vuelto cada vez más aislado en un ecosistema de aplicaciones silencioso; Walrus intenta encontrar un nuevo equilibrio entre costo y rendimiento, pero aún quedan dudas sobre la construcción de escenarios de aplicación y mecanismos de incentivos. Hasta que apareció Shelby, el almacenamiento descentralizado no había ofrecido una respuesta sistemática a la "usabilidad a nivel Web2" por primera vez: desde la red de fibra óptica dedicada en la capa de transporte, hasta el diseño eficiente de códigos de corrección en la capa de computación, y el mecanismo de incentivos basado en el pago por lectura, estas capacidades que originalmente pertenecían a plataformas de nube centralizadas, comienzan a reestructurarse en el mundo Web3.
La aparición de Shelby no significa el final de los problemas. Tampoco ha resuelto todos los desafíos: la ecología de desarrolladores, la gestión de permisos, el acceso de terminales y otros problemas siguen adelante. Pero su significado radica en que ha abierto un posible camino de "sin comprometer el rendimiento" para la industria del almacenamiento descentralizado, rompiendo la paradoja binaria de "o resistencia a la censura, o facilidad de uso".
El camino hacia la popularización del almacenamiento descentralizado no se mantendrá solo por la calidez del concepto o la especulación de tokens, sino que debe avanzar hacia una fase impulsada por aplicaciones "utilizables, integrables y sostenibles". En esta fase, quien pueda resolver primero los verdaderos puntos de dolor de los usuarios, podrá reconfigurar la narrativa de la infraestructura en la próxima ronda. Desde la lógica de las monedas minadas hasta la lógica de uso, el avance de Shelby podría marcar el final de una era —y más aún, el inicio de otra.
Acerca de Movemaker
Movemaker es la primera organización comunitaria oficial autorizada por la Fundación Aptos, cofundada por Ankaa y BlockBooster, que se centra en promover la construcción y el desarrollo del ecosistema de Aptos en la región de habla china. Como representante oficial de Aptos en la región de habla china, Movemaker se compromete a crear un ecosistema de Aptos diverso, abierto y próspero al conectar desarrolladores, usuarios, capital y numerosos socios ecológicos.
Descargo de responsabilidad:
Este artículo/blog es solo para referencia, representa la opinión personal del autor y no refleja la posición de Movemaker. Este artículo no tiene la intención de proporcionar: (i) asesoramiento de inversión o recomendaciones de inversión; (ii) ofertas o solicitudes para comprar, vender o mantener activos digitales; o (iii) asesoramiento financiero, contable, legal o fiscal. Mantener activos digitales, incluidas stablecoins y NFT, conlleva un alto riesgo, la volatilidad de precios es significativa y pueden incluso llegar a no tener valor. Debe considerar cuidadosamente si la negociación o la posesión de activos digitales son adecuadas para usted, según su situación financiera. Si tiene preguntas específicas sobre su situación, consulte a su asesor legal, fiscal o de inversiones. La información proporcionada en este artículo (incluidos los datos de mercado y estadísticas, si las hay) es solo para referencia general. Se ha ejercido un razonable cuidado al redactar estos datos y gráficos, pero no se asume ninguna responsabilidad por errores fácticos u omisiones en ellos.