Autor original: @BlazingKevin_, el investigador en Movemaker
El almacenamiento ha sido una de las principales narrativas en la industria. Filecoin, como líder en la última ronda de mercado alcista, tuvo un valor de mercado que superó los 10 mil millones de dólares. Arweave, como protocolo de almacenamiento comparable, se destacó por su almacenamiento permanente, alcanzando un valor de mercado máximo de 3.5 mil millones de dólares. Sin embargo, a medida que la disponibilidad del almacenamiento de datos fríos fue desacreditada, la necesidad del almacenamiento permanente ha sido cuestionada, y la narrativa del almacenamiento descentralizado se ve rodeada de grandes interrogantes sobre su viabilidad. La aparición de Walrus ha reavivado la narrativa de almacenamiento que había estado inactiva durante mucho tiempo, y ahora Aptos se ha asociado con Jump Crypto para lanzar Shelby, con el objetivo de llevar el almacenamiento descentralizado a un nuevo nivel en el ámbito de los datos calientes. Entonces, ¿podrá el almacenamiento descentralizado regresar y ofrecer casos de uso amplios? ¿O será otra vez solo una burbuja especulativa? Este artículo analiza el desarrollo de Filecoin, Arweave, Walrus y Shelby, explorando la evolución de la narrativa del almacenamiento descentralizado, intentando encontrar una respuesta a la pregunta: ¿qué tan lejos está la popularización del almacenamiento descentralizado?
Filecoin: El almacenamiento es la apariencia, la minería es la esencia
Filecoin es una de las criptomonedas alternativas que surgió inicialmente, y su dirección de desarrollo naturalmente gira en torno a la descentralización, que es una característica común de las criptomonedas tempranas: buscar el significado de la existencia descentralizada en varias pistas tradicionales. Filecoin no es una excepción, ya que conecta el almacenamiento con la descentralización, lo que naturalmente evoca las desventajas del almacenamiento centralizado: la suposición de confianza en los proveedores de servicios de almacenamiento de datos centralizados. Por lo tanto, lo que Filecoin hace es transformar el almacenamiento centralizado en almacenamiento descentralizado. Sin embargo, en este proceso, algunos aspectos sacrificados para lograr la descentralización se convirtieron en los puntos problemáticos que los proyectos posteriores como Arweave o Walrus intentaron resolver. Para entender por qué Filecoin es solo una moneda minera, es necesario comprender por qué su tecnología subyacente IPFS no es adecuada para ser un límite objetivo de datos calientes.
IPFS: Arquitectura descentralizada, pero detenida por el cuello de botella en la transmisión
IPFS (Sistema de Archivos Interplanetario) apareció alrededor de 2015, y su objetivo es revolucionar el protocolo HTTP tradicional mediante el direccionamiento por contenido. La mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En una era donde los proveedores de servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo mediante IPFS aún puede tardar varios segundos, lo que dificulta su promoción en aplicaciones prácticas y explica por qué, aparte de algunos proyectos de blockchain, raramente es adoptado por las industrias tradicionales.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al tratar con datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no tiene ventajas significativas en comparación con las CDN tradicionales.
Sin embargo, a pesar de que IPFS en sí mismo no es una blockchain, su concepto de diseño de grafo acíclico dirigido (DAG) se alinea estrechamente con muchas cadenas públicas y protocolos Web3, lo que lo convierte en una base natural para construir sobre blockchain. Por lo tanto, aunque no tiene un valor práctico, como marco subyacente para la narrativa de blockchain es más que suficiente. Los primeros proyectos de altcoin solo necesitaban un marco funcional para comenzar a explorar nuevas posibilidades, pero cuando Filecoin alcanzó un cierto nivel de desarrollo, las limitaciones significativas que trajo IPFS comenzaron a obstaculizar su progreso.
Lógica de las monedas minadas bajo la capa de almacenamiento
El diseño de IPFS tiene como objetivo permitir que los usuarios, al almacenar datos, también puedan ser parte de una red de almacenamiento. Sin embargo, sin incentivos económicos, es difícil que los usuarios usen este sistema de manera voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su propio espacio de almacenamiento ni almacenarán archivos de otros. Es en este contexto que Filecoin nace.
En el modelo de economía de tokens de Filecoin, hay tres roles principales: los usuarios son responsables de pagar tarifas para almacenar datos; los mineros de almacenamiento reciben incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen incentivos.
Este modelo presenta un espacio potencial para el comportamiento malicioso. Los mineros de almacenamiento pueden llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización de los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no han sido eliminados de manera privada, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de los tokens, en lugar de basarse en la demanda real de almacenamiento distribuido por parte de los usuarios finales. A pesar de que el proyecto sigue iterando, en esta etapa, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "basado en minería" en lugar de "impulsado por aplicaciones".
Arweave: Nacido del largo plazo, destruido por el largo plazo
Si el objetivo de diseño de Filecoin es construir una "nube de datos" descentralizada que sea incentivada y verificable, entonces Arweave avanza en la dirección opuesta en términos de almacenamiento: proporciona la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; su sistema entero se desarrolla en torno a una hipótesis central: los datos importantes deben almacenarse una vez y permanecer para siempre en la red. Este extremismo en el largo plazo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave utiliza Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente en un largo período de tiempo medido en años. A Arweave no le importa el marketing, ni le preocupa la competencia o las tendencias del mercado. Simplemente avanza en el camino de la iteración de la arquitectura de la red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy apreciado en el último mercado alcista; y también por el largo plazo, incluso si cae al fondo, Arweave podría soportar varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo se puede demostrar con el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente versión 2.9. A pesar de que ha perdido discusión en el mercado, ha estado trabajando para permitir que un rango más amplio de mineros participe en la red con el costo mínimo, y para incentivar a los mineros a almacenar la mayor cantidad de datos posible, mejorando continuamente la robustez de toda la red. Arweave sigue una ruta conservadora sabiendo que no se ajusta a las preferencias del mercado; no abraza a la comunidad de mineros, su ecosistema está completamente estancado, y actualiza la red principal con el costo mínimo, reduciendo continuamente el umbral de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permitía a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar las probabilidades de encontrar bloques. Para frenar esta tendencia, la versión 1.7 introdujo el algoritmo RandomX, limitando el uso de potencia de cómputo especializada y exigiendo en su lugar la participación de CPU genéricas en la minería, debilitando así la centralización de la potencia de cómputo.
En la versión 2.0, Arweave adopta SPoA, transformando la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad real de la tenencia de datos mediante estrategias de grupos de almacenamiento centralizados de alta velocidad.
Para corregir esta tendencia, 2.4 se lanzó el mecanismo SPoRA, que introduce un índice global y acceso aleatorio a hash lento, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la creación efectiva de bloques, debilitando desde el mecanismo el efecto de acumulación de poder de cómputo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. 2.6 introduce una cadena de hash que controla el ritmo de creación de bloques, equilibrando los beneficios marginales de los dispositivos de alto rendimiento y proporcionando un espacio de participación equitativo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: 2.7 se añade un mecanismo de minería colaborativa y de pools, mejorando la competitividad de los pequeños mineros; 2.8 se lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; 2.9 introduce un nuevo proceso de empaquetado en formato replica_ 2 _ 9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: resistiendo continuamente la tendencia de concentración de poder de cómputo, mientras se reduce constantemente la barrera de entrada, garantizando la viabilidad a largo plazo del protocolo.
Walrus: ¿Abrazar los datos calientes es una exageración o un secreto oculto?
Walrus, desde la perspectiva del diseño, es completamente diferente de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar el costo de almacenamiento del protocolo de almacenamiento de datos calientes.
Código de corrección mágica: ¿innovación en costos o vino nuevo en botellas viejas?
En términos de diseño de costos de almacenamiento, Walrus considera que los costos de almacenamiento de Filecoin y Arweave son irrazonables, ya que ambos utilizan una arquitectura de replicación completa, cuya principal ventaja radica en que cada nodo posee una copia completa, ofreciendo una fuerte capacidad de tolerancia a fallos e independencia entre nodos. Este tipo de arquitectura asegura que incluso si algunos nodos están fuera de línea, la red aún conserva la disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que parte del almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras mejora la disponibilidad a través de una forma de redundancia estructurada, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología Redstuff, creada por Walrus, es clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon (RS). La codificación RS es un algoritmo de código de borrado muy tradicional, y el código de borrado es una técnica que permite duplicar un conjunto de datos al agregar fragmentos redundantes (erasure code), que se puede utilizar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida cotidiana.
El código de corrección de errores permite a los usuarios obtener un bloque, por ejemplo, de 1 MB, y luego "ampliarlo" a 2 MB, donde el 1 MB adicional son datos especiales llamados código de corrección de errores. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde hasta 1 MB del bloque, se puede recuperar todo el bloque. La misma técnica permite que las computadoras lean todos los datos en un CD-ROM, incluso si ha sido dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación es comenzar con k bloques de información, construir un polinomio relacionado y evaluarlo en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de borrado RS, la posibilidad de muestreo aleatorio de grandes bloques de datos perdidos es muy pequeña.
Un ejemplo: dividir un archivo en 6 bloques de datos y 4 bloques de verificación, un total de 10 partes. Siempre que se conserven 6 de ellas, se puede recuperar completamente los datos originales.
Ventajas: Alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros a prueba de fallos (RAID), así como en sistemas de almacenamiento en la nube (como Azure Storage, Facebook F 4).
Desventajas: la decodificación es compleja y costosa; no es adecuada para escenarios de datos que cambian con frecuencia. Por lo tanto, generalmente se utiliza para la recuperación y programación de datos en entornos centralizados fuera de la cadena.
Bajo una arquitectura descentralizada, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante basada en esto: el algoritmo de codificación RedStuff, para lograr mecanismos de almacenamiento redundante más rentables y flexibles.
¿Cuál es la característica más destacada de Redstuff? ** A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. ** Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario descentralizado. A diferencia de los códigos de borrado tradicionales (como Reed-Solomon), RedStuff ya no persigue una estricta consistencia matemática, sino que realiza un compromiso realista en torno a la distribución de datos, la verificación de almacenamiento y el costo de cómputo. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, verifica en la cadena si los nodos poseen copias específicas de datos mediante pruebas, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para restaurar los datos originales, su generación y distribución están estrictamente controladas, el umbral de restauración es f + 1, y se requieren 2 f + 1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan a través de operaciones simples como combinaciones XOR, su función es proporcionar tolerancia a fallos elástica y mejorar la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de datos, permitiendo que diferentes nodos almacenen versiones de datos diferentes durante cortos períodos de tiempo, enfatizando el camino práctico de "consistencia eventual". Aunque es similar a los requisitos laxos sobre bloques retroactivos en sistemas como Arweave, ha logrado cierto efecto en la reducción de la carga de la red, también ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja capacidad de cálculo y baja ancho de banda, en esencia sigue siendo una "variante" de un sistema de códigos de borrado. Sacrifica una parte de la determinación en la lectura de datos a cambio del control de costos y la escalabilidad en un entorno descentralizado. Sin embargo, en el nivel de aplicación, aún está por verse si esta arquitectura puede sostener escenarios de datos a gran escala y de alta frecuencia de interacción. Más allá de eso, RedStuff no ha superado realmente el cuello de botella en el cálculo de codificación que ha existido por mucho tiempo en los códigos de borrado, sino que ha evitado los puntos de alta acoplamiento de la arquitectura tradicional a través de estrategias estructurales; su innovación se refleja más en la optimización combinatoria del lado de la ingeniería, en lugar de una ruptura en el nivel de los algoritmos fundamentales.
Por lo tanto, RedStuff es más como una "modificación razonable" para el entorno actual de almacenamiento descentralizado. Sin duda, ha traído mejoras en los costos de redundancia y la carga operativa, permitiendo que dispositivos de borde y nodos no de alto rendimiento participen en tareas de almacenamiento de datos. Sin embargo, en escenarios de aplicación a gran escala, adaptación de computación general y requisitos de consistencia más altos, sus límites de capacidad siguen siendo bastante evidentes. Esto hace que la innovación de Walrus parezca más una adaptación del sistema tecnológico existente, en lugar de un avance decisivo que impulse la migración del paradigma de almacenamiento descentralizado.
Sui y Walrus: ¿Puede una cadena pública de alto rendimiento impulsar la utilidad del almacenamiento?
En el artículo de investigación oficial de Walrus se puede ver su escenario objetivo: "El propósito de diseño de Walrus es proporcionar una solución para el almacenamiento de grandes archivos binarios (Blobs), que son el alma de muchas aplicaciones descentralizadas."
Los llamados datos blob de gran tamaño suelen referirse a objetos binarios de gran volumen y estructura no fija, como videos, audios, imágenes, archivos de modelos o paquetes de software.
En el contexto de las criptomonedas, se refiere más a las imágenes y videos en NFT y contenido de redes sociales. Esto también constituye la principal dirección de aplicación de Walrus.
Aunque el texto también menciona los posibles usos de los conjuntos de datos de modelos de IA y la capa de disponibilidad de datos (DA), la disminución gradual de Web3 AI ha dejado muy pocos proyectos relacionados, y el número de protocolos que realmente adoptarán Walrus en el futuro podría ser muy limitado.
En cuanto a la dirección de la capa DA, si Walrus puede ser un sustituto efectivo, aún debe esperar a que proyectos principales como Celestia reaviven el interés del mercado para poder validar su viabilidad.
Por lo tanto, se puede entender la posición central de Walrus como un sistema de almacenamiento en caliente para activos de contenido como NFT, enfatizando la capacidad de llamada dinámica, actualización en tiempo real y gestión de versiones.
Esto también explica por qué Walrus necesita depender de Sui: gracias a la capacidad de cadena de alto rendimiento de Sui, Walrus puede construir una red de recuperación de datos de alta velocidad, reduciendo significativamente los costos operativos sin tener que desarrollar su propia cadena pública de alto rendimiento, evitando así la competencia directa en costos unitarios con los servicios de almacenamiento en la nube tradicionales.
Según datos oficiales, el costo de almacenamiento de Walrus es aproximadamente una quinta parte del de los servicios de nube tradicionales. Aunque es decenas de veces más caro en comparación con Filecoin y Arweave, su objetivo no es buscar un costo extremadamente bajo, sino construir un sistema de almacenamiento en caliente descentralizado que pueda ser utilizado en escenarios de negocios reales. Walrus opera como una red PoS, y su responsabilidad central es verificar la honestidad de los nodos de almacenamiento, proporcionando la garantía de seguridad más básica para todo el sistema.
En cuanto a si Sui realmente necesita Walrus, actualmente se encuentra más en el nivel de la narrativa ecológica. **Si se considera únicamente el asentamiento financiero como el principal uso, Sui no necesita urgentemente soporte de almacenamiento fuera de la cadena. ** Sin embargo, si en el futuro espera albergar aplicaciones de IA, la capitalización de contenido y escenarios en cadena más complejos como agentes combinables, la capa de almacenamiento será indispensable para proporcionar contexto, contexto y capacidad de indexación. Una cadena de alto rendimiento puede manejar modelos de estado complejos, pero estos estados necesitan estar vinculados a datos verificables para construir una red de contenido confiable.
Shelby: Red de fibra óptica dedicada que libera por completo los escenarios de aplicación de Web3
En el actual contexto de las aplicaciones Web3, el "rendimiento de lectura" siempre ha sido un punto débil difícil de superar.
Ya sea streaming de video, sistemas RAG, herramientas de colaboración en tiempo real o motores de inferencia de modelos de IA, todos dependen de la capacidad de acceso a datos calientes de baja latencia y alta capacidad de procesamiento. Los protocolos de almacenamiento descentralizado (desde Arweave, Filecoin hasta Walrus), aunque han avanzado en términos de persistencia de datos y desconfianza, siempre enfrentan las limitaciones de alta latencia, inestabilidad de ancho de banda y control inadecuado de la programación de datos, ya que operan sobre Internet público.
Shelby intentó abordar este problema desde la raíz.
Primero, el mecanismo de Paid Reads ha reconfigurado directamente el dilema de las "operaciones de lectura" en el almacenamiento descentralizado. En los sistemas tradicionales, leer datos es casi gratuito, y la falta de un mecanismo de incentivos efectivo ha llevado a que los nodos de servicio sean generalmente perezosos en responder y recorten esfuerzos, lo que resulta en una experiencia real del usuario muy por detrás de la de Web2.
Shelby vincula directamente la experiencia del usuario con los ingresos de los nodos de servicio al introducir un modelo de pago por cantidad de lectura: cuanto más rápido y estable devuelvan los datos los nodos, más recompensas podrán obtener.
Este modelo no es un "diseño económico accesorio", sino la lógica central del diseño de rendimiento de Shelby: sin incentivos, no hay rendimiento confiable; con incentivos, se puede lograr una mejora sostenible en la calidad del servicio.
En segundo lugar, uno de los mayores avances tecnológicos propuestos por Shelby es la introducción de la (Dedicated Fiber Network), lo que equivale a construir una red de tren de alta velocidad para la lectura instantánea de datos calientes de Web3.
Esta arquitectura elude completamente la capa de transmisión pública de la que dependen comúnmente los sistemas Web3, desplegando directamente nodos de almacenamiento y nodos RPC sobre una columna vertebral de transmisión de alto rendimiento, baja congestión y físicamente aislada. Esto no solo reduce significativamente la latencia en la comunicación entre nodos, sino que también garantiza la previsibilidad y estabilidad del ancho de banda de transmisión. La estructura de red subyacente de Shelby se asemeja más al modo de despliegue de líneas dedicadas entre centros de datos internos de AWS, en lugar de la lógica de "subir a algún nodo minero" de otros protocolos Web3.
Fuente: Shelby Libro Blanco
Esta inversión arquitectónica a nivel de red convierte a Shelby en el primer protocolo de almacenamiento en caliente descentralizado que realmente puede ofrecer una experiencia de uso a nivel de Web2. Los usuarios en Shelby pueden leer un video 4K, invocar datos de embedding de un modelo de lenguaje grande, o retroceder en un registro de transacciones, sin tener que soportar la latencia de segundos común en los sistemas de datos fríos, sino que pueden obtener respuestas en milisegundos. Para los nodos de servicio, una red dedicada no solo mejora la eficiencia del servicio, sino que también reduce drásticamente los costos de ancho de banda, haciendo que el mecanismo de 'pago por cantidad leída' sea realmente viable económicamente, lo que incentiva al sistema a evolucionar hacia un rendimiento más alto en lugar de una mayor capacidad de almacenamiento.
Se puede decir que la introducción de una red de fibra óptica dedicada es el apoyo clave que permite a Shelby "verse como AWS, pero ser Web3 en su esencia". No solo rompe la oposición natural entre descentralización y rendimiento, sino que también abre la posibilidad real de implementación para aplicaciones Web3 en aspectos como la lectura de alta frecuencia, la programación de alto ancho de banda y el acceso de bajo costo en los bordes.
Además, en la persistencia de datos y el costo, Shelby utiliza el Esquema de Codificación Eficiente construido con Clay Codes, logrando una redundancia de almacenamiento de hasta <2 x a través de la estructura de codificación óptima MSR y MDS matemáticamente, mientras mantiene una persistencia de 11 nueves y una disponibilidad del 99.9%. En un momento en que la mayoría de los protocolos de almacenamiento Web3 todavía se encuentran en tasas de redundancia de 5 x a 15 x, Shelby no solo es técnicamente más eficiente, sino que también es más competitivo en costos. Esto también significa que, para los desarrolladores de dApp que realmente valoran la optimización de costos y la programación de recursos, Shelby ofrece una opción real "barata y rápida".
Resumen
A lo largo de la evolución de Filecoin, Arweave, Walrus hasta Shelby, podemos ver claramente: la narrativa del almacenamiento descentralizado ha pasado de una utopía tecnológica de "la existencia justifica la razón" a una línea de realismo de "la utilidad es justicia". Filecoin, en sus inicios, impulsó la participación de hardware mediante incentivos económicos, pero la demanda real de los usuarios ha estado marginada durante mucho tiempo; Arweave optó por un almacenamiento permanente extremo, pero en la quietud de su ecosistema de aplicaciones se volvió cada vez más aislado; Walrus intenta encontrar un nuevo equilibrio entre costo y rendimiento, pero aún queda la duda sobre la construcción de escenarios de implementación y mecanismos de incentivos. Hasta que apareció Shelby, el almacenamiento descentralizado no había respondido de manera sistemática a la "utilidad a nivel Web2" — desde la red de fibra óptica dedicada en la capa de transmisión, hasta el diseño eficiente de códigos de corrección de errores en la capa de cálculo, y hasta el mecanismo de incentivos de pago por lectura, estas capacidades, que originalmente pertenecían a plataformas de nube centralizadas, comenzaron a reconfigurarse en el mundo Web3.
La aparición de Shelby no significa el final de los problemas. Tampoco ha resuelto todos los desafíos: la ecología de desarrolladores, la gestión de permisos, el acceso de terminales y otros problemas aún están por delante. Pero su significado radica en que ha abierto un posible camino de "rendimiento sin compromisos" para la industria del almacenamiento descentralizado, rompiendo el dilema binario de "o resistente a la censura, o fácil de usar".
El camino hacia la popularización del almacenamiento descentralizado no se sostendrá únicamente por la efervescencia de conceptos o la especulación de tokens, sino que debe avanzar hacia una etapa impulsada por aplicaciones "utilizables, integrables y sostenibles". En esta etapa, quien pueda resolver primero los verdaderos puntos de dolor de los usuarios, será quien reconfigure la narrativa de la próxima ronda de infraestructuras. Desde la lógica de las monedas minadas hasta la lógica de uso, el avance de Shelby puede marcar el final de una era, pero también el comienzo de otra.
Acerca de Movemaker
Movemaker es la primera organización oficial de la comunidad, autorizada por la Fundación Aptos y cofundada por Ankaa y BlockBooster, centrada en promover la construcción y el desarrollo del ecosistema de Aptos en la región de habla china. Como representante oficial de Aptos en la región de habla china, Movemaker se compromete a crear un ecosistema de Aptos diverso, abierto y próspero, conectando desarrolladores, usuarios, capital y numerosos socios ecológicos.
Descargo de responsabilidad:
Este artículo/blog es solo para referencia y representa la opinión personal del autor, y no representa la posición de Movemaker. Este artículo no tiene la intención de proporcionar: (i) asesoramiento de inversión o recomendaciones de inversión; (ii) ofertas o solicitudes para comprar, vender o mantener activos digitales; o (iii) asesoramiento financiero, contable, legal o fiscal. Mantener activos digitales, incluidos stablecoins y NFT, conlleva un alto riesgo, con grandes fluctuaciones de precios y puede llegar a no valer nada. Debe considerar cuidadosamente si operar o mantener activos digitales es adecuado para usted, según su situación financiera. Si tiene preguntas sobre circunstancias específicas, consulte a su asesor legal, fiscal o de inversiones. La información proporcionada en este artículo (incluidos datos de mercado y estadísticas, si las hay) es solo para referencia general. Se ha tomado un cuidado razonable al redactar estos datos y gráficos, pero no se asume ninguna responsabilidad por errores fácticos u omisiones en ellos.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Desde Filecoin, Arweave hasta Walrus, Shelby: ¿cuánto falta para la popularización del almacenamiento descentralizado?
Autor original: @BlazingKevin_, el investigador en Movemaker
El almacenamiento ha sido una de las principales narrativas en la industria. Filecoin, como líder en la última ronda de mercado alcista, tuvo un valor de mercado que superó los 10 mil millones de dólares. Arweave, como protocolo de almacenamiento comparable, se destacó por su almacenamiento permanente, alcanzando un valor de mercado máximo de 3.5 mil millones de dólares. Sin embargo, a medida que la disponibilidad del almacenamiento de datos fríos fue desacreditada, la necesidad del almacenamiento permanente ha sido cuestionada, y la narrativa del almacenamiento descentralizado se ve rodeada de grandes interrogantes sobre su viabilidad. La aparición de Walrus ha reavivado la narrativa de almacenamiento que había estado inactiva durante mucho tiempo, y ahora Aptos se ha asociado con Jump Crypto para lanzar Shelby, con el objetivo de llevar el almacenamiento descentralizado a un nuevo nivel en el ámbito de los datos calientes. Entonces, ¿podrá el almacenamiento descentralizado regresar y ofrecer casos de uso amplios? ¿O será otra vez solo una burbuja especulativa? Este artículo analiza el desarrollo de Filecoin, Arweave, Walrus y Shelby, explorando la evolución de la narrativa del almacenamiento descentralizado, intentando encontrar una respuesta a la pregunta: ¿qué tan lejos está la popularización del almacenamiento descentralizado?
Filecoin: El almacenamiento es la apariencia, la minería es la esencia
Filecoin es una de las criptomonedas alternativas que surgió inicialmente, y su dirección de desarrollo naturalmente gira en torno a la descentralización, que es una característica común de las criptomonedas tempranas: buscar el significado de la existencia descentralizada en varias pistas tradicionales. Filecoin no es una excepción, ya que conecta el almacenamiento con la descentralización, lo que naturalmente evoca las desventajas del almacenamiento centralizado: la suposición de confianza en los proveedores de servicios de almacenamiento de datos centralizados. Por lo tanto, lo que Filecoin hace es transformar el almacenamiento centralizado en almacenamiento descentralizado. Sin embargo, en este proceso, algunos aspectos sacrificados para lograr la descentralización se convirtieron en los puntos problemáticos que los proyectos posteriores como Arweave o Walrus intentaron resolver. Para entender por qué Filecoin es solo una moneda minera, es necesario comprender por qué su tecnología subyacente IPFS no es adecuada para ser un límite objetivo de datos calientes.
IPFS: Arquitectura descentralizada, pero detenida por el cuello de botella en la transmisión
IPFS (Sistema de Archivos Interplanetario) apareció alrededor de 2015, y su objetivo es revolucionar el protocolo HTTP tradicional mediante el direccionamiento por contenido. La mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En una era donde los proveedores de servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo mediante IPFS aún puede tardar varios segundos, lo que dificulta su promoción en aplicaciones prácticas y explica por qué, aparte de algunos proyectos de blockchain, raramente es adoptado por las industrias tradicionales.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al tratar con datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no tiene ventajas significativas en comparación con las CDN tradicionales.
Sin embargo, a pesar de que IPFS en sí mismo no es una blockchain, su concepto de diseño de grafo acíclico dirigido (DAG) se alinea estrechamente con muchas cadenas públicas y protocolos Web3, lo que lo convierte en una base natural para construir sobre blockchain. Por lo tanto, aunque no tiene un valor práctico, como marco subyacente para la narrativa de blockchain es más que suficiente. Los primeros proyectos de altcoin solo necesitaban un marco funcional para comenzar a explorar nuevas posibilidades, pero cuando Filecoin alcanzó un cierto nivel de desarrollo, las limitaciones significativas que trajo IPFS comenzaron a obstaculizar su progreso.
Lógica de las monedas minadas bajo la capa de almacenamiento
El diseño de IPFS tiene como objetivo permitir que los usuarios, al almacenar datos, también puedan ser parte de una red de almacenamiento. Sin embargo, sin incentivos económicos, es difícil que los usuarios usen este sistema de manera voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su propio espacio de almacenamiento ni almacenarán archivos de otros. Es en este contexto que Filecoin nace.
En el modelo de economía de tokens de Filecoin, hay tres roles principales: los usuarios son responsables de pagar tarifas para almacenar datos; los mineros de almacenamiento reciben incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen incentivos.
Este modelo presenta un espacio potencial para el comportamiento malicioso. Los mineros de almacenamiento pueden llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización de los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no han sido eliminados de manera privada, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de los tokens, en lugar de basarse en la demanda real de almacenamiento distribuido por parte de los usuarios finales. A pesar de que el proyecto sigue iterando, en esta etapa, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "basado en minería" en lugar de "impulsado por aplicaciones".
Arweave: Nacido del largo plazo, destruido por el largo plazo
Si el objetivo de diseño de Filecoin es construir una "nube de datos" descentralizada que sea incentivada y verificable, entonces Arweave avanza en la dirección opuesta en términos de almacenamiento: proporciona la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; su sistema entero se desarrolla en torno a una hipótesis central: los datos importantes deben almacenarse una vez y permanecer para siempre en la red. Este extremismo en el largo plazo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave utiliza Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente en un largo período de tiempo medido en años. A Arweave no le importa el marketing, ni le preocupa la competencia o las tendencias del mercado. Simplemente avanza en el camino de la iteración de la arquitectura de la red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy apreciado en el último mercado alcista; y también por el largo plazo, incluso si cae al fondo, Arweave podría soportar varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo se puede demostrar con el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente versión 2.9. A pesar de que ha perdido discusión en el mercado, ha estado trabajando para permitir que un rango más amplio de mineros participe en la red con el costo mínimo, y para incentivar a los mineros a almacenar la mayor cantidad de datos posible, mejorando continuamente la robustez de toda la red. Arweave sigue una ruta conservadora sabiendo que no se ajusta a las preferencias del mercado; no abraza a la comunidad de mineros, su ecosistema está completamente estancado, y actualiza la red principal con el costo mínimo, reduciendo continuamente el umbral de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permitía a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar las probabilidades de encontrar bloques. Para frenar esta tendencia, la versión 1.7 introdujo el algoritmo RandomX, limitando el uso de potencia de cómputo especializada y exigiendo en su lugar la participación de CPU genéricas en la minería, debilitando así la centralización de la potencia de cómputo.
En la versión 2.0, Arweave adopta SPoA, transformando la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad real de la tenencia de datos mediante estrategias de grupos de almacenamiento centralizados de alta velocidad.
Para corregir esta tendencia, 2.4 se lanzó el mecanismo SPoRA, que introduce un índice global y acceso aleatorio a hash lento, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la creación efectiva de bloques, debilitando desde el mecanismo el efecto de acumulación de poder de cómputo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. 2.6 introduce una cadena de hash que controla el ritmo de creación de bloques, equilibrando los beneficios marginales de los dispositivos de alto rendimiento y proporcionando un espacio de participación equitativo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: 2.7 se añade un mecanismo de minería colaborativa y de pools, mejorando la competitividad de los pequeños mineros; 2.8 se lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; 2.9 introduce un nuevo proceso de empaquetado en formato replica_ 2 _ 9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: resistiendo continuamente la tendencia de concentración de poder de cómputo, mientras se reduce constantemente la barrera de entrada, garantizando la viabilidad a largo plazo del protocolo.
Walrus: ¿Abrazar los datos calientes es una exageración o un secreto oculto?
Walrus, desde la perspectiva del diseño, es completamente diferente de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar el costo de almacenamiento del protocolo de almacenamiento de datos calientes.
Código de corrección mágica: ¿innovación en costos o vino nuevo en botellas viejas?
En términos de diseño de costos de almacenamiento, Walrus considera que los costos de almacenamiento de Filecoin y Arweave son irrazonables, ya que ambos utilizan una arquitectura de replicación completa, cuya principal ventaja radica en que cada nodo posee una copia completa, ofreciendo una fuerte capacidad de tolerancia a fallos e independencia entre nodos. Este tipo de arquitectura asegura que incluso si algunos nodos están fuera de línea, la red aún conserva la disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que parte del almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras mejora la disponibilidad a través de una forma de redundancia estructurada, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología Redstuff, creada por Walrus, es clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon (RS). La codificación RS es un algoritmo de código de borrado muy tradicional, y el código de borrado es una técnica que permite duplicar un conjunto de datos al agregar fragmentos redundantes (erasure code), que se puede utilizar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida cotidiana.
El código de corrección de errores permite a los usuarios obtener un bloque, por ejemplo, de 1 MB, y luego "ampliarlo" a 2 MB, donde el 1 MB adicional son datos especiales llamados código de corrección de errores. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde hasta 1 MB del bloque, se puede recuperar todo el bloque. La misma técnica permite que las computadoras lean todos los datos en un CD-ROM, incluso si ha sido dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación es comenzar con k bloques de información, construir un polinomio relacionado y evaluarlo en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de borrado RS, la posibilidad de muestreo aleatorio de grandes bloques de datos perdidos es muy pequeña.
Un ejemplo: dividir un archivo en 6 bloques de datos y 4 bloques de verificación, un total de 10 partes. Siempre que se conserven 6 de ellas, se puede recuperar completamente los datos originales.
Ventajas: Alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros a prueba de fallos (RAID), así como en sistemas de almacenamiento en la nube (como Azure Storage, Facebook F 4).
Desventajas: la decodificación es compleja y costosa; no es adecuada para escenarios de datos que cambian con frecuencia. Por lo tanto, generalmente se utiliza para la recuperación y programación de datos en entornos centralizados fuera de la cadena.
Bajo una arquitectura descentralizada, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante basada en esto: el algoritmo de codificación RedStuff, para lograr mecanismos de almacenamiento redundante más rentables y flexibles.
¿Cuál es la característica más destacada de Redstuff? ** A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. ** Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario descentralizado. A diferencia de los códigos de borrado tradicionales (como Reed-Solomon), RedStuff ya no persigue una estricta consistencia matemática, sino que realiza un compromiso realista en torno a la distribución de datos, la verificación de almacenamiento y el costo de cómputo. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, verifica en la cadena si los nodos poseen copias específicas de datos mediante pruebas, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para restaurar los datos originales, su generación y distribución están estrictamente controladas, el umbral de restauración es f + 1, y se requieren 2 f + 1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan a través de operaciones simples como combinaciones XOR, su función es proporcionar tolerancia a fallos elástica y mejorar la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de datos, permitiendo que diferentes nodos almacenen versiones de datos diferentes durante cortos períodos de tiempo, enfatizando el camino práctico de "consistencia eventual". Aunque es similar a los requisitos laxos sobre bloques retroactivos en sistemas como Arweave, ha logrado cierto efecto en la reducción de la carga de la red, también ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja capacidad de cálculo y baja ancho de banda, en esencia sigue siendo una "variante" de un sistema de códigos de borrado. Sacrifica una parte de la determinación en la lectura de datos a cambio del control de costos y la escalabilidad en un entorno descentralizado. Sin embargo, en el nivel de aplicación, aún está por verse si esta arquitectura puede sostener escenarios de datos a gran escala y de alta frecuencia de interacción. Más allá de eso, RedStuff no ha superado realmente el cuello de botella en el cálculo de codificación que ha existido por mucho tiempo en los códigos de borrado, sino que ha evitado los puntos de alta acoplamiento de la arquitectura tradicional a través de estrategias estructurales; su innovación se refleja más en la optimización combinatoria del lado de la ingeniería, en lugar de una ruptura en el nivel de los algoritmos fundamentales.
Por lo tanto, RedStuff es más como una "modificación razonable" para el entorno actual de almacenamiento descentralizado. Sin duda, ha traído mejoras en los costos de redundancia y la carga operativa, permitiendo que dispositivos de borde y nodos no de alto rendimiento participen en tareas de almacenamiento de datos. Sin embargo, en escenarios de aplicación a gran escala, adaptación de computación general y requisitos de consistencia más altos, sus límites de capacidad siguen siendo bastante evidentes. Esto hace que la innovación de Walrus parezca más una adaptación del sistema tecnológico existente, en lugar de un avance decisivo que impulse la migración del paradigma de almacenamiento descentralizado.
Sui y Walrus: ¿Puede una cadena pública de alto rendimiento impulsar la utilidad del almacenamiento?
En el artículo de investigación oficial de Walrus se puede ver su escenario objetivo: "El propósito de diseño de Walrus es proporcionar una solución para el almacenamiento de grandes archivos binarios (Blobs), que son el alma de muchas aplicaciones descentralizadas."
Los llamados datos blob de gran tamaño suelen referirse a objetos binarios de gran volumen y estructura no fija, como videos, audios, imágenes, archivos de modelos o paquetes de software.
En el contexto de las criptomonedas, se refiere más a las imágenes y videos en NFT y contenido de redes sociales. Esto también constituye la principal dirección de aplicación de Walrus.
Por lo tanto, se puede entender la posición central de Walrus como un sistema de almacenamiento en caliente para activos de contenido como NFT, enfatizando la capacidad de llamada dinámica, actualización en tiempo real y gestión de versiones.
Esto también explica por qué Walrus necesita depender de Sui: gracias a la capacidad de cadena de alto rendimiento de Sui, Walrus puede construir una red de recuperación de datos de alta velocidad, reduciendo significativamente los costos operativos sin tener que desarrollar su propia cadena pública de alto rendimiento, evitando así la competencia directa en costos unitarios con los servicios de almacenamiento en la nube tradicionales.
Según datos oficiales, el costo de almacenamiento de Walrus es aproximadamente una quinta parte del de los servicios de nube tradicionales. Aunque es decenas de veces más caro en comparación con Filecoin y Arweave, su objetivo no es buscar un costo extremadamente bajo, sino construir un sistema de almacenamiento en caliente descentralizado que pueda ser utilizado en escenarios de negocios reales. Walrus opera como una red PoS, y su responsabilidad central es verificar la honestidad de los nodos de almacenamiento, proporcionando la garantía de seguridad más básica para todo el sistema.
En cuanto a si Sui realmente necesita Walrus, actualmente se encuentra más en el nivel de la narrativa ecológica. **Si se considera únicamente el asentamiento financiero como el principal uso, Sui no necesita urgentemente soporte de almacenamiento fuera de la cadena. ** Sin embargo, si en el futuro espera albergar aplicaciones de IA, la capitalización de contenido y escenarios en cadena más complejos como agentes combinables, la capa de almacenamiento será indispensable para proporcionar contexto, contexto y capacidad de indexación. Una cadena de alto rendimiento puede manejar modelos de estado complejos, pero estos estados necesitan estar vinculados a datos verificables para construir una red de contenido confiable.
Shelby: Red de fibra óptica dedicada que libera por completo los escenarios de aplicación de Web3
En el actual contexto de las aplicaciones Web3, el "rendimiento de lectura" siempre ha sido un punto débil difícil de superar.
Ya sea streaming de video, sistemas RAG, herramientas de colaboración en tiempo real o motores de inferencia de modelos de IA, todos dependen de la capacidad de acceso a datos calientes de baja latencia y alta capacidad de procesamiento. Los protocolos de almacenamiento descentralizado (desde Arweave, Filecoin hasta Walrus), aunque han avanzado en términos de persistencia de datos y desconfianza, siempre enfrentan las limitaciones de alta latencia, inestabilidad de ancho de banda y control inadecuado de la programación de datos, ya que operan sobre Internet público.
Shelby intentó abordar este problema desde la raíz.
Primero, el mecanismo de Paid Reads ha reconfigurado directamente el dilema de las "operaciones de lectura" en el almacenamiento descentralizado. En los sistemas tradicionales, leer datos es casi gratuito, y la falta de un mecanismo de incentivos efectivo ha llevado a que los nodos de servicio sean generalmente perezosos en responder y recorten esfuerzos, lo que resulta en una experiencia real del usuario muy por detrás de la de Web2.
Shelby vincula directamente la experiencia del usuario con los ingresos de los nodos de servicio al introducir un modelo de pago por cantidad de lectura: cuanto más rápido y estable devuelvan los datos los nodos, más recompensas podrán obtener.
Este modelo no es un "diseño económico accesorio", sino la lógica central del diseño de rendimiento de Shelby: sin incentivos, no hay rendimiento confiable; con incentivos, se puede lograr una mejora sostenible en la calidad del servicio.
En segundo lugar, uno de los mayores avances tecnológicos propuestos por Shelby es la introducción de la (Dedicated Fiber Network), lo que equivale a construir una red de tren de alta velocidad para la lectura instantánea de datos calientes de Web3.
Esta arquitectura elude completamente la capa de transmisión pública de la que dependen comúnmente los sistemas Web3, desplegando directamente nodos de almacenamiento y nodos RPC sobre una columna vertebral de transmisión de alto rendimiento, baja congestión y físicamente aislada. Esto no solo reduce significativamente la latencia en la comunicación entre nodos, sino que también garantiza la previsibilidad y estabilidad del ancho de banda de transmisión. La estructura de red subyacente de Shelby se asemeja más al modo de despliegue de líneas dedicadas entre centros de datos internos de AWS, en lugar de la lógica de "subir a algún nodo minero" de otros protocolos Web3.
Fuente: Shelby Libro Blanco
Esta inversión arquitectónica a nivel de red convierte a Shelby en el primer protocolo de almacenamiento en caliente descentralizado que realmente puede ofrecer una experiencia de uso a nivel de Web2. Los usuarios en Shelby pueden leer un video 4K, invocar datos de embedding de un modelo de lenguaje grande, o retroceder en un registro de transacciones, sin tener que soportar la latencia de segundos común en los sistemas de datos fríos, sino que pueden obtener respuestas en milisegundos. Para los nodos de servicio, una red dedicada no solo mejora la eficiencia del servicio, sino que también reduce drásticamente los costos de ancho de banda, haciendo que el mecanismo de 'pago por cantidad leída' sea realmente viable económicamente, lo que incentiva al sistema a evolucionar hacia un rendimiento más alto en lugar de una mayor capacidad de almacenamiento.
Se puede decir que la introducción de una red de fibra óptica dedicada es el apoyo clave que permite a Shelby "verse como AWS, pero ser Web3 en su esencia". No solo rompe la oposición natural entre descentralización y rendimiento, sino que también abre la posibilidad real de implementación para aplicaciones Web3 en aspectos como la lectura de alta frecuencia, la programación de alto ancho de banda y el acceso de bajo costo en los bordes.
Además, en la persistencia de datos y el costo, Shelby utiliza el Esquema de Codificación Eficiente construido con Clay Codes, logrando una redundancia de almacenamiento de hasta <2 x a través de la estructura de codificación óptima MSR y MDS matemáticamente, mientras mantiene una persistencia de 11 nueves y una disponibilidad del 99.9%. En un momento en que la mayoría de los protocolos de almacenamiento Web3 todavía se encuentran en tasas de redundancia de 5 x a 15 x, Shelby no solo es técnicamente más eficiente, sino que también es más competitivo en costos. Esto también significa que, para los desarrolladores de dApp que realmente valoran la optimización de costos y la programación de recursos, Shelby ofrece una opción real "barata y rápida".
Resumen
A lo largo de la evolución de Filecoin, Arweave, Walrus hasta Shelby, podemos ver claramente: la narrativa del almacenamiento descentralizado ha pasado de una utopía tecnológica de "la existencia justifica la razón" a una línea de realismo de "la utilidad es justicia". Filecoin, en sus inicios, impulsó la participación de hardware mediante incentivos económicos, pero la demanda real de los usuarios ha estado marginada durante mucho tiempo; Arweave optó por un almacenamiento permanente extremo, pero en la quietud de su ecosistema de aplicaciones se volvió cada vez más aislado; Walrus intenta encontrar un nuevo equilibrio entre costo y rendimiento, pero aún queda la duda sobre la construcción de escenarios de implementación y mecanismos de incentivos. Hasta que apareció Shelby, el almacenamiento descentralizado no había respondido de manera sistemática a la "utilidad a nivel Web2" — desde la red de fibra óptica dedicada en la capa de transmisión, hasta el diseño eficiente de códigos de corrección de errores en la capa de cálculo, y hasta el mecanismo de incentivos de pago por lectura, estas capacidades, que originalmente pertenecían a plataformas de nube centralizadas, comenzaron a reconfigurarse en el mundo Web3.
La aparición de Shelby no significa el final de los problemas. Tampoco ha resuelto todos los desafíos: la ecología de desarrolladores, la gestión de permisos, el acceso de terminales y otros problemas aún están por delante. Pero su significado radica en que ha abierto un posible camino de "rendimiento sin compromisos" para la industria del almacenamiento descentralizado, rompiendo el dilema binario de "o resistente a la censura, o fácil de usar".
El camino hacia la popularización del almacenamiento descentralizado no se sostendrá únicamente por la efervescencia de conceptos o la especulación de tokens, sino que debe avanzar hacia una etapa impulsada por aplicaciones "utilizables, integrables y sostenibles". En esta etapa, quien pueda resolver primero los verdaderos puntos de dolor de los usuarios, será quien reconfigure la narrativa de la próxima ronda de infraestructuras. Desde la lógica de las monedas minadas hasta la lógica de uso, el avance de Shelby puede marcar el final de una era, pero también el comienzo de otra.
Acerca de Movemaker
Movemaker es la primera organización oficial de la comunidad, autorizada por la Fundación Aptos y cofundada por Ankaa y BlockBooster, centrada en promover la construcción y el desarrollo del ecosistema de Aptos en la región de habla china. Como representante oficial de Aptos en la región de habla china, Movemaker se compromete a crear un ecosistema de Aptos diverso, abierto y próspero, conectando desarrolladores, usuarios, capital y numerosos socios ecológicos.
Descargo de responsabilidad:
Este artículo/blog es solo para referencia y representa la opinión personal del autor, y no representa la posición de Movemaker. Este artículo no tiene la intención de proporcionar: (i) asesoramiento de inversión o recomendaciones de inversión; (ii) ofertas o solicitudes para comprar, vender o mantener activos digitales; o (iii) asesoramiento financiero, contable, legal o fiscal. Mantener activos digitales, incluidos stablecoins y NFT, conlleva un alto riesgo, con grandes fluctuaciones de precios y puede llegar a no valer nada. Debe considerar cuidadosamente si operar o mantener activos digitales es adecuado para usted, según su situación financiera. Si tiene preguntas sobre circunstancias específicas, consulte a su asesor legal, fiscal o de inversiones. La información proporcionada en este artículo (incluidos datos de mercado y estadísticas, si las hay) es solo para referencia general. Se ha tomado un cuidado razonable al redactar estos datos y gráficos, pero no se asume ninguna responsabilidad por errores fácticos u omisiones en ellos.