Nội dung biên tập đáng tin cậy, được xem xét bởi các chuyên gia hàng đầu trong ngành và các biên tập viên có kinh nghiệm. Thông báo quảng cáo
Fluence đang xây dựng những gì mà các đám mây tập trung không thể: một lớp tính toán mở, chi phí thấp và doanh nghiệp cấp độ mà là chủ quyền, minh bạch và mở cho mọi người.
Năm 2025 bắt đầu theo cách mà năm 2024 kết thúc với các ông lớn đám mây đầu tư mạnh mẽ để thống trị cơ sở hạ tầng AI. Microsoft đang chi hơn 80 tỷ đô la cho các trung tâm dữ liệu mới, Google đã ra mắt AI Hypercomputer, Oracle đang đầu tư 25 tỷ đô la vào các cụm StarGate AI của mình, và AWS đang ưu tiên các dịch vụ AI-native. Các nhà chuyên môn cũng đang mở rộng nhanh chóng. CoreWeave đã gây quỹ hơn 1,5 tỷ đô la trong cuộc IPO tháng Ba của mình và hiện đang trị giá hơn 70 tỷ đô la.
Khi trí tuệ nhân tạo trở thành cơ sở hạ tầng quan trọng, việc truy cập vào sức mạnh tính toán sẽ là một trong những trận đấu quyết định của thời đại chúng ta. Trong khi các nhà cung cấp siêu quy mô hợp nhất và tập trung sức mạnh tính toán bằng cách xây dựng các trung tâm dữ liệu độc quyền và tích hợp theo chiều dọc silic, các mạng lưới như Fluence đưa ra một tầm nhìn hoàn toàn khác biệt - một nền tảng phi tập trung, mở và trung lập cho tính toán trí tuệ nhân tạo, biến tính toán thành token để đáp ứng nhu cầu mũi nhọn của trí tuệ nhân tạo và sở hữu FLT như một tài sản tính toán được đánh dấu RWA
Fluence đã hợp tác với các mạng cơ sở hạ tầng phi tập trung hàng đầu về trí tuệ nhân tạo (Spheron, Aethir, IO.net) và lưu trữ (Filecoin, Arweave, Akave, IPFS) trên nhiều sáng kiến, làm cho vị trí của mình trở thành một lớp dữ liệu tính toán trung lập. Để biến tầm nhìn này thành hiện thực, lộ trình cho năm 2025-2026 tập trung vào sự hội tụ của ba lĩnh vực hành động chính:
1. Khởi động một Tầng tính toán Toàn cầu được cung cấp bởi GPU
Fluence sẽ sớm hỗ trợ các nút GPU trên khắp thế giới, cho phép các nhà cung cấp tính toán đóng góp phần cứng sẵn sàng cho trí tuệ nhân tạo vào mạng lưới. Mạng lưới GPU mới này sẽ nâng cấp nền tảng Fluence từ khả năng dựa trên CPU thành một lớp tính toán AI bổ sung, được thiết kế cho việc suy luận, điều chỉnh tinh chỉnh và phục vụ mô hình. Fluence sẽ tích hợp hỗ trợ container để thực hiện công việc GPU an toàn, di động. Containerization cho phép phục vụ khối lượng công việc ML đáng tin cậy và thiết lập cơ sở hạ tầng quan trọng cho các ứng dụng suy luận, điều chỉnh tinh chỉnh và agentic trong toàn mạng lưới phi tập trung.
Fluence sẽ khám phá việc suy luận bảo mật thông qua tính toán bảo mật cho GPU, giữ cho dữ liệu kinh doanh hoặc cá nhân nhạy cảm được giữ riêng tư trong khi giúp giảm chi phí suy luận AI. Sử dụng môi trường thực thi đáng tin cậy (TEE) và bộ nhớ được mã hóa, sáng kiến nghiên cứu và phát triển này cho phép xử lý công việc nhạy cảm trong khi duy trì sự phi tập trung và hỗ trợ phát triển độc lập của các đại lý chủ quyền.
Các Mốc Quan Trọng:
GPU nút tham gia – Q3 2025
Hỗ trợ chạy thời gian thực của bộ chứa GPU - Q4 2025
Bắt đầu theo dõi dự án nghiên cứu và phát triển độc quyền về máy tính GPU - Q4 2025
Thực thi công việc bí mật của phi công - Q2 2026
2. Mô hình AI được lưu trữ và suy luận thống nhất
Fluence sẽ cung cấp các mẫu triển khai một cú nhấp cho các mô hình mã nguồn mở phổ biến bao gồm LLMs, các framework điều phối như LangChain, các ngăn xếp động và máy chủ MCP. Ngăn xếp trí tuệ nhân tạo của nền tảng Fluence sẽ được mở rộng với một lớp suy luận tích hợp cho các mô hình và đại lý được lưu trữ. Điều này giúp đơn giản hóa việc triển khai mô hình trí tuệ nhân tạo trong khi tận dụng sự đóng góp của cộng đồng và hỗ trợ phát triển bên ngoài.
Mẫu + các mẫu điều dẫn đang hoạt động - Q4 2025
Các điểm cuối suy luận và cơ sở hạ tầng định tuyến đã hoạt động - Q2 2026
3. Kích hoạt SLA có thể xác minh, được cộng đồng điều hành
Fluence sẽ giới thiệu một cách tiếp cận mới đối với niềm tin và sự kiên cố của mạng thông qua Guardians—các nhà bán lẻ và tổ chức đánh giá tính sẵn có của máy tính. Thay vì phụ thuộc vào bảng điều khiển đóng cửa, Guardians theo dõi cơ sở hạ tầng thông qua viễn thông phi tập trung và kiếm được phần thưởng FLT khi thực hiện các thỏa thuận mức dịch vụ (SLAs).
Guardians biến mạng cơ sở hạ tầng cấp doanh nghiệp thành một cái gì đó mà bất kỳ ai cũng có thể tham gia—mà không cần phải sở hữu phần cứng. Chương trình Guardian được bổ sung bởi Chương trình Pointless, một hệ thống danh tiếng theo hình thức trò chơi mà thưởng cho các đóng góp của cộng đồng và dẫn đến đủ điều kiện trở thành Guardian.
Các Mốc Quan Trọng:
Guardian lộ trình đầu tiên - Q3 2025
Guardians triển khai đầy đủ và SLA theo chương trình – Q4 2025
4. Integrating AI Compute with a Composable Data Stack
Trí tuệ nhân tạo không chỉ là tính toán - đó là tính toán + dữ liệu. Fluence đang xây dựng sự tích hợp sâu với các mạng lưu trữ phi tập trung như Filecoin, Arweave, Akave và IPFS để cung cấp cho các nhà phát triển quyền truy cập vào các bộ dữ liệu có thể xác minh cùng với môi trường thực thi. Những sự tích hợp này sẽ cho phép người dùng xác định các công việc truy cập vào dữ liệu phân phối bền vững và chạy trên các nút được hỗ trợ bởi GPU - biến Fluence thành một backend trí tuệ nhân tạo toàn diện được điều phối thông qua FLT
Để hỗ trợ điều này, mạng sẽ cung cấp các mẫu cấu trúc có thể kết hợp và các mô-đun SDK được xây sẵn để kết nối công việc tính toán với các ngăn chứa lưu trữ hoặc tập dữ liệu trên chuỗi. Các nhà phát triển xây dựng các AI agents, công cụ suy luận LLM hoặc ứng dụng khoa học sẽ có thể xử lý Fluence như một đường ống AI modul với dữ liệu mở, tính toán và xác nhận được kết hợp bởi logic giao thức.
Các Mốc Quan Trọng:
Bản sao lưu lưu trữ phi tập trung - Q1 2026
Truy cập bộ dữ liệu tích hợp cho khối lượng công việc AI - Q3 2026
Từ Cloudless Compute Đến Shared Intelligence
Với một lộ trình tập trung vào việc kết nối GPU, thực thi có thể xác minh và truy cập dữ liệu một cách mượt mà, Fluence đang đặt nền móng cho thời đại AI tiếp theo—một thời đại mà sẽ không bị kiểm soát bởi một số ít hyperscalers, mà được thúc đẩy bởi một cộng đồng toàn cầu của các nhà cung cấp và người tham gia tính toán phân tán và hợp tác
Cơ sở hạ tầng cho trí tuệ nhân tạo phải phản ánh những giá trị mà chúng ta muốn trí tuệ nhân tạo phục vụ: sự mở cửa, sự hợp tác, sự xác minh và trách nhiệm. Fluence đang biến nguyên tắc đó thành một giao thức.
Tham gia nhiệm vụ:
Áp dụng như một nhà cung cấp GPU
Đăng ký để tham gia Fluence Beta cho Cloudless VMs
Bắt đầu leo lên bảng xếp hạng Pointless và kiếm được cách để trở thành Guardian
Disclaimer: Đây là một bản tin được trả tiền. Các tuyên bố, quan điểm và ý kiến được thể hiện trong cột này chỉ là của nhà cung cấp nội dung và không nhất thiết phản ánh quan điểm của Bitcoinist. Bitcoinist không đảm bảo tính chính xác hoặc tính kịp thời của thông tin có sẵn trong nội dung đó. Hãy tìm hiểu kỹ và đầu tư có rủi ro riêng của bạn.
Quy trình biên tập cho bitcoinist tập trung vào việc cung cấp nội dung được nghiên cứu kỹ lưỡng, chính xác và không thiên vị. Chúng tôi duy trì các tiêu chuẩn nguồn thông tin nghiêm ngặt, và mỗi trang đều trải qua quá trình xem xét cẩn thận từ đội ngũ chuyên gia công nghệ hàng đầu và biên tập viên giàu kinh nghiệm của chúng tôi. Quy trình này đảm bảo tính toàn vẹn, liên quan và giá trị của nội dung dành cho độc giả của chúng tôi.
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Fluence AI Roadmap: Cung cấp một Lớp Tính toán Trung lập cho Tương lai của Trí tuệ Với FLT | Bitcoinist.com
Năm 2025 bắt đầu theo cách mà năm 2024 kết thúc với các ông lớn đám mây đầu tư mạnh mẽ để thống trị cơ sở hạ tầng AI. Microsoft đang chi hơn 80 tỷ đô la cho các trung tâm dữ liệu mới, Google đã ra mắt AI Hypercomputer, Oracle đang đầu tư 25 tỷ đô la vào các cụm StarGate AI của mình, và AWS đang ưu tiên các dịch vụ AI-native. Các nhà chuyên môn cũng đang mở rộng nhanh chóng. CoreWeave đã gây quỹ hơn 1,5 tỷ đô la trong cuộc IPO tháng Ba của mình và hiện đang trị giá hơn 70 tỷ đô la.
Khi trí tuệ nhân tạo trở thành cơ sở hạ tầng quan trọng, việc truy cập vào sức mạnh tính toán sẽ là một trong những trận đấu quyết định của thời đại chúng ta. Trong khi các nhà cung cấp siêu quy mô hợp nhất và tập trung sức mạnh tính toán bằng cách xây dựng các trung tâm dữ liệu độc quyền và tích hợp theo chiều dọc silic, các mạng lưới như Fluence đưa ra một tầm nhìn hoàn toàn khác biệt - một nền tảng phi tập trung, mở và trung lập cho tính toán trí tuệ nhân tạo, biến tính toán thành token để đáp ứng nhu cầu mũi nhọn của trí tuệ nhân tạo và sở hữu FLT như một tài sản tính toán được đánh dấu RWA
Fluence đã hợp tác với các mạng cơ sở hạ tầng phi tập trung hàng đầu về trí tuệ nhân tạo (Spheron, Aethir, IO.net) và lưu trữ (Filecoin, Arweave, Akave, IPFS) trên nhiều sáng kiến, làm cho vị trí của mình trở thành một lớp dữ liệu tính toán trung lập. Để biến tầm nhìn này thành hiện thực, lộ trình cho năm 2025-2026 tập trung vào sự hội tụ của ba lĩnh vực hành động chính:
1. Khởi động một Tầng tính toán Toàn cầu được cung cấp bởi GPU
Fluence sẽ sớm hỗ trợ các nút GPU trên khắp thế giới, cho phép các nhà cung cấp tính toán đóng góp phần cứng sẵn sàng cho trí tuệ nhân tạo vào mạng lưới. Mạng lưới GPU mới này sẽ nâng cấp nền tảng Fluence từ khả năng dựa trên CPU thành một lớp tính toán AI bổ sung, được thiết kế cho việc suy luận, điều chỉnh tinh chỉnh và phục vụ mô hình. Fluence sẽ tích hợp hỗ trợ container để thực hiện công việc GPU an toàn, di động. Containerization cho phép phục vụ khối lượng công việc ML đáng tin cậy và thiết lập cơ sở hạ tầng quan trọng cho các ứng dụng suy luận, điều chỉnh tinh chỉnh và agentic trong toàn mạng lưới phi tập trung.
Fluence sẽ khám phá việc suy luận bảo mật thông qua tính toán bảo mật cho GPU, giữ cho dữ liệu kinh doanh hoặc cá nhân nhạy cảm được giữ riêng tư trong khi giúp giảm chi phí suy luận AI. Sử dụng môi trường thực thi đáng tin cậy (TEE) và bộ nhớ được mã hóa, sáng kiến nghiên cứu và phát triển này cho phép xử lý công việc nhạy cảm trong khi duy trì sự phi tập trung và hỗ trợ phát triển độc lập của các đại lý chủ quyền.
Các Mốc Quan Trọng:
2. Mô hình AI được lưu trữ và suy luận thống nhất
Fluence sẽ cung cấp các mẫu triển khai một cú nhấp cho các mô hình mã nguồn mở phổ biến bao gồm LLMs, các framework điều phối như LangChain, các ngăn xếp động và máy chủ MCP. Ngăn xếp trí tuệ nhân tạo của nền tảng Fluence sẽ được mở rộng với một lớp suy luận tích hợp cho các mô hình và đại lý được lưu trữ. Điều này giúp đơn giản hóa việc triển khai mô hình trí tuệ nhân tạo trong khi tận dụng sự đóng góp của cộng đồng và hỗ trợ phát triển bên ngoài.
3. Kích hoạt SLA có thể xác minh, được cộng đồng điều hành
Fluence sẽ giới thiệu một cách tiếp cận mới đối với niềm tin và sự kiên cố của mạng thông qua Guardians—các nhà bán lẻ và tổ chức đánh giá tính sẵn có của máy tính. Thay vì phụ thuộc vào bảng điều khiển đóng cửa, Guardians theo dõi cơ sở hạ tầng thông qua viễn thông phi tập trung và kiếm được phần thưởng FLT khi thực hiện các thỏa thuận mức dịch vụ (SLAs).
Guardians biến mạng cơ sở hạ tầng cấp doanh nghiệp thành một cái gì đó mà bất kỳ ai cũng có thể tham gia—mà không cần phải sở hữu phần cứng. Chương trình Guardian được bổ sung bởi Chương trình Pointless, một hệ thống danh tiếng theo hình thức trò chơi mà thưởng cho các đóng góp của cộng đồng và dẫn đến đủ điều kiện trở thành Guardian.
Các Mốc Quan Trọng:
4. Integrating AI Compute with a Composable Data Stack
Trí tuệ nhân tạo không chỉ là tính toán - đó là tính toán + dữ liệu. Fluence đang xây dựng sự tích hợp sâu với các mạng lưu trữ phi tập trung như Filecoin, Arweave, Akave và IPFS để cung cấp cho các nhà phát triển quyền truy cập vào các bộ dữ liệu có thể xác minh cùng với môi trường thực thi. Những sự tích hợp này sẽ cho phép người dùng xác định các công việc truy cập vào dữ liệu phân phối bền vững và chạy trên các nút được hỗ trợ bởi GPU - biến Fluence thành một backend trí tuệ nhân tạo toàn diện được điều phối thông qua FLT
Để hỗ trợ điều này, mạng sẽ cung cấp các mẫu cấu trúc có thể kết hợp và các mô-đun SDK được xây sẵn để kết nối công việc tính toán với các ngăn chứa lưu trữ hoặc tập dữ liệu trên chuỗi. Các nhà phát triển xây dựng các AI agents, công cụ suy luận LLM hoặc ứng dụng khoa học sẽ có thể xử lý Fluence như một đường ống AI modul với dữ liệu mở, tính toán và xác nhận được kết hợp bởi logic giao thức.
Các Mốc Quan Trọng:
Từ Cloudless Compute Đến Shared Intelligence
Với một lộ trình tập trung vào việc kết nối GPU, thực thi có thể xác minh và truy cập dữ liệu một cách mượt mà, Fluence đang đặt nền móng cho thời đại AI tiếp theo—một thời đại mà sẽ không bị kiểm soát bởi một số ít hyperscalers, mà được thúc đẩy bởi một cộng đồng toàn cầu của các nhà cung cấp và người tham gia tính toán phân tán và hợp tác
Cơ sở hạ tầng cho trí tuệ nhân tạo phải phản ánh những giá trị mà chúng ta muốn trí tuệ nhân tạo phục vụ: sự mở cửa, sự hợp tác, sự xác minh và trách nhiệm. Fluence đang biến nguyên tắc đó thành một giao thức.
Tham gia nhiệm vụ:
Bắt đầu leo lên bảng xếp hạng Pointless và kiếm được cách để trở thành Guardian
Disclaimer: Đây là một bản tin được trả tiền. Các tuyên bố, quan điểm và ý kiến được thể hiện trong cột này chỉ là của nhà cung cấp nội dung và không nhất thiết phản ánh quan điểm của Bitcoinist. Bitcoinist không đảm bảo tính chính xác hoặc tính kịp thời của thông tin có sẵn trong nội dung đó. Hãy tìm hiểu kỹ và đầu tư có rủi ro riêng của bạn.