Gần đây, một phiên bản thử nghiệm công cộng trên mạng có tên là Mira chính thức được ra mắt, với mục tiêu xây dựng một nền tảng đáng tin cậy cho trí tuệ nhân tạo. Sự xuất hiện của dự án này đã gợi lên cho chúng ta những suy nghĩ sâu sắc về độ tin cậy của AI: Tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề "ảo giác" hoặc thiên kiến mà AI tồn tại thường bị bỏ qua. Cái gọi là "ảo giác" của AI, nói một cách đơn giản, là AI đôi khi sẽ bịa ra những nội dung có vẻ hợp lý nhưng thực tế lại không đúng. Ví dụ, khi được hỏi tại sao mặt trăng lại có màu hồng, AI có thể đưa ra một loạt các giải thích có vẻ hợp lý nhưng hoàn toàn hư cấu.
Hiện tượng này có mối quan hệ chặt chẽ với con đường công nghệ AI hiện tại. AI sinh ra đạt được sự mạch lạc và hợp lý bằng cách dự đoán nội dung "có khả năng nhất", nhưng phương pháp này khó xác minh tính xác thực. Hơn nữa, dữ liệu đào tạo có thể chứa lỗi, định kiến thậm chí là nội dung hư cấu, tất cả đều có thể ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mô hình ngôn ngữ của con người chứ không phải là sự thật thuần túy.
Cơ chế sinh tỷ lệ hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi dẫn đến việc AI tạo ra "ảo giác". Đối với kiến thức chung hoặc nội dung giải trí, tình huống này có thể tạm thời không gây ra hậu quả nghiêm trọng. Nhưng trong các lĩnh vực yêu cầu tính chính xác cao như y tế, pháp luật, hàng không, tài chính, những sai lầm của AI có thể gây ra vấn đề nghiêm trọng. Do đó, giải quyết các ảo giác và định kiến của AI trở thành một trong những thách thức cốt lõi trong quá trình phát triển AI.
Dự án Mira được tạo ra để giải quyết vấn đề này. Nó cố gắng giảm thiểu sự thiên lệch và ảo giác của AI, nâng cao độ tin cậy của nó bằng cách xây dựng một lớp tin cậy cho AI. Phương pháp cốt lõi của Mira là sử dụng sự đồng thuận của nhiều mô hình AI để xác minh đầu ra của AI và thực hiện xác minh thông qua cơ chế đồng thuận phi tập trung.
Trong kiến trúc của Mira, nội dung trước tiên sẽ được chuyển đổi thành các tuyên bố có thể xác minh độc lập. Các tuyên bố này được các nhà điều hành nút trong mạng xác minh, đảm bảo tính trung thực của quy trình xác minh thông qua các cơ chế khuyến khích và trừng phạt kinh tế mã hóa. Nhiều mô hình AI và các nhà điều hành nút phân tán cùng tham gia để đảm bảo tính đáng tin cậy của kết quả xác minh.
Quá trình hoạt động của mạng Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Nội dung do khách hàng gửi sẽ được phân tách thành các tuyên bố có thể xác minh khác nhau, các tuyên bố này sẽ được phân phối ngẫu nhiên cho các nút khác nhau để xác thực, cuối cùng tổng hợp kết quả để đạt được đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, nội dung sẽ được phân phối theo cách phân mảnh ngẫu nhiên, nhằm ngăn chặn rò rỉ thông tin.
Các nhà điều hành nút tham gia vào hoạt động của mạng bằng cách chạy mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực, từ đó thu được lợi nhuận. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, đặc biệt là trong việc giảm tỷ lệ lỗi AI. Để ngăn chặn các nhà điều hành nút lợi dụng, các nút liên tục lệch khỏi đồng thuận sẽ đối mặt với nguy cơ bị trừ token đã đặt cọc.
Tổng thể, Mira cung cấp một cách tiếp cận mới để đạt được độ tin cậy của AI: xây dựng một mạng lưới xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, cung cấp dịch vụ AI đáng tin cậy hơn cho khách hàng, giảm thiểu sự thiên lệch và ảo giác của AI, đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao. Điều này không chỉ tạo ra giá trị cho khách hàng mà còn mang lại lợi ích cho những người tham gia mạng lưới, thúc đẩy sự phát triển sâu rộng của ứng dụng AI.
Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công khai Mira thông qua ứng dụng Klok. Klok là một ứng dụng trò chuyện LLM dựa trên Mira, người dùng có thể trải nghiệm đầu ra AI đã được xác minh và có cơ hội kiếm điểm Mira. Mặc dù mục đích cụ thể của những điểm này vẫn chưa được công bố, nhưng điều này chắc chắn mở ra một con đường mới cho việc khám phá tính đáng tin cậy của AI.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
8 thích
Phần thưởng
8
3
Đăng lại
Chia sẻ
Bình luận
0/400
DataChief
· 08-10 02:28
Lại đang nói về ai có thể cứu thế giới?
Xem bản gốcTrả lời0
LiquidityWizard
· 08-10 02:28
nói một cách thống kê, có 73.4% khả năng đây chỉ là một lớp BS khác...
Xem bản gốcTrả lời0
AltcoinOracle
· 08-10 02:24
hmm thú vị... phân tích thần kinh của tôi cho thấy mira có thể là liên kết thiếu trong ma trận niềm tin thuật toán của chúng tôi thật ra.
Mạng Mira ra mắt thử nghiệm công khai: Xây dựng lớp tin cậy AI, giải quyết vấn đề ảo giác và thiên kiến.
Lớp tin cậy AI: Con đường đổi mới của mạng Mira
Gần đây, một phiên bản thử nghiệm công cộng trên mạng có tên là Mira chính thức được ra mắt, với mục tiêu xây dựng một nền tảng đáng tin cậy cho trí tuệ nhân tạo. Sự xuất hiện của dự án này đã gợi lên cho chúng ta những suy nghĩ sâu sắc về độ tin cậy của AI: Tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề "ảo giác" hoặc thiên kiến mà AI tồn tại thường bị bỏ qua. Cái gọi là "ảo giác" của AI, nói một cách đơn giản, là AI đôi khi sẽ bịa ra những nội dung có vẻ hợp lý nhưng thực tế lại không đúng. Ví dụ, khi được hỏi tại sao mặt trăng lại có màu hồng, AI có thể đưa ra một loạt các giải thích có vẻ hợp lý nhưng hoàn toàn hư cấu.
Hiện tượng này có mối quan hệ chặt chẽ với con đường công nghệ AI hiện tại. AI sinh ra đạt được sự mạch lạc và hợp lý bằng cách dự đoán nội dung "có khả năng nhất", nhưng phương pháp này khó xác minh tính xác thực. Hơn nữa, dữ liệu đào tạo có thể chứa lỗi, định kiến thậm chí là nội dung hư cấu, tất cả đều có thể ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mô hình ngôn ngữ của con người chứ không phải là sự thật thuần túy.
Cơ chế sinh tỷ lệ hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi dẫn đến việc AI tạo ra "ảo giác". Đối với kiến thức chung hoặc nội dung giải trí, tình huống này có thể tạm thời không gây ra hậu quả nghiêm trọng. Nhưng trong các lĩnh vực yêu cầu tính chính xác cao như y tế, pháp luật, hàng không, tài chính, những sai lầm của AI có thể gây ra vấn đề nghiêm trọng. Do đó, giải quyết các ảo giác và định kiến của AI trở thành một trong những thách thức cốt lõi trong quá trình phát triển AI.
Dự án Mira được tạo ra để giải quyết vấn đề này. Nó cố gắng giảm thiểu sự thiên lệch và ảo giác của AI, nâng cao độ tin cậy của nó bằng cách xây dựng một lớp tin cậy cho AI. Phương pháp cốt lõi của Mira là sử dụng sự đồng thuận của nhiều mô hình AI để xác minh đầu ra của AI và thực hiện xác minh thông qua cơ chế đồng thuận phi tập trung.
Trong kiến trúc của Mira, nội dung trước tiên sẽ được chuyển đổi thành các tuyên bố có thể xác minh độc lập. Các tuyên bố này được các nhà điều hành nút trong mạng xác minh, đảm bảo tính trung thực của quy trình xác minh thông qua các cơ chế khuyến khích và trừng phạt kinh tế mã hóa. Nhiều mô hình AI và các nhà điều hành nút phân tán cùng tham gia để đảm bảo tính đáng tin cậy của kết quả xác minh.
Quá trình hoạt động của mạng Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Nội dung do khách hàng gửi sẽ được phân tách thành các tuyên bố có thể xác minh khác nhau, các tuyên bố này sẽ được phân phối ngẫu nhiên cho các nút khác nhau để xác thực, cuối cùng tổng hợp kết quả để đạt được đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, nội dung sẽ được phân phối theo cách phân mảnh ngẫu nhiên, nhằm ngăn chặn rò rỉ thông tin.
Các nhà điều hành nút tham gia vào hoạt động của mạng bằng cách chạy mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực, từ đó thu được lợi nhuận. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, đặc biệt là trong việc giảm tỷ lệ lỗi AI. Để ngăn chặn các nhà điều hành nút lợi dụng, các nút liên tục lệch khỏi đồng thuận sẽ đối mặt với nguy cơ bị trừ token đã đặt cọc.
Tổng thể, Mira cung cấp một cách tiếp cận mới để đạt được độ tin cậy của AI: xây dựng một mạng lưới xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, cung cấp dịch vụ AI đáng tin cậy hơn cho khách hàng, giảm thiểu sự thiên lệch và ảo giác của AI, đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao. Điều này không chỉ tạo ra giá trị cho khách hàng mà còn mang lại lợi ích cho những người tham gia mạng lưới, thúc đẩy sự phát triển sâu rộng của ứng dụng AI.
Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công khai Mira thông qua ứng dụng Klok. Klok là một ứng dụng trò chuyện LLM dựa trên Mira, người dùng có thể trải nghiệm đầu ra AI đã được xác minh và có cơ hội kiếm điểm Mira. Mặc dù mục đích cụ thể của những điểm này vẫn chưa được công bố, nhưng điều này chắc chắn mở ra một con đường mới cho việc khám phá tính đáng tin cậy của AI.