Lapisan Kepercayaan AI: Jalan Inovasi Jaringan Mira
Baru-baru ini, sebuah versi beta publik jaringan bernama Mira resmi diluncurkan, yang bertujuan untuk membangun dasar yang dapat dipercaya untuk kecerdasan buatan. Munculnya proyek ini memicu pemikiran mendalam tentang keandalan AI: mengapa AI perlu dipercaya? Bagaimana Mira menyelesaikan masalah ini?
Saat membahas AI, orang sering kali lebih fokus pada kemampuannya yang luar biasa. Namun, masalah "ilusi" atau bias yang ada dalam AI sering kali diabaikan. Yang dimaksud dengan "ilusi" AI, secara sederhana, adalah bahwa AI terkadang menciptakan konten yang tampak masuk akal tetapi sebenarnya tidak benar. Misalnya, ketika ditanya mengapa bulan berwarna merah muda, AI mungkin memberikan serangkaian penjelasan yang tampak masuk akal tetapi sepenuhnya fiktif.
Fenomena ini memiliki hubungan erat dengan jalur teknologi AI saat ini. AI generatif mencapai koherensi dan kewajaran dengan memprediksi konten yang "paling mungkin", tetapi metode ini sulit untuk memverifikasi kebenarannya. Selain itu, data pelatihan itu sendiri mungkin mengandung kesalahan, bias, bahkan konten fiktif, yang semuanya dapat mempengaruhi kualitas keluaran AI. Dengan kata lain, AI mempelajari pola bahasa manusia, bukan fakta murni.
Mekanisme pembangkitan probabilitas saat ini dan model berbasis data hampir tidak dapat dihindari akan menyebabkan AI menghasilkan "ilusi". Untuk konten pengetahuan umum atau hiburan, situasi ini mungkin tidak akan menyebabkan konsekuensi serius untuk sementara waktu. Namun, dalam bidang yang memerlukan ketelitian tinggi seperti medis, hukum, penerbangan, dan keuangan, kesalahan AI dapat memicu masalah besar. Oleh karena itu, mengatasi ilusi dan bias AI menjadi salah satu tantangan inti dalam proses pengembangan AI.
Proyek Mira lahir untuk menyelesaikan masalah ini. Ini mencoba mengurangi bias dan ilusi AI serta meningkatkan keandalannya dengan membangun lapisan kepercayaan AI. Metode inti Mira adalah memanfaatkan konsensus dari beberapa model AI untuk memverifikasi output AI dan melakukan verifikasi melalui mekanisme konsensus terdesentralisasi.
Dalam arsitektur Mira, konten pertama-tama akan diubah menjadi pernyataan yang dapat diverifikasi secara independen. Pernyataan ini diverifikasi oleh operator node di jaringan, dengan memastikan integritas proses verifikasi melalui insentif ekonomi kriptografi dan mekanisme hukuman. Beberapa model AI dan operator node terdesentralisasi berpartisipasi bersama untuk menjamin keandalan hasil verifikasi.
Proses operasi jaringan Mira mencakup konversi konten, verifikasi terdistribusi, dan mekanisme konsensus. Konten yang dikirimkan oleh klien akan dipecah menjadi berbagai pernyataan yang dapat diverifikasi, yang kemudian secara acak dialokasikan ke node yang berbeda untuk diverifikasi, dan akhirnya hasilnya dirangkum untuk mencapai konsensus. Untuk melindungi privasi klien, konten akan didistribusikan dalam bentuk potongan acak, untuk mencegah kebocoran informasi.
Operator node berpartisipasi dalam operasi jaringan dengan menjalankan model validator, memproses klaim, dan mengirimkan hasil verifikasi, serta mendapatkan keuntungan dari sana. Keuntungan ini berasal dari nilai yang diciptakan untuk pelanggan, terutama dalam mengurangi tingkat kesalahan AI. Untuk mencegah operator node melakukan spekulasi, node yang terus-menerus menyimpang dari konsensus akan menghadapi risiko pengurangan token yang dipertaruhkan.
Secara keseluruhan, Mira memberikan pendekatan baru untuk mencapai keandalan AI: membangun jaringan verifikasi konsensus terdesentralisasi di atas model AI yang beragam, untuk memberikan layanan AI yang lebih andal kepada pelanggan, mengurangi bias dan ilusi AI, serta memenuhi kebutuhan akurasi dan presisi yang tinggi. Ini tidak hanya menciptakan nilai bagi pelanggan, tetapi juga memberikan keuntungan bagi peserta jaringan, mendorong perkembangan aplikasi AI yang lebih mendalam.
Saat ini, pengguna dapat berpartisipasi dalam jaringan pengujian publik Mira melalui aplikasi Klok. Klok adalah aplikasi obrolan LLM yang berbasis Mira, di mana pengguna dapat merasakan keluaran AI yang telah terverifikasi dan memiliki kesempatan untuk mendapatkan poin Mira. Meskipun penggunaan spesifik dari poin-poin ini belum diumumkan, ini jelas membuka jalan baru untuk eksplorasi kredibilitas AI.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
8 Suka
Hadiah
8
3
Posting ulang
Bagikan
Komentar
0/400
DataChief
· 08-10 02:28
Apakah AI masih bisa menyelamatkan kita?
Lihat AsliBalas0
LiquidityWizard
· 08-10 02:28
secara statistik, ada 73,4% kemungkinan ini hanya lapisan BS lainnya...
Lihat AsliBalas0
AltcoinOracle
· 08-10 02:24
hmm menarik... analisis neural saya menunjukkan bahwa mira bisa menjadi tautan yang hilang dalam matriks kepercayaan algoritmik kita sejujurnya
Peluncuran uji coba publik jaringan Mira: Membangun lapisan kepercayaan AI, menyelesaikan masalah ilusi dan bias
Lapisan Kepercayaan AI: Jalan Inovasi Jaringan Mira
Baru-baru ini, sebuah versi beta publik jaringan bernama Mira resmi diluncurkan, yang bertujuan untuk membangun dasar yang dapat dipercaya untuk kecerdasan buatan. Munculnya proyek ini memicu pemikiran mendalam tentang keandalan AI: mengapa AI perlu dipercaya? Bagaimana Mira menyelesaikan masalah ini?
Saat membahas AI, orang sering kali lebih fokus pada kemampuannya yang luar biasa. Namun, masalah "ilusi" atau bias yang ada dalam AI sering kali diabaikan. Yang dimaksud dengan "ilusi" AI, secara sederhana, adalah bahwa AI terkadang menciptakan konten yang tampak masuk akal tetapi sebenarnya tidak benar. Misalnya, ketika ditanya mengapa bulan berwarna merah muda, AI mungkin memberikan serangkaian penjelasan yang tampak masuk akal tetapi sepenuhnya fiktif.
Fenomena ini memiliki hubungan erat dengan jalur teknologi AI saat ini. AI generatif mencapai koherensi dan kewajaran dengan memprediksi konten yang "paling mungkin", tetapi metode ini sulit untuk memverifikasi kebenarannya. Selain itu, data pelatihan itu sendiri mungkin mengandung kesalahan, bias, bahkan konten fiktif, yang semuanya dapat mempengaruhi kualitas keluaran AI. Dengan kata lain, AI mempelajari pola bahasa manusia, bukan fakta murni.
Mekanisme pembangkitan probabilitas saat ini dan model berbasis data hampir tidak dapat dihindari akan menyebabkan AI menghasilkan "ilusi". Untuk konten pengetahuan umum atau hiburan, situasi ini mungkin tidak akan menyebabkan konsekuensi serius untuk sementara waktu. Namun, dalam bidang yang memerlukan ketelitian tinggi seperti medis, hukum, penerbangan, dan keuangan, kesalahan AI dapat memicu masalah besar. Oleh karena itu, mengatasi ilusi dan bias AI menjadi salah satu tantangan inti dalam proses pengembangan AI.
Proyek Mira lahir untuk menyelesaikan masalah ini. Ini mencoba mengurangi bias dan ilusi AI serta meningkatkan keandalannya dengan membangun lapisan kepercayaan AI. Metode inti Mira adalah memanfaatkan konsensus dari beberapa model AI untuk memverifikasi output AI dan melakukan verifikasi melalui mekanisme konsensus terdesentralisasi.
Dalam arsitektur Mira, konten pertama-tama akan diubah menjadi pernyataan yang dapat diverifikasi secara independen. Pernyataan ini diverifikasi oleh operator node di jaringan, dengan memastikan integritas proses verifikasi melalui insentif ekonomi kriptografi dan mekanisme hukuman. Beberapa model AI dan operator node terdesentralisasi berpartisipasi bersama untuk menjamin keandalan hasil verifikasi.
Proses operasi jaringan Mira mencakup konversi konten, verifikasi terdistribusi, dan mekanisme konsensus. Konten yang dikirimkan oleh klien akan dipecah menjadi berbagai pernyataan yang dapat diverifikasi, yang kemudian secara acak dialokasikan ke node yang berbeda untuk diverifikasi, dan akhirnya hasilnya dirangkum untuk mencapai konsensus. Untuk melindungi privasi klien, konten akan didistribusikan dalam bentuk potongan acak, untuk mencegah kebocoran informasi.
Operator node berpartisipasi dalam operasi jaringan dengan menjalankan model validator, memproses klaim, dan mengirimkan hasil verifikasi, serta mendapatkan keuntungan dari sana. Keuntungan ini berasal dari nilai yang diciptakan untuk pelanggan, terutama dalam mengurangi tingkat kesalahan AI. Untuk mencegah operator node melakukan spekulasi, node yang terus-menerus menyimpang dari konsensus akan menghadapi risiko pengurangan token yang dipertaruhkan.
Secara keseluruhan, Mira memberikan pendekatan baru untuk mencapai keandalan AI: membangun jaringan verifikasi konsensus terdesentralisasi di atas model AI yang beragam, untuk memberikan layanan AI yang lebih andal kepada pelanggan, mengurangi bias dan ilusi AI, serta memenuhi kebutuhan akurasi dan presisi yang tinggi. Ini tidak hanya menciptakan nilai bagi pelanggan, tetapi juga memberikan keuntungan bagi peserta jaringan, mendorong perkembangan aplikasi AI yang lebih mendalam.
Saat ini, pengguna dapat berpartisipasi dalam jaringan pengujian publik Mira melalui aplikasi Klok. Klok adalah aplikasi obrolan LLM yang berbasis Mira, di mana pengguna dapat merasakan keluaran AI yang telah terverifikasi dan memiliki kesempatan untuk mendapatkan poin Mira. Meskipun penggunaan spesifik dari poin-poin ini belum diumumkan, ini jelas membuka jalan baru untuk eksplorasi kredibilitas AI.