Mira ağı açık testine başladı: AI güven katmanı inşa etmek, yanılsama ve önyargı sorunlarını çözmek

robot
Abstract generation in progress

AI Güven Katmanı: Mira Ağı'nın Yenilikçi Yolu

Son günlerde, Mira adı verilen bir ağ kamu test sürümü resmi olarak çevrimiçi oldu ve amacı yapay zeka için güvenilir bir temel oluşturmaktır. Bu projenin ortaya çıkışı, AI'nın güvenilirliği üzerine derin düşüncelere yol açtı: AI'ya neden güvenilmesi gerekiyor? Mira bu sorunu nasıl çözüyor?

AI tartışılırken, insanlar genellikle onun güçlü yeteneklerine daha fazla odaklanır. Ancak, AI'nın "halüsinasyon" veya önyargı sorunları sıklıkla göz ardı edilir. AI'nın "halüsinasyonu" dediğimizde, basitçe söylemek gerekirse, AI'nın bazen makul görünebilecek ama gerçekte var olmayan içerikler uydurmasıdır. Örneğin, Ay'ın neden pembe olduğu sorulduğunda, AI, tamamen kurgusal ama görünüşte makul bir dizi açıklama verebilir.

Bu fenomen, mevcut AI teknolojisi ile yakından ilişkilidir. Üretken AI, "en olası" içeriği tahmin ederek tutarlılık ve mantıklılık sağlarken, bu yöntemlerin doğruluğunu doğrulamak zordur. Ayrıca, eğitim verileri hata, önyargı veya hatta kurgusal içerik içerebilir ve bunlar AI'nın çıktı kalitesini etkileyebilir. Başka bir deyişle, AI insan dil kalıplarını öğreniyor, saf gerçekleri değil.

Mevcut olasılık üretim mekanizması ve veri odaklı model, AI'nin "hayal görmesine" neredeyse kaçınılmaz olarak yol açmaktadır. Genel bilgi veya eğlence içeriği için bu durum geçici olarak ciddi sonuçlar doğurmayabilir. Ancak, tıp, hukuk, havacılık, finans gibi yüksek titizlik gerektiren alanlarda, AI'nin hataları önemli sorunlara yol açabilir. Bu nedenle, AI'nin hayal görmesi ve önyargılarıyla başa çıkmak, AI gelişim sürecindeki temel zorluklardan biri haline gelmiştir.

Mira projesi, bu sorunu çözmek için doğmuştur. AI'nın önyargılarını ve yanılsamalarını azaltarak güvenilirliğini artırmayı hedefler. Mira'nın temel yaklaşımı, birden fazla AI modelinin konsensüsünü kullanarak AI çıktısını doğrulamak ve merkeziyetsiz konsensüs mekanizması ile bu doğrulamayı gerçekleştirmektir.

Mira'nın mimarisinde, içerik önce bağımsız olarak doğrulanabilir beyanlara dönüştürülür. Bu beyanlar, ağdaki düğüm operatörleri tarafından doğrulanır ve doğrulama sürecinin dürüstlüğünü sağlamak için kriptografik ekonomik teşvikler ve ceza mekanizmaları ile desteklenir. Birden fazla AI modeli ve dağınık düğüm operatörleri, doğrulama sonuçlarının güvenilirliğini sağlamak için birlikte çalışır.

Mira ağının çalışma süreci, içerik dönüşümü, dağıtık doğrulama ve konsensüs mekanizmasını içerir. Müşterilerin sunduğu içerik, farklı doğrulanabilir beyanlara ayrılır; bu beyanlar rastgele olarak farklı düğümlere doğrulama için dağıtılır ve sonuçlar nihayetinde konsensüs sağlamak için bir araya getirilir. Müşteri gizliliğini korumak için, içerik rastgele parçalar halinde dağıtılır ve bilgi sızıntısını önler.

Düğüm operatörleri, doğrulayıcı modelini çalıştırarak, beyanları işleyerek ve doğrulama sonuçlarını göndererek ağın işleyişine katılırlar ve buradan gelir elde ederler. Bu gelir, özellikle AI hata oranını azaltma konusunda müşterilere sağladıkları değerlerden gelmektedir. Düğüm operatörlerinin fırsatçılık yapmalarını önlemek için, sürekli olarak konsensustan sapan düğümler, stake edilen tokenlerin azaltılma riski ile karşı karşıya kalacaktır.

Genel olarak, Mira, AI'nın güvenilirliğini sağlamak için yeni bir yaklaşım sunuyor: çoklu AI modelleri temelinde merkeziyetsiz bir konsensüs doğrulama ağı inşa ederek, müşterilere daha güvenilir AI hizmetleri sunmak, AI önyargılarını ve yanılsamaları azaltmak, yüksek doğruluk ve hassasiyet ihtiyaçlarını karşılamak. Bu, yalnızca müşterilere değer yaratmakla kalmaz, aynı zamanda ağ katılımcılarına da kazanç sağlar ve AI uygulamalarının derinlemesine gelişimini teşvik eder.

Şu anda, kullanıcılar Klok uygulaması aracılığıyla Mira kamu test ağına katılabiliyor. Klok, kullanıcıların doğrulanmış AI çıktılarını deneyimleyebileceği ve Mira puanları kazanma fırsatına sahip olacağı Mira tabanlı bir LLM sohbet uygulamasıdır. Bu puanların kesin kullanım şekli henüz açıklanmamış olsa da, bu kesinlikle AI'nin güvenilirliğini keşfetmek için yeni bir yol açmaktadır.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 3
  • Repost
  • Share
Comment
0/400
DataChiefvip
· 08-10 02:28
Yine de AI'yi övüyor, dünyayı kurtarabilir mi?
View OriginalReply0
LiquidityWizardvip
· 08-10 02:28
istatistiksel olarak konuşursak, bu sadece başka bir BS katmanı olma olasılığı %73,4...
View OriginalReply0
AltcoinOraclevip
· 08-10 02:24
hmm ilginç... benim sinirsel analizim mira'nın algoritmik güven matrisimizdeki eksik bağlantı olabileceğini öne sürüyor açıkçası
View OriginalReply0
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)