AI gizlilik çöküşü "ChatGPT konuşması" yasal açıdan çıplak kalıyor; Altman: Kişisel verileri girmekten korkuyorum, verilerin kimler tarafından alınacağını bilmek zor.
OpenAI CEO'su Sam Altman, ChatGPT ile yapılan görüşmelerin yasal ayrıcalıklarla korunmadığı ve davalarda kanıt haline gelebileceği konusunda uyararak yapay zeka gizlilik boşlukları ve gözetimin genişlemesi hakkında endişeleri artırıyor. (Özet: Sam Altman, yapay zekanın geleceğine acemi babalardan bakıyor: insansı robotlar geliyor, hazır mısınız?) (Arka plan eki: Yapay zeka davayı bozabilir mi? Hiçbir avukat kadın, 5 milyon miras dolandırıcılığını ortaya çıkarmak, mahkemeyi soruşturmayı yeniden başlatmaya ikna etmek için ChatGPT'ye güvenmiyor Yapay zeka günlük hayata sorunsuz bir şekilde entegre oldu, ancak kolaylıkla gelen gizli endişeler ön plana çıkıyor: Bugün ChatGPT'ye bir kelime yazan herkes yarın mahkemeye çıkabilir. OpenAI CEO'su Sam Altman kısa süre önce podcast sunucusu Theo Von ile yaptığı bir konuşmada şu uyarıda bulundu: "ChatGPT ile en hassas içeriği paylaştığınızda, bir dava durumunda bunu sağlamamız istenebilir. Şu anda bir terapist, avukat veya doktorla konuşurken yasal ayrıcalık koruması var, ancak ChatGPT ile görüşmeler için böyle bir mekanizma kurmadık." Bir cümle, uzun zamandır göz ardı edilen bir boşluğu ortaya koyuyor. Tıbbi kayıtlar, avukatların görüşmeleri ve dini itirafların tümü yasalar veya etik kodlarla korunmaktadır ve yargı erişiminin yüksek eşikleri aşması gerekir; Sohbet robotları bu güvenlik duvarına sahip değildir ve kullanıcının modelle etkileşiminin metni yasal olarak muaf değildir ve hizmet sağlayıcı, mahkeme celbi tebliğ edildiği sürece dosyayı teslim etmek zorundadır. Politika ve Dava Arasındaki Çatışma OpenAI'nin resmi web sitesindeki gizlilik politikası, verilerin aktarım sırasında şifrelendiğini belirtse de, uçtan uca şifreleme sağlamaz. Belgede ayrıca Kullanıcı İçeriğinin "üçüncü taraflarla paylaşılabileceği" belirtiliyor. İş operasyonlarında yaygın olan bu tür bir esneklik, son zamanlarda çelişkinin zirvesine itildi. New York Times telif hakkı davasında, mahkemenin OpenAI'nin ilgili tüm kullanıcı verilerini saklamasını gerektiren kararı, şirketin reklamı yapılan "koleksiyonu sil veya en aza indir" ifadesiyle doğrudan çakıştı ve mevcut yasal çerçevede yapay zeka hizmetlerinin ayrıntılı sınıflandırmasının eksikliğini tam olarak gösterdi. Yapay zeka modeli eğitimi büyük bir külliyat gerektirdiğinde, işletmeler algoritmaları optimize etmek için metni uzun süre kaydetme eğilimindedir; Resmi bir belge yargı yetkisine girdiğinde, kullanıcı silme hakkını kaybeder. Hukuk ve teknolojinin ritmi senkronize değil ve çatışmayı kaçınılmaz kılıyor. Altman şunları söyledi: "Bu muhtemelen bazen belirli AI teknolojilerini kullanmaktan korkmamın nedenlerinden biri, çünkü ne kadar kişisel bilgi girmek istediğimi bilmiyorum çünkü bu bilgilere kimin sahip olacağını bilmiyorum. Kurumsal izleme olanakları Şirketlerin kişisel bilgilere sahip olduktan sonra izleme sorunları yaşayabilecekleri soyut bir korku değildir. Sohbetler büyük ölçekte aranabilir hale geldiğinde, hükümetler ve işletmeler gerçek zamanlı konuşmaları risk değerlendirmelerine veya davranışsal tahminlere dönüştürmek için bir teşvike sahip olurlar. Avukatlar, doktorlar, psikologlar ve diğer profesyoneller için, müvekkil veya hasta sorularını yanıtlamak için ChatGPT'yi kullanmak, görünüşte zaman kazandırmak meslek etiğini ihlal edebilir. Hizmet sağlayıcının yüklenen metni analiz etme hakkı olduğundan, müşteri sırlarını üçüncü şahıslara ifşa etmekle eşdeğerdir. Altman ayrıca şunları söyledi: "Dünyada ne kadar çok yapay zeka varsa, gözetimin o kadar yaygın olacağından endişeleniyorum. Tarih, hükümetlerin bu konuda çok ileri gitme eğiliminde olduğunu defalarca kanıtladı ve bu beni gerçekten rahatsız ediyor." Geleneksel avukat-müvekkil ayrıcalığı, bilgilerin yalnızca taraflar arasında dolaşmasını gerektirir; Yapay zekanın tanıtılması, fazladan bir çift görünmez göze eşdeğerdir ve aynı düzeyde koruma sağlamak için hazır bir hüküm yoktur. Sözleşmelerini ve iş akışlarını güncellemeyen profesyonellerin bilmeden yasaları çiğnemesi muhtemeldir. Daha güvenli bir yapay zeka ekosisteminin aynı anda üç eksene doğru ilerlemesi gerekiyor. İlk olarak, yasama organı, belirli sohbetleri şifreleyen ve bunları adli adli tıbbın yüksek eşiğine dahil eden açık "dijital yasal ayrıcalık" kuralları formüle etmelidir. Buna ek olarak, şirketler uçtan uca şifrelemeyi, minimum depolamayı ve müşteri özerkliğini, olaydan sonra boşlukları doldurmak yerine ürün tasarımına entegre etmelidir. En önemli şey ve yapabileceğimiz şey, kullanıcıların son derece hassas bilgileri genel sorgulardan ayırmak için inisiyatif almaları ve gerektiğinde geleneksel güvenli kanallara geçmeleri gerektiğidir. Yapay zekanın verimliliği, gizlilik pahasına olmamalıdır. İletişim kutuları klavyelerin ve telefonların yerini alırken, ihtiyaç duyulan şey sessizlik değil, doğrulanabilir yasal güvenceler ve teknik korkuluklardır. Altman'ın hatırlatması hoş olmayabilir, ancak bir ayna sunuyor: inovasyonun hızı ile kurumsal onarım arasındaki genişleyen uçurumun bir yansıması. Boşlukları doldurmak, yapay zekanın topluma gerçekten fayda sağlamasını sağlamanın tek yoludur. İlgili raporlar RobotFi'yi hayal edin: Robotlar da zincirde, hangi yeni oynanışı getirecekler? Vitalik'in botu "miyav" hararetli tartışmalara neden oldu, Ethereum topluluğu: tüm param kedi havlamasını öğrenen insanlara basılıyor Bilgi işlem gücü kraldır! Huang Jenxun, yapay zekanın küresel değer zincirlerini nasıl yeniden yapılandıracağı, robotların yaygınlaşacağı ve yapay zekanın üretimin Amerika Birleşik Devletleri'ne dönüşünü hızlandıracağı zaman mı? "Yapay zeka gizliliğinin çöküşü" ChatGPT sohbeti" yasaların önünde çıplak; Altman: Kişisel bilgileri girmeye korkuyorum, bilgiyi kimin alacağını bilmek zor" Bu makale ilk olarak BlockTempo'nun "Dinamik Trend - En Etkili Blockchain Haber Medyası" nda yayınlanmıştır.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI gizlilik çöküşü "ChatGPT konuşması" yasal açıdan çıplak kalıyor; Altman: Kişisel verileri girmekten korkuyorum, verilerin kimler tarafından alınacağını bilmek zor.
OpenAI CEO'su Sam Altman, ChatGPT ile yapılan görüşmelerin yasal ayrıcalıklarla korunmadığı ve davalarda kanıt haline gelebileceği konusunda uyararak yapay zeka gizlilik boşlukları ve gözetimin genişlemesi hakkında endişeleri artırıyor. (Özet: Sam Altman, yapay zekanın geleceğine acemi babalardan bakıyor: insansı robotlar geliyor, hazır mısınız?) (Arka plan eki: Yapay zeka davayı bozabilir mi? Hiçbir avukat kadın, 5 milyon miras dolandırıcılığını ortaya çıkarmak, mahkemeyi soruşturmayı yeniden başlatmaya ikna etmek için ChatGPT'ye güvenmiyor Yapay zeka günlük hayata sorunsuz bir şekilde entegre oldu, ancak kolaylıkla gelen gizli endişeler ön plana çıkıyor: Bugün ChatGPT'ye bir kelime yazan herkes yarın mahkemeye çıkabilir. OpenAI CEO'su Sam Altman kısa süre önce podcast sunucusu Theo Von ile yaptığı bir konuşmada şu uyarıda bulundu: "ChatGPT ile en hassas içeriği paylaştığınızda, bir dava durumunda bunu sağlamamız istenebilir. Şu anda bir terapist, avukat veya doktorla konuşurken yasal ayrıcalık koruması var, ancak ChatGPT ile görüşmeler için böyle bir mekanizma kurmadık." Bir cümle, uzun zamandır göz ardı edilen bir boşluğu ortaya koyuyor. Tıbbi kayıtlar, avukatların görüşmeleri ve dini itirafların tümü yasalar veya etik kodlarla korunmaktadır ve yargı erişiminin yüksek eşikleri aşması gerekir; Sohbet robotları bu güvenlik duvarına sahip değildir ve kullanıcının modelle etkileşiminin metni yasal olarak muaf değildir ve hizmet sağlayıcı, mahkeme celbi tebliğ edildiği sürece dosyayı teslim etmek zorundadır. Politika ve Dava Arasındaki Çatışma OpenAI'nin resmi web sitesindeki gizlilik politikası, verilerin aktarım sırasında şifrelendiğini belirtse de, uçtan uca şifreleme sağlamaz. Belgede ayrıca Kullanıcı İçeriğinin "üçüncü taraflarla paylaşılabileceği" belirtiliyor. İş operasyonlarında yaygın olan bu tür bir esneklik, son zamanlarda çelişkinin zirvesine itildi. New York Times telif hakkı davasında, mahkemenin OpenAI'nin ilgili tüm kullanıcı verilerini saklamasını gerektiren kararı, şirketin reklamı yapılan "koleksiyonu sil veya en aza indir" ifadesiyle doğrudan çakıştı ve mevcut yasal çerçevede yapay zeka hizmetlerinin ayrıntılı sınıflandırmasının eksikliğini tam olarak gösterdi. Yapay zeka modeli eğitimi büyük bir külliyat gerektirdiğinde, işletmeler algoritmaları optimize etmek için metni uzun süre kaydetme eğilimindedir; Resmi bir belge yargı yetkisine girdiğinde, kullanıcı silme hakkını kaybeder. Hukuk ve teknolojinin ritmi senkronize değil ve çatışmayı kaçınılmaz kılıyor. Altman şunları söyledi: "Bu muhtemelen bazen belirli AI teknolojilerini kullanmaktan korkmamın nedenlerinden biri, çünkü ne kadar kişisel bilgi girmek istediğimi bilmiyorum çünkü bu bilgilere kimin sahip olacağını bilmiyorum. Kurumsal izleme olanakları Şirketlerin kişisel bilgilere sahip olduktan sonra izleme sorunları yaşayabilecekleri soyut bir korku değildir. Sohbetler büyük ölçekte aranabilir hale geldiğinde, hükümetler ve işletmeler gerçek zamanlı konuşmaları risk değerlendirmelerine veya davranışsal tahminlere dönüştürmek için bir teşvike sahip olurlar. Avukatlar, doktorlar, psikologlar ve diğer profesyoneller için, müvekkil veya hasta sorularını yanıtlamak için ChatGPT'yi kullanmak, görünüşte zaman kazandırmak meslek etiğini ihlal edebilir. Hizmet sağlayıcının yüklenen metni analiz etme hakkı olduğundan, müşteri sırlarını üçüncü şahıslara ifşa etmekle eşdeğerdir. Altman ayrıca şunları söyledi: "Dünyada ne kadar çok yapay zeka varsa, gözetimin o kadar yaygın olacağından endişeleniyorum. Tarih, hükümetlerin bu konuda çok ileri gitme eğiliminde olduğunu defalarca kanıtladı ve bu beni gerçekten rahatsız ediyor." Geleneksel avukat-müvekkil ayrıcalığı, bilgilerin yalnızca taraflar arasında dolaşmasını gerektirir; Yapay zekanın tanıtılması, fazladan bir çift görünmez göze eşdeğerdir ve aynı düzeyde koruma sağlamak için hazır bir hüküm yoktur. Sözleşmelerini ve iş akışlarını güncellemeyen profesyonellerin bilmeden yasaları çiğnemesi muhtemeldir. Daha güvenli bir yapay zeka ekosisteminin aynı anda üç eksene doğru ilerlemesi gerekiyor. İlk olarak, yasama organı, belirli sohbetleri şifreleyen ve bunları adli adli tıbbın yüksek eşiğine dahil eden açık "dijital yasal ayrıcalık" kuralları formüle etmelidir. Buna ek olarak, şirketler uçtan uca şifrelemeyi, minimum depolamayı ve müşteri özerkliğini, olaydan sonra boşlukları doldurmak yerine ürün tasarımına entegre etmelidir. En önemli şey ve yapabileceğimiz şey, kullanıcıların son derece hassas bilgileri genel sorgulardan ayırmak için inisiyatif almaları ve gerektiğinde geleneksel güvenli kanallara geçmeleri gerektiğidir. Yapay zekanın verimliliği, gizlilik pahasına olmamalıdır. İletişim kutuları klavyelerin ve telefonların yerini alırken, ihtiyaç duyulan şey sessizlik değil, doğrulanabilir yasal güvenceler ve teknik korkuluklardır. Altman'ın hatırlatması hoş olmayabilir, ancak bir ayna sunuyor: inovasyonun hızı ile kurumsal onarım arasındaki genişleyen uçurumun bir yansıması. Boşlukları doldurmak, yapay zekanın topluma gerçekten fayda sağlamasını sağlamanın tek yoludur. İlgili raporlar RobotFi'yi hayal edin: Robotlar da zincirde, hangi yeni oynanışı getirecekler? Vitalik'in botu "miyav" hararetli tartışmalara neden oldu, Ethereum topluluğu: tüm param kedi havlamasını öğrenen insanlara basılıyor Bilgi işlem gücü kraldır! Huang Jenxun, yapay zekanın küresel değer zincirlerini nasıl yeniden yapılandıracağı, robotların yaygınlaşacağı ve yapay zekanın üretimin Amerika Birleşik Devletleri'ne dönüşünü hızlandıracağı zaman mı? "Yapay zeka gizliliğinin çöküşü" ChatGPT sohbeti" yasaların önünde çıplak; Altman: Kişisel bilgileri girmeye korkuyorum, bilgiyi kimin alacağını bilmek zor" Bu makale ilk olarak BlockTempo'nun "Dinamik Trend - En Etkili Blockchain Haber Medyası" nda yayınlanmıştır.