AIプライバシー崩壊「ChatGPT対話」が法律の前で裸で走る;オルトマン:私は個人情報を入力することを恐れている、誰がデータを入手するかわからない

OpenAIのCEOであるSam Altman氏は、ChatGPTとの会話は法的特権によって保護されておらず、訴訟の証拠になる可能性があると警告しており、AIのプライバシーギャップや監視の拡大に対する懸念が高まっていると述べています。 (あらすじ:サム・アルトマンが初心者のお父さんからAIの未来を見る:ヒューマノイドロボットがやってくる、準備はできていますか?) (背景補足:AIはケースを覆すことができますか? ChatGPTに頼って500万件の相続詐欺を掘り起こし、裁判所に調査を再開するよう説得する弁護士の女性はいません AIは日常生活にシームレスに統合されていますが、便利さに伴う隠れた心配事が脚光を浴びています。 OpenAIのCEOであるSam Altman氏は最近、ポッドキャストのホストであるTheo Von氏との会話で、「最も機密性の高いコンテンツをChatGPTと共有すると、訴訟が発生した場合にそれを提供するよう求められる可能性があります」と警告しました。 現在、セラピスト、弁護士、医師と話す際には法的な特権保護がありますが、ChatGPTとの会話にはそのようなメカニズムは確立されていません。 一文が、長い間見過ごされてきたギャップを明らかにしています。 医療記録、弁護士の講演、宗教的告白はすべて法律や倫理規定によって保護されており、司法へのアクセスは高いしきい値を超えなければなりません。 チャットボットにはこのファイアウォールがなく、ユーザーとモデルとのやり取りのテキストは法的に免除されておらず、裁判所の召喚状が送達される限り、サービスプロバイダーはファイルを引き渡さなければなりません。 ポリシーと訴訟の対立OpenAIの公式Webサイトのプライバシーポリシーには、データは転送中に暗号化されると記載されていますが、エンドツーエンドの暗号化は提供されていません。 また、この文書には、ユーザーコンテンツは「第三者と共有される可能性がある」と記載されています。 このような柔軟性は、ビジネスオペレーションではよくあることですが、最近では矛盾の頂点に押し上げられています。 ニューヨーク・タイムズ紙の著作権訴訟では、OpenAIが関連するすべてのユーザーデータを保持するよう求めた裁判所の命令は、同社が宣伝した「収集を削除または最小化する」という声明と直接衝突し、現在の法的枠組みではAIサービスの詳細な分類が欠如していることを完全に示しています。 AIモデルのトレーニングに大規模なコーパスが必要な場合、企業はアルゴリズムを最適化するためにテキストを長期間保存する傾向があります。 公式文書が管轄権に該当する場合、ユーザーは消去する権利を失います。 法律とテクノロジーのリズムがずれているため、紛争は避けられません。 アルトマン氏は、「これがおそらく、私が特定のAI技術を使用することを恐れる理由の1つです。なぜなら、誰がその情報を持っているかわからないため、どれだけの個人情報を入力したいのかわからないからです。 企業の監視の可能性 企業が個人情報を入手した後に監視の問題を抱える可能性があるというのは、抽象的な恐れではありません。 チャットが大規模に検索可能になると、政府や企業はリアルタイムの会話をリスク評価や行動予測に変えるインセンティブを持つようになります。 弁護士、医師、心理学者、その他の専門家にとって、ChatGPTを使用してクライアントや患者の質問に答え、一見時間を節約することは、職業倫理に違反する可能性があります。 サービスプロバイダーはアップロードされたテキストを分析する権利を持っているため、顧客の秘密を第三者に公開することと同じです。 アルトマン氏はさらに、「世界にAIが多ければ多いほど、監視が蔓延するのではないかと心配しています。 歴史は、政府がこの点で行き過ぎる傾向があることを何度も証明しており、それは本当に私を困惑させます。 従来の弁護士と依頼者間の秘匿特権では、情報が当事者間でのみ流通することが求められていました。 AIの導入は、見えない目の追加ペアに相当し、同じレベルの保護を提供するための既製の規定はありません。 契約やワークフローを更新しない専門家は、知らず知らずのうちに法律を破る可能性があります。 より安全なAIエコシステムは、同時に3つの軸に向かって進む必要があります。 まず、立法府は、特定のチャットを暗号化し、それらを司法フォレンジックの高いしきい値に含める明確な「デジタル法的特権」ルールを策定する必要があります。 さらに、企業は、事後的に穴を埋めるのではなく、エンドツーエンドの暗号化、最小限のストレージ、および顧客の自律性を製品設計に統合する必要があります。 最も重要なこと、そして私たちにできることは、ユーザーが率先して機密性の高い情報を一般的な問い合わせから分離し、必要に応じて従来の安全なチャネルに切り替えることです。 AIの効率性は、プライバシーを犠牲にして得られるものであってはなりません。 ダイアログボックスがキーボードや電話に取って代わるにつれて、必要なのは沈黙ではなく、検証可能な法的保護手段と技術的なガードレールです。 アルトマンの注意喚起は楽しいものではないかもしれないが、それは鏡を提供し、イノベーションのスピードと制度の修復との間のギャップが広がっていることを映し出している。 そのギャップを埋めることが、AIを真に社会に利益をもたらす唯一の方法です。 関連レポート Imagine RobotFi: ロボットもチェーンに登場、彼らはどのような新しいゲームプレイをもたらすのでしょうか? ヴィタリックのボット「ニャー」は白熱した議論を引き起こし、イーサリアムコミュニティ:すべての私のお金は猫の吠え声を学ぶ人々に押し付けられていますコンピューティングパワーは王様です! Huang Jenxun氏は、AIが世界のバリューチェーンをどのように再構築するか、ロボットが普及する時期、AIが製造業の米国への回帰を加速させる時期について語ります。 「AIプライバシー崩壊 「ChatGPTの会話」が法律の前で裸に。 アルトマン:個人情報を入力するのが怖いのですが、誰が情報を取得するかを知るのは難しいです」この記事は、BlockTempoの「Dynamic Trend - The Most Influential Blockchain News Media」に最初に掲載されました。

VON-3.69%
ETH-0.05%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)