Sam Altman, Giám đốc điều hành của OpenAI, cảnh báo rằng các cuộc trò chuyện với ChatGPT không được bảo vệ bởi đặc quyền pháp lý và có thể trở thành bằng chứng trong kiện tụng, làm dấy lên lo ngại về lỗ hổng quyền riêng tư của AI và mở rộng giám sát. (Tóm tắt nội dung: Sam Altman nhìn vào tương lai của AI từ những người mới làm quen: robot hình người sắp đến, bạn đã chuẩn bị chưa?) (Bổ sung cơ bản: AI có thể lật ngược vụ án không? Không có nữ luật sư nào dựa vào ChatGPT để đào bới 5 triệu vụ lừa đảo thừa kế, thuyết phục tòa án khởi động lại cuộc điều tra AI đã được tích hợp liền mạch vào cuộc sống hàng ngày, nhưng những lo lắng tiềm ẩn đi kèm với sự tiện lợi đang được lôi kéo vào ánh đèn sân khấu: Bất kỳ ai gõ một từ vào ChatGPT hôm nay đều có thể xuất hiện tại tòa vào ngày mai. Giám đốc điều hành OpenAI Sam Altman gần đây đã cảnh báo trong một cuộc trò chuyện với người dẫn chương trình podcast Theo Von: "Khi bạn chia sẻ nội dung nhạy cảm nhất với ChatGPT, chúng tôi có thể được yêu cầu cung cấp nội dung đó trong trường hợp có vụ kiện. Hiện tại, có sự bảo vệ đặc quyền hợp pháp khi nói chuyện với nhà trị liệu, luật sư hoặc bác sĩ, nhưng chúng tôi chưa thiết lập cơ chế như vậy để trò chuyện với ChatGPT. Một câu tiết lộ một khoảng trống đã bị bỏ qua từ lâu. Hồ sơ y tế, các cuộc nói chuyện của luật sư và lời thú tội tôn giáo đều được bảo vệ bởi luật pháp hoặc quy tắc đạo đức, và việc tiếp cận tư pháp phải vượt qua ngưỡng cao; Chatbot không có tường lửa này và văn bản tương tác của người dùng với mô hình không được miễn trừ về mặt pháp lý và nhà cung cấp dịch vụ phải bàn giao hồ sơ miễn là giấy triệu tập của tòa án được tống đạt. Xung đột giữa chính sách và kiện tụng Mặc dù chính sách bảo mật trên trang web chính thức của OpenAI nói rằng dữ liệu được mã hóa trong quá trình truyền, nhưng nó không cung cấp mã hóa đầu cuối. Tài liệu cũng nói rằng Nội dung người dùng "có thể được chia sẻ với bên thứ ba". Loại tính linh hoạt này, phổ biến trong hoạt động kinh doanh, gần đây đã được đẩy lên đỉnh điểm của mâu thuẫn. Trong vụ kiện bản quyền của New York Times, lệnh của tòa án yêu cầu OpenAI giữ lại tất cả dữ liệu người dùng có liên quan đã va chạm trực tiếp với tuyên bố "xóa hoặc giảm thiểu thu thập" được quảng cáo của công ty, thể hiện đầy đủ sự thiếu phân loại chi tiết của các dịch vụ AI trong khuôn khổ pháp lý hiện tại. Khi đào tạo mô hình AI đòi hỏi kho dữ liệu lớn, doanh nghiệp có xu hướng lưu văn bản trong thời gian dài để tối ưu hóa thuật toán; Một khi một tài liệu chính thức rơi vào thẩm quyền, người dùng sẽ mất quyền xóa. Nhịp điệu của luật pháp và công nghệ không đồng bộ, khiến xung đột không thể tránh khỏi. Altman nói: "Đây có lẽ là một trong những lý do tại sao đôi khi tôi sợ sử dụng một số công nghệ AI nhất định, bởi vì tôi không biết mình muốn nhập bao nhiêu thông tin cá nhân vì tôi không biết ai sẽ có thông tin đó. Khả năng giám sát doanh nghiệp Không phải là một nỗi sợ hãi trừu tượng rằng các công ty có thể gặp vấn đề về giám sát sau khi họ có thông tin cá nhân. Khi các cuộc trò chuyện có thể được tìm kiếm trên quy mô lớn, các chính phủ và doanh nghiệp có động lực để biến các cuộc trò chuyện theo thời gian thực thành đánh giá rủi ro hoặc dự đoán hành vi. Đối với luật sư, bác sĩ, nhà tâm lý học và các chuyên gia khác, việc sử dụng ChatGPT để trả lời các câu hỏi của khách hàng hoặc bệnh nhân, dường như tiết kiệm thời gian, có thể vi phạm đạo đức nghề nghiệp. Vì nhà cung cấp dịch vụ có quyền phân tích văn bản đã tải lên nên tương đương với việc tiết lộ bí mật của khách hàng cho bên thứ ba. Altman lưu ý thêm: "Tôi lo lắng rằng càng có nhiều AI trên thế giới, việc giám sát sẽ càng phổ biến. Lịch sử đã chứng minh hết lần này đến lần khác rằng các chính phủ có xu hướng đi quá xa trong vấn đề này, và điều đó thực sự làm tôi lo lắng." Đặc quyền luật sư-khách hàng truyền thống yêu cầu thông tin chỉ lưu thông giữa các bên; Sự ra đời của AI tương đương với một cặp mắt vô hình bổ sung và không có điều khoản nào được tạo sẵn để cung cấp cùng một mức độ bảo vệ. Các chuyên gia không cập nhật hợp đồng và quy trình làm việc của họ có khả năng vô tình vi phạm pháp luật. Một hệ sinh thái AI an toàn hơn cần tiến tới ba trục cùng một lúc. Thứ nhất, cơ quan lập pháp nên xây dựng các quy tắc rõ ràng về "đặc quyền pháp lý kỹ thuật số" để mã hóa các cuộc trò chuyện cụ thể và đưa chúng vào ngưỡng cao của pháp y tư pháp. Ngoài ra, các công ty phải tích hợp mã hóa đầu cuối, lưu trữ tối thiểu và quyền tự chủ của khách hàng vào thiết kế sản phẩm, thay vì lấp đầy các lỗ hổng sau khi thực tế. Điều quan trọng nhất và những gì chúng ta có thể làm là người dùng nên chủ động tách thông tin nhạy cảm cao khỏi các yêu cầu chung và chuyển sang các kênh bảo mật truyền thống khi cần thiết. Hiệu quả của AI không nên phải trả giá bằng quyền riêng tư. Khi hộp thoại thay thế bàn phím và điện thoại, điều cần thiết không phải là im lặng, mà là các biện pháp bảo vệ pháp lý có thể kiểm chứng và rào chắn kỹ thuật. Lời nhắc nhở của Altman có thể không dễ chịu, nhưng nó cung cấp một tấm lương: phản ánh khoảng cách ngày càng lớn giữa tốc độ đổi mới và sửa chữa thể chế. Lấp đầy khoảng trống là cách duy nhất để làm cho AI thực sự mang lại lợi ích cho xã hội. Tin liên quan Imagine RobotFi: Robot cũng nằm trong chuỗi, chúng sẽ mang đến lối chơi mới nào? Bot "meo meo" của Vitalik gây ra cuộc thảo luận sôi nổi, cộng đồng Ethereum: tất cả tiền của tôi đều đổ vào những người học mèo sủa Sức mạnh tính toán là vua! Huang Jenxun nói về cách AI sẽ xây dựng lại chuỗi giá trị toàn cầu, khi robot sẽ trở nên phổ biến rộng rãi và AI sẽ đẩy nhanh quá trình quay trở lại sản xuất cho Hoa Kỳ? "Quyền riêng tư AI sụp đổ "Cuộc trò chuyện ChatGPT" trần truồng trước pháp luật; Altman: Tôi sợ nhập thông tin cá nhân, thật khó để biết ai sẽ nhận được thông tin" Bài viết này được xuất bản lần đầu tiên trên "Xu hướng động - Phương tiện tin tức Blockchain có ảnh hưởng nhất" của BlockTempo.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Sự sụp đổ quyền riêng tư AI "Cuộc trò chuyện ChatGPT" đối diện với pháp luật; Altman: Tôi sợ nhập dữ liệu cá nhân, khó biết ai sẽ nhận được dữ liệu.
Sam Altman, Giám đốc điều hành của OpenAI, cảnh báo rằng các cuộc trò chuyện với ChatGPT không được bảo vệ bởi đặc quyền pháp lý và có thể trở thành bằng chứng trong kiện tụng, làm dấy lên lo ngại về lỗ hổng quyền riêng tư của AI và mở rộng giám sát. (Tóm tắt nội dung: Sam Altman nhìn vào tương lai của AI từ những người mới làm quen: robot hình người sắp đến, bạn đã chuẩn bị chưa?) (Bổ sung cơ bản: AI có thể lật ngược vụ án không? Không có nữ luật sư nào dựa vào ChatGPT để đào bới 5 triệu vụ lừa đảo thừa kế, thuyết phục tòa án khởi động lại cuộc điều tra AI đã được tích hợp liền mạch vào cuộc sống hàng ngày, nhưng những lo lắng tiềm ẩn đi kèm với sự tiện lợi đang được lôi kéo vào ánh đèn sân khấu: Bất kỳ ai gõ một từ vào ChatGPT hôm nay đều có thể xuất hiện tại tòa vào ngày mai. Giám đốc điều hành OpenAI Sam Altman gần đây đã cảnh báo trong một cuộc trò chuyện với người dẫn chương trình podcast Theo Von: "Khi bạn chia sẻ nội dung nhạy cảm nhất với ChatGPT, chúng tôi có thể được yêu cầu cung cấp nội dung đó trong trường hợp có vụ kiện. Hiện tại, có sự bảo vệ đặc quyền hợp pháp khi nói chuyện với nhà trị liệu, luật sư hoặc bác sĩ, nhưng chúng tôi chưa thiết lập cơ chế như vậy để trò chuyện với ChatGPT. Một câu tiết lộ một khoảng trống đã bị bỏ qua từ lâu. Hồ sơ y tế, các cuộc nói chuyện của luật sư và lời thú tội tôn giáo đều được bảo vệ bởi luật pháp hoặc quy tắc đạo đức, và việc tiếp cận tư pháp phải vượt qua ngưỡng cao; Chatbot không có tường lửa này và văn bản tương tác của người dùng với mô hình không được miễn trừ về mặt pháp lý và nhà cung cấp dịch vụ phải bàn giao hồ sơ miễn là giấy triệu tập của tòa án được tống đạt. Xung đột giữa chính sách và kiện tụng Mặc dù chính sách bảo mật trên trang web chính thức của OpenAI nói rằng dữ liệu được mã hóa trong quá trình truyền, nhưng nó không cung cấp mã hóa đầu cuối. Tài liệu cũng nói rằng Nội dung người dùng "có thể được chia sẻ với bên thứ ba". Loại tính linh hoạt này, phổ biến trong hoạt động kinh doanh, gần đây đã được đẩy lên đỉnh điểm của mâu thuẫn. Trong vụ kiện bản quyền của New York Times, lệnh của tòa án yêu cầu OpenAI giữ lại tất cả dữ liệu người dùng có liên quan đã va chạm trực tiếp với tuyên bố "xóa hoặc giảm thiểu thu thập" được quảng cáo của công ty, thể hiện đầy đủ sự thiếu phân loại chi tiết của các dịch vụ AI trong khuôn khổ pháp lý hiện tại. Khi đào tạo mô hình AI đòi hỏi kho dữ liệu lớn, doanh nghiệp có xu hướng lưu văn bản trong thời gian dài để tối ưu hóa thuật toán; Một khi một tài liệu chính thức rơi vào thẩm quyền, người dùng sẽ mất quyền xóa. Nhịp điệu của luật pháp và công nghệ không đồng bộ, khiến xung đột không thể tránh khỏi. Altman nói: "Đây có lẽ là một trong những lý do tại sao đôi khi tôi sợ sử dụng một số công nghệ AI nhất định, bởi vì tôi không biết mình muốn nhập bao nhiêu thông tin cá nhân vì tôi không biết ai sẽ có thông tin đó. Khả năng giám sát doanh nghiệp Không phải là một nỗi sợ hãi trừu tượng rằng các công ty có thể gặp vấn đề về giám sát sau khi họ có thông tin cá nhân. Khi các cuộc trò chuyện có thể được tìm kiếm trên quy mô lớn, các chính phủ và doanh nghiệp có động lực để biến các cuộc trò chuyện theo thời gian thực thành đánh giá rủi ro hoặc dự đoán hành vi. Đối với luật sư, bác sĩ, nhà tâm lý học và các chuyên gia khác, việc sử dụng ChatGPT để trả lời các câu hỏi của khách hàng hoặc bệnh nhân, dường như tiết kiệm thời gian, có thể vi phạm đạo đức nghề nghiệp. Vì nhà cung cấp dịch vụ có quyền phân tích văn bản đã tải lên nên tương đương với việc tiết lộ bí mật của khách hàng cho bên thứ ba. Altman lưu ý thêm: "Tôi lo lắng rằng càng có nhiều AI trên thế giới, việc giám sát sẽ càng phổ biến. Lịch sử đã chứng minh hết lần này đến lần khác rằng các chính phủ có xu hướng đi quá xa trong vấn đề này, và điều đó thực sự làm tôi lo lắng." Đặc quyền luật sư-khách hàng truyền thống yêu cầu thông tin chỉ lưu thông giữa các bên; Sự ra đời của AI tương đương với một cặp mắt vô hình bổ sung và không có điều khoản nào được tạo sẵn để cung cấp cùng một mức độ bảo vệ. Các chuyên gia không cập nhật hợp đồng và quy trình làm việc của họ có khả năng vô tình vi phạm pháp luật. Một hệ sinh thái AI an toàn hơn cần tiến tới ba trục cùng một lúc. Thứ nhất, cơ quan lập pháp nên xây dựng các quy tắc rõ ràng về "đặc quyền pháp lý kỹ thuật số" để mã hóa các cuộc trò chuyện cụ thể và đưa chúng vào ngưỡng cao của pháp y tư pháp. Ngoài ra, các công ty phải tích hợp mã hóa đầu cuối, lưu trữ tối thiểu và quyền tự chủ của khách hàng vào thiết kế sản phẩm, thay vì lấp đầy các lỗ hổng sau khi thực tế. Điều quan trọng nhất và những gì chúng ta có thể làm là người dùng nên chủ động tách thông tin nhạy cảm cao khỏi các yêu cầu chung và chuyển sang các kênh bảo mật truyền thống khi cần thiết. Hiệu quả của AI không nên phải trả giá bằng quyền riêng tư. Khi hộp thoại thay thế bàn phím và điện thoại, điều cần thiết không phải là im lặng, mà là các biện pháp bảo vệ pháp lý có thể kiểm chứng và rào chắn kỹ thuật. Lời nhắc nhở của Altman có thể không dễ chịu, nhưng nó cung cấp một tấm lương: phản ánh khoảng cách ngày càng lớn giữa tốc độ đổi mới và sửa chữa thể chế. Lấp đầy khoảng trống là cách duy nhất để làm cho AI thực sự mang lại lợi ích cho xã hội. Tin liên quan Imagine RobotFi: Robot cũng nằm trong chuỗi, chúng sẽ mang đến lối chơi mới nào? Bot "meo meo" của Vitalik gây ra cuộc thảo luận sôi nổi, cộng đồng Ethereum: tất cả tiền của tôi đều đổ vào những người học mèo sủa Sức mạnh tính toán là vua! Huang Jenxun nói về cách AI sẽ xây dựng lại chuỗi giá trị toàn cầu, khi robot sẽ trở nên phổ biến rộng rãi và AI sẽ đẩy nhanh quá trình quay trở lại sản xuất cho Hoa Kỳ? "Quyền riêng tư AI sụp đổ "Cuộc trò chuyện ChatGPT" trần truồng trước pháp luật; Altman: Tôi sợ nhập thông tin cá nhân, thật khó để biết ai sẽ nhận được thông tin" Bài viết này được xuất bản lần đầu tiên trên "Xu hướng động - Phương tiện tin tức Blockchain có ảnh hưởng nhất" của BlockTempo.