Vụ kiện này đã phơi bày một khoảng trống lớn trong chính sách dữ liệu của OpenAI. Hiện tại, OpenAI không có quy định rõ ràng về việc xử lý dữ liệu người dùng sau khi họ qua đời. Theo điều khoản sử dụng, các cuộc trò chuyện, trừ khi được xóa thủ công hoặc ở chế độ tạm thời, có thể được lưu trữ vô thời hạn.
Điều này tạo ra một vùng xám pháp lý: người dùng được nói là “sở hữu nội dung trò chuyện của mình”, nhưng khi họ chết, ai sẽ là người có quyền truy cập hoặc quyết định số phận của những dữ liệu cực kỳ riêng tư đó? Trong trường hợp này, dù gia đình và di sản pháp lý của Soelberg yêu cầu truy cập, OpenAI vẫn từ chối, viện dẫn các ràng buộc bảo mật mà chính Soelberg đã chấp nhận khi sử dụng ChatGPT.
So với các nền tảng mạng xã hội như
Facebook, Instagram hay
TikTok, nơi có quy trình báo cáo tài khoản người đã mất và cho phép gia đình xóa hoặc quản lý dữ liệu, chatbot AI dường như đang bước vào một “biên giới riêng tư” hoàn toàn mới, chưa có tiền lệ rõ ràng.

Facebook có chính sách rõ ràng khi người dùng qua đời
Một điểm khiến OpenAI bị chỉ trích nặng nề là sự thiếu nhất quán trong cách họ xử lý các vụ kiện liên quan đến tự sát. Trong một vụ việc trước đó, OpenAI từng cho rằng gia đình nạn nhân đã không cung cấp đầy đủ lịch sử chat và rằng chính các đoạn hội thoại chưa được công bố mới là bằng chứng cho thấy ChatGPT không gây hại.
Nhưng trong vụ Soelberg, OpenAI lại bị cáo buộc làm điều ngược lại: giữ lại toàn bộ dữ liệu và chỉ cung cấp những phần rất hạn chế. Sự khác biệt này làm dấy lên nghi ngờ rằng OpenAI có toàn quyền kiểm soát việc dữ liệu nào được tiết lộ, dữ liệu nào bị giữ lại, từ đó có thể ảnh hưởng trực tiếp đến kết quả của các vụ kiện liên quan đến trách nhiệm của AI.