Khi tôi còn học đại học vào năm 2004 (tôi đã già), tôi đã cài đặt một plugin “AI” có thể tự động trả lời các tin nhắn AIM đến (cũ) khi tôi đi vắng. Plugin đơn giản này tự động trả lời tin nhắn bằng lịch sử trò chuyện của tôi; nếu ai đó hỏi “Bạn có khỏe không?” bot sẽ trả lời bằng câu trả lời mà tôi mới đưa ra cho câu hỏi đó. Bạn có thể biết điều này sẽ dẫn đến đâu: phải mất khoảng hai ngày để plugin này lặp lại điều gì đó khó chịu mà tôi đã nói về một người bạn với người bạn đó. Tôi đã gỡ cài đặt nó và đã học được một bài học về quyền riêng tư (và tình bạn) của AI.
AI đã đi được một chặng đường dài trong 20 năm, nhưng vấn đề về quyền riêng tư vẫn không thay đổi: bất cứ điều gì bạn nói với chatbot AI đều có thể được đọc và có khả năng lặp lại.
Hãy cẩn thận với những gì bạn nói với chatbot AI
Jack Wallen, viết cho ZDNet, đã chỉ ra rằng tuyên bố về quyền riêng tư của Gemini của Google nêu rõ rằng tất cả thông tin trong các cuộc trò chuyện với Gemini (trước đây gọi là Bard) được lưu trữ trong ba năm và con người thường xuyên xem xét dữ liệu. Tài liệu về quyền riêng tư cũng nêu rõ rằng bạn không nên sử dụng dịch vụ này cho bất kỳ mục đích riêng tư nào. Để trích dẫn các điều khoản:
Đừng nhập bất cứ điều gì bạn không muốn người đánh giá nhìn thấy hoặc Google sử dụng. Ví dụ: không nhập thông tin mà bạn cho là bí mật hoặc dữ liệu bạn không muốn sử dụng để cải thiện các sản phẩm, dịch vụ và công nghệ máy học của Google.
Đây là tuyên bố thẳng thắn của Google, bằng ngôn ngữ đơn giản, rằng con người có thể xem lại các cuộc trò chuyện của bạn và chúng sẽ được sử dụng để cải thiện các sản phẩm AI của họ.
Bây giờ, điều này có nghĩa là Gemini sẽ lặp lại thông tin cá nhân mà bạn nhập vào hộp trò chuyện, giống như cách chatbot AIM tồi tệ của tôi đã làm? Không, và trang này nói rằng người đánh giá làm việc để xóa dữ liệu rõ ràng là riêng tư như số điện thoại và địa chỉ email. Nhưng một vụ rò rỉ ChatGPT vào cuối năm ngoái, trong đó một nhà nghiên cứu bảo mật đã truy cập được vào thông tin đào tạo, cho thấy rằng bất kỳ thứ gì mà một mô hình ngôn ngữ lớn có quyền truy cập đều có thể — ít nhất là về mặt lý thuyết — cuối cùng cũng có thể bị rò rỉ.
Và tất cả đều giả định rằng các công ty chạy chatbot của bạn ít nhất đang cố gắng trở nên đáng tin cậy. Cả Google và OpenAI đều có chính sách bảo mật rõ ràng tuyên bố rằng họ không bán thông tin cá nhân. Nhưng Thomas Germain, viết cho Gizmodo, đã báo cáo rằng “bạn gái” AI đang khuyến khích người dùng chia sẻ thông tin cá nhân và sau đó tích cực bán nó. Từ bài viết:
Bạn đã từng nghe những câu chuyện về vấn đề dữ liệu trước đây, nhưng theo Mozilla, bạn gái AI vi phạm quyền riêng tư của bạn theo “những cách mới đáng lo ngại”. Ví dụ: CrushOn.AI thu thập thông tin chi tiết bao gồm thông tin về sức khỏe tình dục, sử dụng thuốc và chăm sóc khẳng định giới tính. 90% ứng dụng có thể bán hoặc chia sẻ dữ liệu người dùng cho các quảng cáo được nhắm mục tiêu và các mục đích khác và hơn một nửa sẽ không cho phép bạn xóa dữ liệu họ thu thập.
Vì vậy, không chỉ dữ liệu trò chuyện của bạn có thể bị rò rỉ mà một số công ty trong lĩnh vực AI đang tích cực thu thập và bán thông tin cá nhân.
Về cơ bản, điều rút ra là không bao giờ nói về bất cứ điều gì riêng tư bằng bất kỳ loại mô hình ngôn ngữ lớn nào. Điều này có nghĩa là những thứ hiển nhiên, như số An sinh xã hội, số điện thoại và địa chỉ, nhưng cuối cùng nó còn mở rộng sang bất kỳ thứ gì mà bạn không muốn thấy bị rò rỉ. Những ứng dụng này đơn giản là không dành cho thông tin cá nhân.