Tóm tắt
- OpenAI cho biết ChatGPT Health sẽ được triển khai cho một số người dùng được chọn bắt đầu từ tuần này, với kế hoạch mở rộng quyền truy cập trong các tuần tới.
- Tính năng này lưu trữ các cuộc trò chuyện về sức khỏe riêng biệt với các cuộc trò chuyện khác và không sử dụng chúng để huấn luyện các mô hình của OpenAI.
- Các nhà bảo vệ quyền riêng tư cảnh báo rằng dữ liệu sức khỏe được chia sẻ với các công cụ AI thường không thuộc phạm vi các luật về quyền riêng tư y tế của Hoa Kỳ.
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE Vào thứ Tư, OpenAI đã công bố một tính năng mới trong ChatGPT, cho phép người dùng kết nối hồ sơ y tế và dữ liệu sức khỏe, làm dấy lên lo ngại từ một số chuyên gia và các nhóm vận động về việc sử dụng dữ liệu cá nhân.
Gã khổng lồ AI có trụ sở tại San Francisco, California này cho biết công cụ, có tên ChatGPT Health, được phát triển cùng với các bác sĩ, được thiết kế để hỗ trợ chăm sóc chứ không phải để chẩn đoán hoặc điều trị bệnh. Công ty định vị nó như một cách để giúp người dùng hiểu rõ hơn về sức khỏe của mình.
Đối với nhiều người dùng, ChatGPT đã trở thành nền tảng ưu tiên cho các câu hỏi về chăm sóc y tế và sức khỏe tâm thần.
OpenAI nói với
Decrypt
rằng ChatGPT Health chỉ chia sẻ “thông tin sức khỏe tổng quát, thực tế” và không cung cấp “lời khuyên y tế cá nhân hóa hoặc không an toàn.”
Đối với các câu hỏi có rủi ro cao hơn, nó sẽ cung cấp thông tin tổng quan, cảnh báo các rủi ro tiềm ẩn và khuyến khích người dùng trao đổi với dược sĩ hoặc nhà cung cấp dịch vụ chăm sóc sức khỏe hiểu rõ tình hình cụ thể của họ.
Động thái này diễn ra không lâu sau khi công ty báo cáo vào tháng 10 rằng hơn 1 triệu người dùng thảo luận về tự sát với chatbot mỗi tuần. Con số này tương đương khoảng 0,15% tổng số người dùng ChatGPT tại thời điểm đó.
Mặc dù những con số này chỉ chiếm một phần nhỏ trong tổng số người dùng, các chuyên gia cho rằng phần lớn người dùng sẽ cần giải quyết các lo ngại về bảo mật và quyền riêng tư dữ liệu.
“Ngay cả khi các công ty tuyên bố có các biện pháp bảo vệ quyền riêng tư, người tiêu dùng thường thiếu sự đồng ý thực sự, thiếu minh bạch hoặc không kiểm soát được cách dữ liệu của họ được sử dụng, lưu trữ hoặc tái sử dụng,” J.B. Branch, nhà vận động trách nhiệm công nghệ lớn của Public Citizen, nói với
Decrypt.
“Dữ liệu sức khỏe là cực kỳ nhạy cảm, và nếu không có các giới hạn pháp lý rõ ràng cùng sự giám sát có thể thực thi, các biện pháp tự kiểm soát đơn thuần là không đủ để bảo vệ mọi người khỏi việc lạm dụng, tái nhận dạng hoặc tác hại về sau.”
OpenAI cho biết trong thông báo của mình rằng dữ liệu sức khỏe trên ChatGPT Health được mã hóa theo mặc định, lưu trữ riêng biệt với các cuộc trò chuyện khác và không được sử dụng để huấn luyện các mô hình nền tảng của họ.
Theo Andrew Crawford, cố vấn chính sách cấp cao của Center for Democracy and Technology, nhiều người dùng nhầm tưởng rằng dữ liệu sức khỏe được bảo vệ dựa trên tính nhạy cảm của nó, thay vì dựa trên ai đang giữ nó.
“Khi dữ liệu sức khỏe của bạn được giữ bởi bác sĩ hoặc công ty bảo hiểm, các quy tắc quyền riêng tư HIPAA sẽ được áp dụng,” Crawford nói với
Decrypt
. “Điều này không đúng với các tổ chức không thuộc phạm vi HIPAA, như nhà phát triển ứng dụng sức khỏe, thiết bị đeo theo dõi sức khỏe hoặc các công ty AI.”
Crawford cho biết việc ra mắt ChatGPT Health cũng nhấn mạnh rằng gánh nặng trách nhiệm được đặt lên vai người tiêu dùng trong bối cảnh chưa có luật liên bang toàn diện nào điều chỉnh dữ liệu sức khỏe do các công ty công nghệ nắm giữ.
“Thật đáng tiếc khi các luật và quy định liên bang hiện tại của chúng ta lại đặt gánh nặng đó lên từng cá nhân để tự phân tích liệu họ có cảm thấy thoải mái với cách công nghệ họ sử dụng hàng ngày xử lý và chia sẻ dữ liệu của mình hay không,” ông nói.
OpenAI cho biết ChatGPT Health sẽ được triển khai trước cho một nhóm người dùng nhỏ.
Danh sách chờ hiện mở cho người dùng ChatGPT ngoài Liên minh Châu Âu và Vương quốc Anh, với kế hoạch mở rộng truy cập trong những tuần tới trên web và iOS. Thông báo của OpenAI không đề cập đến Google hoặc các thiết bị Android.