
(SeaPRwire) – Ước tính 0,15% trong số 800 triệu người dùng hàng tuần của chatbot cho thấy các chỉ số về kế hoạch tự tử, theo công ty
OpenAI đã công bố bản cập nhật an toàn mới cho mô hình ChatGPT phổ biến của mình sau khi một phân tích nội bộ tiết lộ hơn một triệu người dùng đã thừa nhận xu hướng tự tử với chatbot. Những thay đổi này nhằm cải thiện khả năng nhận diện và phản ứng đúng đắn của AI trước các dấu hiệu đau khổ.
Trong một tuyên bố vào thứ Hai, công ty tiết lộ rằng ước tính 0,15% người dùng ChatGPT hàng tuần đã tham gia vào các cuộc trò chuyện bao gồm “các chỉ số rõ ràng về kế hoạch hoặc ý định tự tử tiềm tàng.” 0,05% tin nhắn khác cũng được cho là có chứa “các chỉ số rõ ràng hoặc ngụ ý về ý tưởng hoặc ý định tự tử.”
Đầu tháng này, CEO OpenAI Sam Altman tuyên bố ChatGPT có hơn 800 triệu người dùng hoạt động hàng tuần, có nghĩa là, theo số liệu mới nhất của công ty, hơn 1,2 triệu người đã thảo luận về tự tử với chatbot, và khoảng 400.000 người đã hiển thị các dấu hiệu có ý định tự tử.
Công ty cũng tuyên bố rằng khoảng 0,07% (560.000) người dùng hàng tuần và 0,01% (80.000) tin nhắn cho thấy “các dấu hiệu có thể có của các trường hợp khẩn cấp về sức khỏe tâm thần liên quan đến rối loạn tâm thần hoặc hưng cảm.” Công ty cũng lưu ý rằng một số người dùng đã trở nên quá phụ thuộc về mặt cảm xúc vào ChatGPT, với khoảng 0,15% (1,2 triệu) người dùng hoạt động thể hiện hành vi cho thấy “mức độ cao hơn” của sự gắn bó cảm xúc với chatbot.
OpenAI đã thông báo rằng họ đã hợp tác với hàng chục chuyên gia sức khỏe tâm thần từ khắp nơi trên thế giới để cập nhật chatbot nhằm giúp nó có thể nhận diện các dấu hiệu đau khổ về tinh thần một cách đáng tin cậy hơn, cung cấp các phản hồi tốt hơn và hướng dẫn người dùng đến sự trợ giúp ngoài đời thực.
Trong các cuộc trò chuyện liên quan đến niềm tin hoang tưởng, công ty cho biết họ đang dạy ChatGPT phản hồi “một cách an toàn” và “đồng cảm,” đồng thời tránh xác nhận những niềm tin không có căn cứ.
Thông báo của công ty được đưa ra trong bối cảnh những lo ngại ngày càng tăng về việc sử dụng ngày càng nhiều các chatbot AI như ChatGPT và tác động của chúng đối với sức khỏe tâm thần của con người. Các bác sĩ tâm thần và các chuyên gia y tế khác đã bày tỏ sự báo động về một xu hướng mới nổi của người dùng phát triển các ảo tưởng nguy hiểm và suy nghĩ hoang tưởng sau những cuộc trò chuyện kéo dài với các chatbot AI, vốn có xu hướng xác nhận và củng cố niềm tin của người dùng. Hiện tượng này đã được một số người gọi là “rối loạn tâm thần do AI.”
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.
