OpenAI công bố số liệu cảnh báo về sức khỏe tâm thần của người dùng ChatGPT - Vì sao chúng ta cần quan tâm?
Nguồn: Morning Brew, OpenAI, BBC, Business Insider, Wired, và phân tích của các chuyên gia tâm thần học quốc tế
Câu chuyện thật sự đằng sau các con số
Vào cuối tháng 10/2025, OpenAI – đơn vị phát triển ChatGPT – đã lần đầu tiên công bố các dữ liệu phân tích sâu về hiện trạng sức khỏe tâm thần của cộng đồng người dùng toàn cầu, và kết quả gây chú ý mạnh mẽ trên truyền thông quốc tế.
Theo Morning Brew và nhiều nguồn báo chí lớn, hàng nghìn, thậm chí hàng trăm nghìn trường hợp được nhận diện mỗi tuần là có dấu hiệu khủng hoảng hoặc nguy cơ cao liên quan đến sức khỏe tâm thần khi trò chuyện với AI.
Theo báo cáo, OpenAI sử dụng hệ thống nhận diện thông minh – phối hợp cùng các chuyên gia tâm thần học – để phân tích hàng trăm triệu cuộc trò chuyện hàng tuần. Một số tỷ lệ đáng quan tâm được đưa ra:
• Khoảng 0.07% người dùng mỗi tuần (tức khoảng 560.000 người trong số 800 triệu người dùng ChatGPT) thể hiện các dấu hiệu “khủng hoảng tâm thần” như loạn thần, hưng cảm, hoang tưởng rõ rệt thông qua nội dung trò chuyện.
• Khoảng 0.15% người dùng mỗi tuần (hơn 1 triệu người) thể hiện ý định tự sát hoặc lên kế hoạch tự sát, hay có biểu hiện phụ thuộc cảm xúc mạnh với chatbot.
Các dấu hiệu nhận diện bao gồm cả từ khóa mang màu sắc bi quan, ý tưởng sai lệch thực tế, mô tả phương án gây hại bản thân, hoặc thể hiện sự lệ thuộc vào ChatGPT với thời lượng lớn và cảm xúc bất thường. Tất cả đều được sàng lọc bởi công nghệ AI và đối chiếu với bộ tiêu chí chuyên môn của các nhà tâm thần học quốc tế.
Phương pháp tính toán và ý nghĩa xã hội
OpenAI tiết lộ, các tỷ lệ này không phải là thống kê chính xác tuyệt đối kiểu “chẩn đoán lâm sàng”, mà là ước lượng dựa trên tín hiệu cảnh báo và mẫu dữ liệu lớn, mang tính phòng ngừa và cảnh báo. Những con số này giúp cộng đồng hiểu rõ hơn về thực trạng nguy cơ sức khỏe tâm thần trên môi trường số, đặc biệt ở nền tảng hội thoại AI như ChatGPT, đồng thời thúc đẩy xã hội hành động để nâng cao năng lực hỗ trợ, phát hiện sớm và kết nối với nguồn lực hỗ trợ thực tế.
OpenAI cũng cho biết đã phối hợp nâng cấp hệ thống nhận diện, cung cấp hướng dẫn, cảnh báo và khuyến nghị người dùng tìm kiếm sự hỗ trợ y tế hoặc kết nối chuyên gia khi phát hiện dấu hiệu nguy hiểm. Đây là động thái xã hội hóa trách nhiệm của nền tảng công nghệ với sức khỏe cộng đồng.
Vì sao người dùng AI nên chú ý?
• Sử dụng AI đang trở thành thói quen hàng ngày, nhưng sự phụ thuộc quá mức, hoặc kỳ vọng AI trở thành “người đồng hành cảm xúc” có thể phát sinh các tác động tiêu cực chưa lường hết.
• Việc hiểu đúng về năng lực nhận diện và giới hạn của AI trong hỗ trợ sức khỏe tinh thần là thiết yếu cho việc tự bảo vệ bản thân và hỗ trợ cộng đồng.
• Quan sát và lắng nghe chính mình: Nếu bạn – hoặc người thân – cảm thấy có dấu hiệu bất ổn tâm lý khi sử dụng AI, nên chủ động tìm kiếm sự hỗ trợ từ chuyên gia, không kỳ vọng AI thay thế vai trò của bác sĩ hoặc nhà trị liệu chuyên nghiệp.
Thông điệp cho cộng đồng Tự Học cùng AI
Đây là lời nhắc nhở mạnh mẽ rằng AI là công cụ hỗ trợ kiến thức, lan tỏa cảm hứng và thúc đẩy phát triển cá nhân, nhưng không thay thế hoàn toàn các mối quan hệ con người – vốn là nền tảng giúp chúng ta giữ gìn sức khỏe tinh thần. Hãy chủ động kiểm soát quá trình sử dụng công nghệ, đồng thời lan tỏa nhận thức và kiến thức về an toàn sức khỏe tâm thần đến mọi thành viên trong cộng đồng tự học cùng AI.
Liên hệ để được huấn luyện chuyên sâu về tư duy tự học cùng AI (cá nhân) hoặc tư vấn chiến lược ứng dụng AI cho doanh nghiệp (cho lãnh đạo, quản lý):
NHẮN VỀ TẠI ĐÂY (Ms. Ngọc Bích)



