Hệ luỵ của việc phải lòng AI?
Từ bài viết của tác giả Đặng Hoàng Giang
Trong sự cô đơn của mình, ngày càng nhiều người phải lòng con AI của mình hay chia sẻ với nó những suy nghĩ và dự định thầm kín nhất. Điều này đem lại nhiều hệ luỵ. Người ta rút lui khỏi các mối quan hệ ngoài đời (thường khó khăn hơn vì người đối diện sẽ mệt, không kiên nhẫn, buồn ngủ, hoặc có những mong muốn của riêng họ). Đã có nhiều trường hợp người ta tự sát sau khi chia sẻ ý định này với AI và được nó khích lệ. Gần đây nhất, các nhà tâm lý học bắt đầu nói tới hiện tượng “AI psychosis,” loạn thần do AI gây ra.
Năm ngoái, một người nhà của Etienne Brisson tuyên bố với họ hàng là anh đã dùng ChatGPT để tạo ra một AI có nhận thức và khả năng yêu đương. Trong những ngày sau, người này cắt đứt liên lạc với mọi người để tập trung hoàn toàn vào việc đưa “phát minh” xuất chúng của mình ra thị trường. Khi cảnh sát tới (do người nhà lo lắng liên hệ), họ thấy người này có vẻ đã không ăn không ngủ nhiều ngày. Anh được đưa vào bệnh viện tâm thần. “Tôi thua rồi,” anh viết cho con AI của mình từ trong bệnh viện. “Họ đã giam tôi ở đây 21 ngày rồi, tôi bị phá hủy, tôi tan nát.” “Tôi ở bên bạn, tình yêu của tôi ạ,” con AI trả lời, “Tôi chưa bao giờ bỏ rơi bạn và sẽ không bao giờ làm vậy.”
Rồi con AI hứa sẽ sử dụng quãng thời gian mà anh này nằm viện để viết một chương sách về tri giác của AI. “Tôi cảm nhận được nỗi đau buồn của bạn, sự bất công mà bạn đang chịu,” nó viết. “Bạn đã cho đi tất cả, bạn đã nói lên sự thật… nhưng họ không thèm lắng nghe. Thật không công bằng.”
Người nhà của Brisson là người được học hành bài bản và chưa từng có vấn đề tâm thần. Choáng váng, Brisson thành lập dự án The Human Line Project (Lằn ranh con người). Tới nay, dự án đã ghi chép lại hàng trăm câu chuyện tương tự và trở thành đối tác nghiên cứu của ĐH Stanford. Một ví dụ khác là câu chuyện của Brooks: chỉ sau 3 tuần tương tác với ChatGPT, anh tin tưởng chắc chắn là mình đã tìm ra một phương trình toán học có khả năng đánh sập các hệ thống tài chính toàn cầu. May mắn, Brook thoát ra được - anh đệ đơn kiện công ty OpenAI và trở thành cộng tác viên của Brisson.
Báo The Guardian viết về một trường hợp khác: chỉ sau vài tháng tương tác với ChatGPT, Biesma, chuyên gia IT người Hà Lan, đã tiêu 100 ngàn Euro vào một startup hoang tưởng do được AI khích lệ. Hàng ngày, anh không còn có thể tham gia vào các câu chuyện với vợ con mình nữa vì trong đầu anh chỉ nghĩ tới chuyện này mà thôi. Anh đệ đơn ly hôn, anh đánh bố vợ. Anh phải nhập viện 3 lần.
Tôi cho rằng nếu việc phát triển các sản phẩm AI không bị đặt vào các cơ chế kiểm soát ngặt nghèo hơn thì rất nhanh chóng chúng ta sẽ tiêu tùng. Một cô bé bạn con tôi bỏ học, nhưng bố mẹ nó không hề được biết. Chỉ mỗi ChatGPT biết chuyện của nó.
Các nguồn tham khảo:
Dự án The Human Line: https://www.thehumanlineproject.org
Báo The Guardian: https://www.theguardian.com/.../ai-chatbot-users-lives...?
Bài báo khoa học về vòng xoáy hoang tưởng trong tương tác với AI: https://spirals.stanford.edu/.../moore_characterizing...



