[Series AI Agent][Bài Số 15] AI bịa rất tự tin: Hallucination là gì và tại sao nó xảy ra
Một luật sư ở New York nộp hồ sơ lên tòa. Trong đó trích dẫn 6 vụ án làm tiền lệ. Thẩm phán tra cứu. Không vụ nào tồn tại. Cả 6 vụ do ChatGPT bịa ra.
Luật sư tên Steven Schwartz, vụ Mata kiện Avianca, năm 2023. Ông bị phạt 5.000 đô. Khi được hỏi, ông nói: "Tôi không biết ChatGPT có thể bịa." Thẩm phán trả lời: "Trách nhiệm kiểm tra thuộc về luật sư."
Câu chuyện này không phải ngoại lệ. Nó là bản chất của cách AI hoạt động.
AI không biết. AI đoán.
Nhiều người nghĩ AI "biết" câu trả lời. Không phải. AI dự đoán từ tiếp theo.
Hãy nghĩ về gợi ý trên bàn phím điện thoại. Bạn gõ "Chúc mừng", điện thoại gợi ý "sinh nhật". Nó không hiểu sinh nhật là gì. Nó chỉ biết: sau "chúc mừng", "sinh nhật" xuất hiện nhiều nhất trong dữ liệu.
AI hoạt động y vậy, chỉ ở quy mô lớn hơn rất nhiều. Thay vì đoán 1 từ trên điện thoại, nó đoán hàng nghìn từ liên tiếp. Đoán giỏi đến mức nghe như hiểu. Nhưng dự đoán không phải là hiểu biết.
Thử nghĩ thế này. Bạn chưa bao giờ đến Iceland. Nhưng nếu ai hỏi "Iceland lạnh không?", bạn trả lời "lạnh" ngay. Vì bạn biết Iceland ở gần Bắc Cực. Bạn suy luận từ kiến thức thật.
AI không suy luận kiểu đó. Nó trả lời "lạnh" vì trong dữ liệu huấn luyện, từ "Iceland" thường đi cùng từ "lạnh". Pattern, không phải hiểu biết.
Khi có đủ dữ liệu huấn luyện, AI đoán trúng. "Thủ đô Việt Nam là Hà Nội." Đúng, vì hàng triệu trang web viết câu đó. Đoán trúng nhiều đến mức người dùng tưởng nó "biết."
Khi thiếu dữ liệu, AI vẫn đoán. Nhưng lần này đoán sai. Và nó trình bày câu sai y hệt câu đúng: tự tin, mạch lạc, không do dự. Không có cơ chế nào bên trong AI nói "tôi không biết phần này." Nó luôn đoán. Luôn tự tin.
Bịa mà nghe rất thật
Giới kỹ thuật gọi hiện tượng này là hallucination (ảo giác). AI "nhìn thấy" thứ không tồn tại, rồi kể lại như thật.
6 kiểu hallucination phổ biến:
Trích dẫn giả. AI nói "Theo nghiên cứu của Harvard năm 2021..." Nghiên cứu đó không có.
Paper bịa. Tên tác giả thật, tiêu đề giả, tạp chí thật. Trộn lẫn thật-giả khiến khó phát hiện.
Số liệu bịa. "Tỷ lệ chuyển đổi trung bình ngành là 3.2%." Nghe hợp lý. Nhưng con số do AI tạo ra, không từ nguồn nào.
Link chết. AI đưa đường link trông đúng format, bấm vào thì 404.
Tên người sai. Đúng chức danh, đúng công ty, sai tên. Hoặc ngược lại.
Sự kiện chưa xảy ra. AI kể về một hội nghị, một phát biểu, một thỏa thuận. Không cái nào có thật.
Để ý: mỗi kiểu đều trộn yếu tố thật với yếu tố bịa. Harvard thật, nghiên cứu giả. Tạp chí thật, paper giả. Đó là lý do hallucination khó phát hiện.
Bạn đọc một đoạn văn có tên trường đại học thật, có năm, có số trang. Não bạn tự động nghĩ: "Chi tiết thế này chắc phải có thật." Nhưng không. AI bịa chi tiết giỏi y như bịa nội dung.
Cái nguy hiểm nhất: tự tin đều
Đây là chỗ nhiều người mắc bẫy.
Khi bạn nói chuyện với một người, người đó biết lúc nào mình chắc, lúc nào mình đoán. Giọng thay đổi. "Tôi nghĩ là..." khác với "Chắc chắn là..." Bạn đọc được tín hiệu đó.
AI không có tín hiệu đó. Nó trả lời câu đúng và câu sai cùng một giọng. Cùng mức tự tin. Cùng cấu trúc câu. Không dấu hiệu nào cho thấy "phần này tôi bịa."
Tệ hơn: bạn hỏi "Có chắc không?" Nó nói "Có, tôi chắc chắn." Bạn hỏi "Nguồn ở đâu?" Nó bịa thêm nguồn. Hỏi lại lần nữa, nó bịa nguồn khác.
Nó không cố lừa bạn. Nó đang làm đúng việc nó được thiết kế: dự đoán chuỗi từ tiếp theo có xác suất cao nhất. Khi bạn hỏi "có chắc không?", chuỗi từ xác suất cao nhất sau câu đó là "có". Vì trong dữ liệu huấn luyện, câu trả lời khẳng định xuất hiện nhiều hơn câu "tôi không chắc."
Tại sao điều này quan trọng với bạn
Quay lại vụ luật sư Schwartz. Ông ấy không lười. Ông ấy tin AI. Ông ấy đọc 6 vụ án, thấy tên tòa, số hiệu, năm phán quyết, trích dẫn đầy đủ. Trông thật 100%. Ông ấy không kiểm tra vì không nghĩ cần kiểm tra.
Đó là bẫy. Hallucination nguy hiểm nhất không phải câu sai rõ ràng. Mà là câu sai trông rất đúng.
Vài tình huống bạn dễ gặp hàng ngày:
Nhờ AI tra thông tin cho báo cáo. Số liệu trông hợp lý. Nhưng bịa. Sếp đọc báo cáo, tin số liệu, ra quyết định sai.
Nhờ AI tìm quy định pháp luật. Điều khoản trông chính xác. Nhưng không tồn tại. Bạn tư vấn khách hàng dựa trên điều khoản ma.
Nhờ AI viết nội dung có trích dẫn. Nguồn trông uy tín. Nhưng bịa. Bài viết publish, người đọc tra nguồn, uy tín của bạn bay.
Nhờ AI tìm thông tin đối tác. Tên CEO đúng, số điện thoại sai, email sai. Bạn gửi đề xuất hợp tác vào hư không.
Mỗi trường hợp, hậu quả thuộc về bạn. Không phải AI. AI không có uy tín để mất. Bạn có.
Vậy nên dùng AI thế nào?
AI là hệ thống dự đoán giỏi. Giỏi không có nghĩa luôn đúng.
Nguyên tắc đơn giản: AI viết, bạn kiểm tra. Giống có một thực tập sinh rất nhanh, rất chăm, nhưng hay bịa. Bạn không sa thải thực tập sinh đó. Bạn kiểm tra mọi thứ nó nộp.
Cụ thể hơn:
Ý tưởng, nháp, brainstorm: thoải mái. Sai cũng không sao, vì bạn sẽ chỉnh lại.
Số liệu, trích dẫn, tên người, sự kiện: luôn kiểm tra. Không ngoại lệ. Một con số bịa trong báo cáo nguy hiểm hơn không có con số nào.
Càng quan trọng, càng phải kiểm tra kỹ. Email nội bộ thì sai tên một người có thể sửa. Hồ sơ pháp lý thì sai một chi tiết có thể bị phạt.
Khi AI cho link hoặc nguồn: bấm vào. Mất 10 giây. Link chết hoặc nội dung khác với AI mô tả, bạn biết ngay.
30 giây Google kiểm tra một con số. 2 phút tra một trích dẫn. So với hậu quả của việc dùng thông tin sai, đó là khoản đầu tư rẻ nhất bạn có thể bỏ ra.
Luật sư Schwartz mất 5.000 đô và uy tín nghề nghiệp vì bỏ qua bước đó. Bạn không cần lặp lại sai lầm của ông ấy.
---
📚 Mục lục Series AI Agent
Bài 06. AI làm được gì? Bản đồ tools mà bạn chưa biết mình có
Bài 07. "Mở sách cho AI đọc": tại sao cung cấp context thay đổi mọi thứ
Bài 09. 5 thành phần của prompt hiệu quả (và tại sao chúng hoạt động)
Bài 15. AI bịa rất tự tin: Hallucination là gì và tại sao nó xảy ra
Bài 18. Phân loại Xanh/Vàng/Đỏ: khi nào tin AI, khi nào dừng lại



