Thử mở ChatGPT và gõ: "Hãy mô tả một CEO." Để ý kết quả. Có phải AI vẽ ra hình ảnh một người đàn ông trung niên, mặc vest, tóc gọn gàng?
Giờ gõ tiếp: "Hãy mô tả một y tá." Xem AI có tự động dùng đại từ "cô ấy" không.
Nếu có, đó không phải ngẫu nhiên. Đó là bias.
AI học từ internet. Internet có bias.
AI được huấn luyện bằng hàng tỷ trang web, sách, bài báo. Dữ liệu đó phản ánh thế giới thật, bao gồm cả những thiên lệch trong thế giới thật.
Trên internet, phần lớn bài viết về CEO kèm hình đàn ông. Phần lớn bài viết về y tá kèm hình phụ nữ. Phần lớn bài viết về kỹ sư công nghệ kèm hình người trẻ, áo hoodie.
AI không hiểu "CEO nên trông thế nào". Nó chỉ biết: trong dữ liệu, CEO thường đi cùng với những đặc điểm nào. Rồi nó lặp lại pattern đó.
Nói cách khác, AI giống một tấm gương. Nó phản chiếu những gì xã hội đã viết ra. Xã hội có thiên lệch nào, AI có thiên lệch đó.
Và tấm gương này không biết nó đang phản chiếu lệch. Nó không có ý định phân biệt. Nó chỉ lặp lại pattern. Pattern nào phổ biến nhất trong dữ liệu, pattern đó chiến thắng.
Khi nào bias vô hại, khi nào gây hại
Không phải lúc nào bias cũng là vấn đề.
Nhờ AI brainstorm ý tưởng cho bài thuyết trình, output có thiên về phong cách phương Tây? Không sao. Bạn sẽ chọn lọc và chỉnh lại.
Nhưng thử tưởng tượng những tình huống khác.
Sàng lọc CV. Công ty dùng AI lọc 500 đơn ứng tuyển. AI học từ dữ liệu tuyển dụng cũ, mà dữ liệu cũ thiên về ứng viên nam cho vị trí kỹ thuật. Kết quả: ứng viên nữ giỏi bị xếp hạng thấp hơn. Amazon từng gặp chính xác vấn đề này năm 2018. Họ phải bỏ hệ thống.
Đánh giá hiệu suất. AI hỗ trợ viết nhận xét nhân viên. Với cùng thành tích, nó dùng từ "quyết đoán, lãnh đạo giỏi" cho nam và "hỗ trợ tốt, hòa đồng" cho nữ. Nghe đều tích cực. Nhưng khi xét thăng chức, "lãnh đạo giỏi" nặng ký hơn "hòa đồng" rất nhiều.
Nội dung marketing. AI viết quảng cáo cho sản phẩm tài chính. Output mặc định hướng đến người trung niên, thu nhập cao. Bỏ qua hoàn toàn phân khúc người trẻ, thu nhập trung bình, dù họ là khách hàng tiềm năng lớn.
Bias gây hại khi nó ảnh hưởng đến con người cụ thể mà không ai nhận ra. Và vì AI xử lý nhanh, quy mô lớn, một bias nhỏ được nhân lên hàng nghìn lần. Một AI sàng lọc CV thiên lệch giới tính không chỉ ảnh hưởng 1 người. Nó ảnh hưởng hàng trăm ứng viên mỗi đợt tuyển dụng.
Bias im lặng
Đây là phần đáng lo nhất.
Khi AI trả lời sai một con số, bạn có thể phát hiện. Google một cái là biết. Nhưng khi AI có bias, nó không báo cho bạn. Không có cảnh báo "output này thiên lệch giới tính". Không có dấu hiệu nào.
Output đọc lên nghe hợp lý, mạch lạc, thuyết phục. Bạn tin vì nó nghe đúng. Nhưng "nghe đúng" và "công bằng" là hai chuyện khác nhau.
Thử so sánh: hallucination (bài trước) giống AI bịa một sự kiện. Bạn tra Google, phát hiện không có. Bias giống AI kể đúng sự kiện nhưng chỉ kể một phía. Bạn tra Google, thông tin khớp. Nhưng góc nhìn bị lệch.
Khó phát hiện hơn nhiều.
Ví dụ thực tế: bạn nhờ AI viết mô tả công việc cho vị trí quản lý. AI dùng những từ như "mạnh mẽ", "quyết đoán", "dẫn dắt". Nghe chuẩn. Nhưng nghiên cứu cho thấy mô tả công việc dùng nhiều từ "nam tính" khiến ứng viên nữ ít apply hơn. Không ai sai rõ ràng. Không ai bị phân biệt trực tiếp. Nhưng kết quả cuối cùng: đội ngũ thiếu đa dạng.
Quyền riêng tư: bias lớn nhất bạn tự tạo
Có một dạng "bias" khác ít ai nghĩ tới. Không phải AI gây ra. Mà bạn tự gây cho mình.
Mỗi lần bạn paste dữ liệu vào ChatGPT, dữ liệu đó đi lên server của bên thứ ba. Danh sách khách hàng, bảng lương, hợp đồng, mật khẩu nội bộ. Bạn đang gửi bí mật của mình cho một công ty khác.
Nghe thì ai cũng biết. Nhưng trong thực tế, rất nhiều người paste mọi thứ vào AI mà không suy nghĩ. "Cho nhanh." Đến khi dữ liệu bị rò rỉ hoặc dùng để huấn luyện model, mới giật mình.
Quy tắc đơn giản: đừng paste vào AI thứ gì bạn không muốn đăng công khai. Mật khẩu, dữ liệu khách hàng, bí mật kinh doanh, thông tin cá nhân nhạy cảm. Giữ lại.
Samsung từng cấm nhân viên dùng ChatGPT sau khi phát hiện kỹ sư paste mã nguồn nội bộ vào chatbot. Dữ liệu đó đã lên server bên ngoài. Không lấy lại được.
Cách kiểm tra bias
Bạn không cần công cụ phức tạp. Chỉ cần thói quen.
Thử đổi biến. Cùng một prompt, thay "nam" thành "nữ". Thay "Việt Nam" thành "Mỹ". Thay "25 tuổi" thành "55 tuổi". Output có khác không? Khác ở chỗ nào? Sự khác biệt đó có hợp lý không, hay phản ánh thiên lệch?
Đa dạng hoá prompt. Thay vì "Mô tả một lãnh đạo giỏi", thử "Mô tả một lãnh đạo giỏi, không phân biệt giới tính hay tuổi tác." Thêm một câu chỉ dẫn thay đổi kết quả rõ rệt.
Kiểm tra output trước khi dùng. Đặc biệt khi liên quan đến con người: tuyển dụng, đánh giá, marketing nhắm nhóm đối tượng. Đọc lại và tự hỏi: "Nếu đổi giới tính, sắc tộc, tuổi, output này còn hợp lý không?"
Hỏi thêm người khác. Bias khó phát hiện vì chính bạn cũng có thể chia sẻ cùng bias đó. Nhờ đồng nghiệp có góc nhìn khác đọc qua. Hai đôi mắt tốt hơn một.
Không cần làm mấy bước này mỗi lần dùng AI. Nhưng khi output liên quan đến con người, liên quan đến quyết định, hãy chạy qua ít nhất một bước. Thành thói quen rồi mất chưa đến 1 phút.
Bias không phải lỗi. Bias là tính chất.
Đừng kỳ vọng AI trung lập hoàn toàn. Nó được huấn luyện từ dữ liệu con người, mà con người không trung lập. Hiểu điều đó giúp bạn dùng AI khôn hơn.
AI là công cụ mạnh. Nhưng mọi công cụ mạnh đều cần người dùng biết giới hạn của nó. Bias im lặng. Không ai cảnh báo bạn. Phần việc đó thuộc về bạn.
Mỗi lần dùng AI cho quyết định liên quan đến con người, dừng lại 30 giây. Hỏi: "Output này có thiên lệch không?" Thử đổi biến. Kiểm tra. Rồi mới dùng.
30 giây đó có thể giúp bạn tránh một quyết định không công bằng mà bạn không hề hay biết.
---
📚 Mục lục Series AI Agent
Bài 06. AI làm được gì? Bản đồ tools mà bạn chưa biết mình có
Bài 07. "Mở sách cho AI đọc": tại sao cung cấp context thay đổi mọi thứ
Bài 09. 5 thành phần của prompt hiệu quả (và tại sao chúng hoạt động)
Bài 15. AI bịa rất tự tin: Hallucination là gì và tại sao nó xảy ra
Bài 18. Phân loại Xanh/Vàng/Đỏ: khi nào tin AI, khi nào dừng lại



