[Series AI Agent][Bài Số 01] AI Agent là gì? Tài xế và chiếc xe
Kết quả AI tệ thường không phải vì AI dốt. Mà vì chiếc xe chưa đủ tốt. Và tin vui: chiếc xe nằm trong tay bạn.
AI trả lời đúng, bạn khen “AI giỏi quá”. AI trả lời sai, bạn chê “AI ngu quá”. Cả hai đều sai.
Theo Decision Lab 2025, khoảng 78% người Việt dùng AI kiểu “hỏi rồi nhận”. Gõ vào, đọc ra, xong. Giống bật công tắc đèn mà không cần biết dây điện chạy thế nào.
Cách dùng đó hoàn toàn ổn khi AI cho ra kết quả tốt. Nhưng khi kết quả tệ, bạn sẽ không biết sửa ở đâu. Đổ lỗi cho AI “ngu” cũng không giúp ích gì.
Thực ra cấu trúc bên trong một AI agent khá rõ ràng. Chỉ có 2 phần. Hiểu được 2 phần này, bạn sẽ biết tại sao AI có lúc giỏi, có lúc ngu. Và quan trọng hơn: biết sửa ở đâu.
Hai phần của một AI agent
Hãy nghĩ về một chiếc taxi.
Chiếc taxi có hai thứ: tài xế và chiếc xe. Tài xế là người suy nghĩ, quyết định rẽ trái hay rẽ phải. Chiếc xe là phương tiện, có bánh, có vô lăng, có GPS.
AI agent cũng y vậy. Nó gồm model (tài xế) và harness (chiếc xe).
Model: bộ não
Model là phần suy nghĩ. Nó phân tích câu hỏi, tìm logic, tạo ra câu trả lời.
Model được “huấn luyện” bằng cách đọc hàng tỷ trang web, sách, bài báo. Giống cách não người được “huấn luyện” qua hàng triệu năm tiến hóa. Chỉ là AI đọc nhanh hơn chúng ta rất nhiều.
Sau huấn luyện, model biết ngữ pháp, suy luận, viết code, phân tích số liệu. Nó có “kiến thức nền” khổng lồ. Nhưng kiến thức nền có giới hạn. Model chỉ biết những gì nó đã đọc trong quá trình huấn luyện.
Hỏi GPT-4o về lý thuyết tương đối? Trả lời ngon lành. Hỏi về email nội bộ công ty bạn gửi sáng nay? Nó không biết. Không phải vì nó dốt. Vì nó chưa bao giờ đọc email đó.
Harness: cơ thể và công cụ
Harness là mọi thứ bao quanh model. Nó bù đắp cho những gì model không tự làm được.
Harness gồm:
Công cụ (tools): tìm kiếm web, đọc file, gọi API, chạy code
Kiến thức (knowledge): tài liệu, dữ liệu riêng bạn cung cấp
Quyền hạn (permissions): được phép làm gì, không được làm gì
Bộ nhớ (memory): nhớ gì từ cuộc trò chuyện trước
Chỉ dẫn (system prompt): luật chơi, vai trò, giới hạn
Khi bạn dùng ChatGPT bản miễn phí, harness khá đơn giản: một ô chat, model trả lời, xong. Khi bạn dùng ChatGPT Plus với plugin, harness phức tạp hơn: model có thể tìm web, đọc PDF, chạy Python.
Cùng một model, khác harness, kết quả khác hẳn.
Nói cách khác, model quyết định làm gì. Harness quyết định làm được gì.
Tài xế giỏi, xe tệ
Đây là chỗ thú vị.
Tưởng tượng tài xế F1 ngồi vào chiếc xe cà tàng, lốp mòn, không có GPS. Tay lái siêu đẳng cũng vô ích khi xe không chạy nổi 60km/h. Ngược lại, cho người mới lấy bằng ngồi vào siêu xe. Kết quả có khi nguy hiểm hơn.
AI cũng vậy.
GPT-4o là một model rất mạnh. Nhưng hỏi nó về báo cáo tài chính công ty bạn mà không đưa file? Nó sẽ bịa. Không phải vì nó dốt. Vì “chiếc xe” không có bản đồ, không có dữ liệu.
Claude cũng là model mạnh. Nhưng nếu harness không cho phép tìm kiếm web, nó chỉ biết những gì đã học. Hỏi tin tức hôm nay thì chịu.
Gemini được tích hợp sâu với Google Search. Cùng câu hỏi về tin tức, Gemini trả lời được vì harness cho phép nó tìm web. Không phải Gemini thông minh hơn. Chiếc xe của nó có GPS.
Tài xế giỏi + xe tệ = bực bội.
Tài xế tệ + xe xịn = nguy hiểm.
Tài xế giỏi + xe tốt = mới thật sự hiệu quả.
Khi AI cho kết quả tệ, lỗi ở đâu?
Đây là câu hỏi quan trọng nhất bài này.
Mỗi lần AI trả lời sai, bạn có thể hỏi: lỗi model hay lỗi harness?
Lỗi model trông thế nào? Model suy luận sai. Bạn đưa đủ thông tin, cho đủ công cụ, mà nó vẫn ra kết quả vô nghĩa. Kiểu tài xế giỏi nhưng hôm nay lú, rẽ nhầm đường dù GPS chỉ đúng.
Ví dụ: bạn đưa bảng số liệu rõ ràng, hỏi “tháng nào doanh thu cao nhất?”. AI trả lời sai dù dữ liệu nằm ngay trước mắt. Đó là lỗi model.
Lỗi harness trông thế nào? Model không có đủ thông tin. Hoặc không có công cụ phù hợp. Hoặc bị giới hạn quyền. Kiểu tài xế muốn đi đường tắt nhưng xe không vào được ngõ hẹp.
Ví dụ: bạn hỏi AI tóm tắt file PDF nhưng không đưa file. AI bịa nội dung. Không phải nó muốn bịa. Nó không có cách nào đọc file đó.
Nói thật nhé: phần lớn kết quả tệ là lỗi harness, không phải lỗi model.
Vì sao? Vì các model ngày nay đã khá thông minh. GPT-4o, Claude, Gemini đều vượt qua nhiều bài kiểm tra chuyên môn. Chúng suy luận được. Vấn đề thường nằm ở chỗ khác: thiếu ngữ cảnh, sai công cụ, hoặc câu hỏi quá mơ hồ.
Thử nghĩ lại lần cuối bạn không hài lòng với AI. Có phải vì bạn hỏi “viết cho tôi bài marketing” mà không nói gì thêm? Không nói sản phẩm gì, khách hàng ai, giọng văn ra sao? Đó là lỗi harness. Bạn chưa “trang bị” đủ cho chiếc xe.
Vậy thì sao?
Hiểu cấu trúc model + harness thay đổi cách bạn dùng AI.
Thay vì nghĩ “AI ngu quá”, bạn sẽ hỏi: “Mình đã cho nó đủ thông tin chưa? Nó có đúng công cụ không? Câu hỏi của mình có rõ không?”
Ba việc bạn có thể làm ngay:
1. Cho context rõ hơn. Thay vì “viết email”, hãy nói “viết email từ chối lịch họp thứ 6, giọng lịch sự nhưng dứt khoát”. Đó là bạn đang nâng cấp harness. Bạn đang lắp GPS cho chiếc xe.
2. Chọn đúng công cụ. Hỏi AI phân tích dữ liệu thì đưa file Excel, đừng mô tả bằng lời. Cho tài xế bản đồ thay vì bảo “tự tìm đường”. Nhiều app AI cho phép upload file, gọi API, tìm web. Dùng đúng tool sẽ khác.
3. Phân biệt lỗi. Kết quả tệ thì nghĩ xem lỗi “tài xế” hay “chiếc xe”. Sửa đúng chỗ nhanh hơn nhiều. Lỗi model thì đổi model hoặc hỏi lại. Lỗi harness thì bổ sung context, file, hoặc đổi công cụ.
Kết quả AI tệ thường không phải vì AI dốt. Mà vì chiếc xe chưa đủ tốt. Và tin vui: chiếc xe nằm trong tay bạn.
📚 Mục lục Series AI Agent
Bài 06. AI làm được gì? Bản đồ tools mà bạn chưa biết mình có
Bài 07. "Mở sách cho AI đọc": tại sao cung cấp context thay đổi mọi thứ
Bài 09. 5 thành phần của prompt hiệu quả (và tại sao chúng hoạt động)
Bài 15. AI bịa rất tự tin: Hallucination là gì và tại sao nó xảy ra
Bài 18. Phân loại Xanh/Vàng/Đỏ: khi nào tin AI, khi nào dừng lại



