Từ “tạo thần” sang làm sản phẩm: AI đang từ từ chạm đất
Tạo ra thần thánh thì ai cũng mơ. Nhưng dựng nên được một sản phẩm mà người ta thật sự cần – đó mới là phép màu.
Các công ty AI, sau một thời gian mải mê đẽo tượng thánh, giờ đang học cách… làm đồ xài được. Và điều này – xin thưa – là một tin tốt lành. Trong khi đó, họ vẫn đang rót cả núi tiền – hàng nghìn tỷ đô la – vào phần cứng và trung tâm dữ liệu, nhưng kết quả thì… thôi, cũng như ném đá xuống giếng cạn. Thế nên không ít người bắt đầu lẩm bẩm: "Có khi AI tạo sinh chỉ là cái bong bóng phồng to, chờ ngày xì hơi."
Chúng tôi không tiên tri, không bói quẻ, nhưng có vẻ đã lần ra được manh mối dẫn đến mớ bòng bong hiện tại.
Sản phẩm – Thị trường: Cái duyên chưa kịp bén
Khi ChatGPT ra mắt, người dùng bỗng nhiên phát hiện ra hàng trăm hàng ngàn cách tinh quái để tận dụng nó. Các nhà phát triển AI thấy thế thì như vừa uống nhầm thuốc kích thích – mắt sáng lên, tim đập rộn ràng, và lý trí… bỏ nhà đi bụi. Họ ngây thơ tin rằng: “Người ta dùng nhiều thì chắc chắn thành công!”
Thế là hai trường phái thương mại hóa mô hình ngôn ngữ lớn (LLM) hình thành – một bên “hữu đạo vô thuật”, một bên “vô đạo hữu thuật”, nhưng cả hai đều rơi vào bẫy ảo tưởng.
OpenAI và Anthropic thì chăm chăm vào việc “chế máy”, chẳng mấy bận tâm sản phẩm là gì. Đến mức mất sáu tháng trời mới tung được ChatGPT lên iOS, rồi lại tám tháng lên Android – tốc độ như thể đang viết thư tay chứ không phải làm app.
Ngược lại, Google và Microsoft thì chạy như vịt, nhét AI vào mọi thứ có thể – từ công cụ tìm kiếm đến bảng tính, tích hợp luôn với email. Không cần biết có hợp hay không, cứ thấy AI là đẩy vào.
Cả hai bên đều quên mất câu thần chú tối thượng của giới làm sản phẩm: “Làm cái mà người ta thật sự cần.”
Tính đa nhiệm của LLM khiến các nhà phát triển ảo tưởng rằng họ không cần phải tìm kiếm sự phù hợp giữa sản phẩm và thị trường: chỉ cần “ra lệnh” cho mô hình là đủ, khỏi cần vẽ vời giao diện, tính năng hay hành trình người dùng. Họ tưởng mình có đũa thần, mà quên mất: người dùng phổ thông không cần phép thuật, họ chỉ cần cái gì dễ dùng, ít lỗi.
Cách tiếp cận “tự thân vận động” (DIY) của OpenAI và Anthropic đã vô tình ‘giao trứng cho kẻ ác’ khi những người dùng đầu tiên chủ yếu sẽ là những đối tượng có ý đồ xấu. Họ sẵn sàng đầu tư công sức để tìm cách khai phá công nghệ mới cho mục đích riêng, trong khi người dùng phổ thông chỉ mong muốn những sản phẩm dễ sử dụng. Hệ quả? Công chúng bắt đầu mất thiện cảm với AI.
Mặt khác, cách tiếp cận "ép buộc" AI của Microsoft và Google lại tạo ra những tính năng có lúc thì hữu ích, nhưng thường gây phiền toái nhiều hơn. Chưa kể các pha xử lý lỗi ngớ ngẩn như chatbot Sydney hay công cụ tạo ảnh Gemini – những cú phốt đình đám khiến dân tình la ó.
Nhưng rồi… các ông lớn cũng bắt đầu tỉnh mộng
OpenAI đang dần chuyển mình – từ một viện nghiên cứu với những viễn cảnh xa xôi trở về thực tại với một công ty sản phẩm đúng nghĩa. Tạm rời xa các drama hội đồng quản trị, ta có thể thấy cốt lõi của tập đoàn vẫn là: OpenAI đang bỏ bệ thờ xuống, bắt tay vào xây dựng các sản phẩm thực sự.
Anthropic thì gom về nhiều nhân sự từ OpenAI – những người vẫn ôm giấc mộng AGI và cảm thấy lạc lõng với định hướng thực dụng mới của OpenAI. Nhưng ngay cả Anthropic giờ cũng hiểu rằng: nếu không tạo ra các sản phẩm thì AGI chỉ là giấc mơ... rất đắt tiền.
Google và Microsoft học hỏi chậm hơn, nhưng có lẽ sắp bị Apple "đánh cho tỉnh". Năm ngoái Apple bị chê là tụt hậu trong cuộc đua AI, nhưng nhìn lại, cái sự chậm mà chắc của họ tại hội nghị WWDC hóa ra lại dễ được lòng người hơn.
Google hiện đang đầu tư nhiều công sức hơn vào việc tích hợp AI vào dòng Pixel và hệ điều hành Android – có vẻ hợp lý hơn là cố nhét nó vào công cụ tìm kiếm. Nhưng mấy cái điện thoại đó vẫn chưa ra, nên hãy cùng ngồi xuống và chờ đợi.
Và cuối cùng là Meta – nơi AI được dùng để tạo nội dung và “kích thích tương tác” trên mạng xã hội phục vụ quảng cáo. Nghe thì hơi ớn, nhưng xét về mặt kinh doanh, đó lại là một nước đi hợp lý. Còn về mặt xã hội? Chà, khó nói đấy.
Năm kiếp nạn lớn mà AI tiêu dùng phải vượt qua
Muốn AI tạo sinh thực sự chen chân vào đời sống người dùng mà không chỉ là món đồ chơi của dân công nghệ thì các nhà phát triển phải đương đầu với năm chướng ngại vật to đùng. Và đây là chúng:
1. Chi phí
Trong nhiều ứng dụng, cái cản trở không phải là “AI chưa đủ thông minh” mà là “ví chưa đủ dày”. Ngay cả một con chatbot tưởng chừng đơn giản cũng cần tính toán từng xu – càng nói chuyện lâu, càng cần nhiều dữ liệu xử lý, và hóa đơn thì cứ thế mà kéo dài như bộ phim Cô dâu tám tuổi.
Nghe đồn chi phí vận hành đã giảm hơn 100 lần trong 18 tháng. Các công ty liên tục nhấn mạnh rằng mô hình ngôn ngữ lớn (LLM) đang, hoặc là sẽ càng ngày càng rẻ hơn. Nhưng xin lỗi, trăm nghe không bằng mắt thấy, bao giờ cho API miễn phí thì hẵng nói chuyện.
Công bằng mà nói, chi phí thấp hơn thì có lợi thật – bởi bạn có thể cho AI làm đi làm lại nhiều lần để cho ra kết quả đúng. Vì LLM vốn hay “mơ mộng giữa ban ngày” – nên cứ thử nhiều lần, thể nào cũng có một lần đúng. Vấn đề là thử nhiều lần thì… lại tốn tiền. Vòng lặp kinh điển: muốn rẻ phải đúng, muốn đúng phải tốn.
Nói thế chứ cũng không bi quan hẳn – hoàn toàn có khả năng là chẳng bao lâu nữa, chi phí sẽ rẻ đến mức… không cần phải đau đầu tối ưu từng đồng từng cắc nữa, ít nhất là với phần lớn ứng dụng.
2. Độ tin cậy
AI có thể làm một việc đúng 90% thời gian. Nghe có vẻ ổn? Không đâu. Nếu bạn đặt vé máy bay và 1 trong 10 lần nó gửi bạn đến Đà Lạt khi bạn gõ Đà Nẵng, thì bạn sẽ hiểu thế nào là “thảm họa”.
Các hệ thống AI học từ thống kê thì gần như không bao giờ đạt được độ chính xác tuyệt đối. Trong nhiều ứng dụng như quảng cáo, chống gian lận hay thậm chí là dự báo thời tiết, chỉ cần tốt hơn mức trung bình là đã đủ xài. Còn khi đưa AI vào sản phẩm tiêu dùng, thì đó lại là một câu chuyện khác. Người dùng lại mong chúng hoạt động như phần mềm truyền thống: chính xác, nhất quán, không giở chứng bất ngờ.
Chuyện dở khóc dở cười là: dân kỹ thuật đã quen sống chung với lỗi – quen đến mức mỗi lần AI "nói nhảm", họ chỉ nhún vai rồi “Ờ, lại thế nữa à”. Nhưng người dùng thường đâu có cam chịu kiểu đó. Và cuối cùng thì cũng tới lúc các công ty phải chịu nhún nhường – biến AI thành thứ gì đó… bớt thất thường và bớt "tự biên tự diễn".
Việc làm cho AI đáng tin vẫn là bài toán mở. Nhóm nghiên cứu bên Princeton tụi tôi cũng đang đào sâu chuyện này. Dù một số công ty đã mạnh miệng tuyên bố “chúng tôi đã trị xong bệnh nói xàm”, nhất là trong lĩnh vực pháp lý, nhưng thực tế thì mấy tuyên bố đó... hơi quá tự tin rồi.
3. Quyền riêng tư
Trước đây, AI hay gắn với việc thu thập dữ liệu nhạy cảm – từ lịch sử tìm kiếm đến hồ sơ bệnh án. Giờ thì khác: LLMs chủ yếu được huấn luyện bằng dữ liệu công khai như sách báo, web… Nhưng đừng vội mừng.
Bởi để làm ra các trợ lý AI hữu dụng, các công ty vẫn phải luyện chúng bằng chính... dữ liệu người dùng. Viết email tốt? Phải được học từ email. Trả lời khéo léo? Phải biết bạn hay nói chuyện kiểu gì.
Rắc rối nằm ở chỗ: không ai rõ các công ty công nghệ hiện tại đang dùng dữ liệu gì, như thế nào. Và các chính sách quyền riêng tư thì vẫn rất mơ hồ.
Chưa hết, vấn đề không chỉ là dữ liệu huấn luyện, mà còn là dữ liệu sử dụng thực tế. Microsoft từng tuyên bố AI của họ sẽ chụp màn hình máy tính người dùng vài giây một lần – để “nhớ việc bạn làm”. Dư luận nổi đóa, họ phải cuống quýt… đính chính.
Nên nhớ: chỉ vì dữ liệu không “rời khỏi thiết bị” không có nghĩa là bạn không bị giám sát. Meredith Whittaker cảnh báo rằng: việc phát hiện gian lận ngay trên thiết bị có thể khiến việc giám sát liên tục trở nên bình thường hóa, và hạ tầng công nghệ phục vụ cho việc đó hoàn toàn có thể bị sử dụng vào các mục đích kiểm soát chặt chẽ hơn.
Dù vậy, nếu được triển khai một cách thận trọng, các cải tiến kỹ thuật vẫn có thể góp phần giảm thiểu rủi ro.
4. An toàn & bảo mật
Có ba mối lo nằm gọn dưới cái mũ “an toàn”:
Lỗi ngoài ý muốn, ví dụ như AI tạo ra những hình ảnh đầy định kiến;
Lạm dụng công nghệ, như deepfake, giả giọng, lừa đảo;
Và hack, đặc biệt là kiểu tấn công khiến AI bị "lừa" làm điều hại người.
Các lỗi ngoài ý muốn trong hệ thống AI nhìn chung có thể khắc phục được.
Còn với phần lớn các hình thức lạm dụng, thực tế thì không thể xây dựng một mô hình hoàn toàn miễn nhiễm với việc bị khai thác sai mục đích. Vì thế, các biện pháp phòng vệ nên được đặt ở tầng triển khai – tức là khi có người sử dụng phần mềm thì cùng lúc đó các quy trình tích hợp và hệ thống kiểm soát cũng phải hoạt động. Nhắc lại: Mô hình không thể tự bảo vệ chính nó.
Điều đáng buồn là: không phải ai cũng đồng tình với quan điểm này, nên các công ty sẽ còn tiếp tục đối mặt với chỉ trích mỗi khi AI bị dùng sai cách. Tuy nhiên, điều đó dường như đã được chấp nhận như một phần chi phí vận hành không thể tránh.
Vấn đề thứ ba là đáng ngại nhất – nhưng lại bị các công ty lơ là nhất: hacking. Có lý do để lo: về lý thuyết, AI có thể bị biến thành “sâu máy” – một dạng ký sinh trùng số, lây lan từ người này sang người khác qua chính trợ lý ảo mà bạn dùng mỗi ngày. Nghe như phim khoa học viễn tưởng? Có thể. Nhưng các cuộc thử nghiệm nội bộ đã cho thấy nó không phải chuyện đùa.
Không rõ lý do là gì. Có thể do trợ lý AI cá nhân chưa được dùng phổ biến. Có thể các lớp phòng vệ tạm thời lại đang đủ dùng. Cũng có thể vì một nguyên nhân khác.
Chưa biết. Cứ chờ đã.
5. Giao diện người dùng
Trong nhiều ứng dụng, việc AI làm sai không hẳn là vấn đề – vấn đề là: người dùng phải sửa sai như thế nào. Với chatbot, dễ thôi: trả lời lại, hoặc hiện ra vài lựa chọn. Nhưng với mấy ứng dụng nghiêm túc hơn – như đặt vé máy bay hay tư vấn tài chính – thì không thể để người dùng vừa dùng vừa... thấp thỏm.
Mọi chuyện càng rối khi giao diện là giọng nói. Nói – nghe – hiểu – làm đúng – là một chuỗi đầy cạm bẫy. Đây là một vùng đất hứa cho AI tạo sinh. Hãy hình dung một trợ lý AI tích hợp trong kính đeo, có thể tự động lên tiếng khi nhận thấy bạn đang nhìn vào một tấm biển bằng ngôn ngữ lạ – không cần ra lệnh, không cần gọi. Trải nghiệm đó khác xa so với những gì hiện có. Nhưng giao diện dạng đó có biên độ sai rất hẹp. Sai một lần thôi cũng đủ phá hỏng toàn bộ trải nghiệm.
Lời kết: Cái bánh vẽ AI – ngon mắt nhưng chưa chắc ăn được
Những người lạc quan thường cho rằng năng lực của AI đang tiến bộ rất nhanh, và vì thế tác động xã hội cũng sẽ đến trong thời gian ngắn. Nghe thì sướng tai, nhưng thường đi kèm với một loại suy nghĩ rất nguy hiểm: “cứ làm nhanh là xong”.
Chúng tôi thì không lạc quan đến thế. Và cũng chẳng dễ bị “lùa” bởi vài biểu đồ uốn cong lên trời.
Thứ nhất, dù AI có khôn lên cấp tốc, thì những vấn đề vừa đề cập ở trên – từ chi phí, độ tin cậy, quyền riêng tư, an toàn đến giao diện người dùng – đều là chuyện xã hội, không chỉ là chuyện kỹ thuật. Mà đã là chuyện xã hội thì không thể giải quyết bằng vài dòng code hay một lần nâng cấp phần mềm. Nó đòi hỏi thời gian, thử-sai, thay đổi thói quen, và cả một đống khổ đau rất… người.
Thứ hai, kể cả khi các vấn đề kỹ thuật đều được xử lý ngon lành, tổ chức, doanh nghiệp và con người vẫn phải học cách sống chung với AI. Phải tích hợp AI vào công việc thật sự – chứ không phải kiểu “gắn thêm cái nút AI cho sang mồm”. Phải huấn luyện nhân viên sử dụng đúng cách, tránh lạm dụng hoặc hiểu nhầm.
Và xin đừng hy vọng những chuyện này xảy ra trong “năm tới”. Không. Đây là chuyện của cả thập kỷ – không phải chuyện một sớm một chiều. Sẽ có sản phẩm thất bại, kỳ vọng bị đập nát, và cả những giấc mơ cần được... viết lại.
Thế nên, nếu bạn đang cầm cờ đi đầu đoàn rước AI – hãy khoan đánh trống. Thay vì chạy đua vẽ ra vị thần số hóa, có lẽ tốt hơn nên bắt đầu bằng... một cái ứng dụng đàng hoàng, dễ dùng, không nói nhảm, và không khiến người ta cảm thấy mình đang bị theo dõi 24/7.
Tạo ra thần thánh thì ai cũng mơ. Nhưng dựng nên được một sản phẩm mà người ta thật sự cần – đó mới là phép màu.
Tác giả: AI Snake Oil
Bài viết gốc: AI companies are pivoting from creating gods to building products. Good.
Dịch thuật và biên tập: Vân Anh