Đạo đức AI - Bảy thách thức chưa có lời giải trong cuộc chạy đua toàn cầu
AI đang dần kiểm soát những khía cạnh quan trọng nhất của xã hội loài người, nhưng, liệu AI có đang hoạt động một cách đạo đức cho xã hội này?
Khoảng cách giữa lý tưởng và thực tế
Hiện tại, toàn cầu đã có ít nhất 84 sáng kiến từ cả khu vực công và tư nhân nhằm đưa ra những quy định về đạo đức AI. Nghe có vẻ ấn tượng đúng không? Nhưng nếu nhìn kỹ hơn, bạn sẽ nhận thấy một vấn đề khó chịu: tất cả những sáng kiến này đang chạy theo những hướng khác nhau, và không có một bản đồ thống nhất nào để dẫn dắt chúng cả.
Một lượng vốn khổng lồ đang được đổ vào lĩnh vực này. Theo dự báo, các khoản đầu tư toàn cầu về đạo đức AI là hơn 10 tỷ đô la trong riêng năm 2025. Điều này chứng minh rằng xã hội nhận thức được tầm quan trọng của vấn đề. Nhưng điều này cũng phơi bày một sự thật cay đắng, rằng: chúng ta còn rất lâu mới có được một khung pháp lý toàn cầu thực sự hiệu quả.
Bảy thách thức toàn cầu đang phải đối mặt
1. Thiếu hụt khung pháp lý toàn cầu thống nhất
Hãy tưởng tượng: bạn là một nhà phát triển AI tại Singapore. Sản phẩm của bạn cần hoạt động tại Châu Âu, Hoa Kỳ, và Trung Quốc. Mỗi nơi lại có những quy tắc hoàn toàn khác nhau. Ở Châu Âu, bạn phải tuân theo EU AI Act với những yêu cầu khắt khe về minh bạch và trách nhiệm. Ở Hoa Kỳ, các quy định lại phân tán giữa các tiểu bang. Ở Trung Quốc, những yêu cầu lại tập trung vào quản lý nội dung và kiểm soát an toàn quốc gia.
Vấn đề là AI có tính chất xuyên quốc gia, tức là một thuật toán được xây dựng ở một nơi có thể tác động đến người dân khắp thế giới. Hơn nữa, các quy tắc “mềm” (hướng dẫn, tuyên bố) hiện nay chiếm đa số, nhưng chúng không có tính bắt buộc mạnh mẽ. Chỉ đến những năm gần đây, chúng ta mới thấy những quy tắc “cứng” (luật pháp chính thức) bắt đầu xuất hiện, tuy nhiên vẫn còn rất ít.
2. Sự mất thống nhất trong Cách tiếp cận và Định nghĩa
Một trong những vấn đề lớn nhất là chúng ta không thể thống nhất được ý kiến về những khái niệm cơ bản.
Hãy lấy “minh bạch” (transparency) - nguyên tắc phổ biến nhất trong mọi tài liệu về đạo đức AI - làm ví dụ. Vậy “minh bạch” thực sự có nghĩa là gì?
→ Đối với Châu Âu, nó có nghĩa là người dùng phải hiểu lý do AI đưa ra quyết định của họ.
→ Đối với Trung Quốc, có thể chỉ đơn giản là tiết lộ cho độc giả rằng các tài liệu có sự tham gia bởi AI.
→ Đối với các công ty công nghệ lớn ở Hoa Kỳ, nó có thể chỉ là việc công khai một số thông tin chung chung.
Điều tương tự cũng xảy ra với “công bằng” (fairness), “trách nhiệm” (accountability), và “quyền riêng tư” (privacy). Ngay cả những khuyến nghị quốc tế từ OECD và UNESCO cũng có những sắc thái khác nhau lớn trong cách diễn giải các nguyên tắc.
3. Sự khác biệt văn hóa chia tách thế giới
Đây là thực trạng mà rất ít người muốn thừa nhận: đạo đức không thể toàn cầu cầu, bởi lẽ nó được hình thành qua văn hóa, lịch sử, tôn giáo, và giá trị xã hội.
Ở Châu Âu, quyền riêng tư được xem là một quyền cơ bản, một phần không thể tách rời của nhân quyền. Ở Hoa Kỳ, quyền riêng tư thường được cân nhắc với nhu cầu kinh tế và đổi mới công nghệ. Ở Trung Quốc, dữ liệu cá nhân được xem là công cộng nhiều hơn vì mục đích là phát triển kinh tế và công nghệ.
Hơn nữa: Châu Á coi AI là công cụ để thúc đẩy phát triển kinh tế. Châu Phi xem AI là phương pháp giải quyết các vấn đề phát triển như nghèo đói và y tế. Mỹ Latinh tập trung vào việc sử dụng AI để giảm bất bình đẳng xã hội. Châu Âu ưu tiên bảo vệ quyền cơ bản và giá trị dân chủ.
Đây không phải là những sai khác nhỏ, chúng là những khác biệt về triết học sâu sắc về cách mà con người nên tổ chức cuộc sống của mình.
4. Sự mất cân bằng quyền lực trong cuộc đấu tranh quốc tế
Một hiện thực đau lòng là: những quốc gia giàu có đang định hình cuộc tranh luận về AI.
Theo phân tích từ nghiên cứu về bình cảnh đạo đức AI toàn cầu, 63% các tài liệu về đạo đức AI đến từ Châu Âu và các nước phương Tây. Điều này có nghĩa là:
Các quốc gia chưa phát triển hầu như không có tiếng nói trong cuộc đấu tranh này
Các giá trị văn hóa phương Tây, đặc biệt là quan niệm về chủ nghĩa cá nhân đang được áp dụng cho toàn bộ thế giới
Kiến thức địa phương và sự đa dạng văn hóa bị bỏ qua
Thực tế là, các quốc gia phát triển lớn như Hoa Kỳ, ngay cả khi công khai nói rằng AI là “vì nhân loại” vẫn sử dụng nó như một công cụ để duy trì lãnh đạo quốc tế và quyền tối cao kinh tế-công nghệ của họ.
5. Làm thế nào để đảm bảo AI thực sự hoạt động một cách đạo đức?
Đây là câu hỏi mà hầu hết các chuyên gia đều tránh trả lời trực tiếp.
Các công ty công nghệ lớn đã công khai tuyên bố rằng họ sẽ tuân theo các nguyên tắc đạo đức. Google, Microsoft, SAP,… tất cả đều có những bản tuyên bố về cam kết của họ. Nhưng có bao nhiêu người thực sự chứng minh được rằng họ đang làm vậy?
Vấn đề là không có cơ chế kiểm tra độc lập nào. Không giống như ngành y khoa, các bác sĩ phải cam kết “phục vụ cộng đồng” và có những hậu quả pháp lý nếu không làm vậy, AI hiện nay chưa trở thành một ngành chính thức với những quy tắc thực thi rõ ràng.
Hơn nữa, những tuyên bố cam kết của các công ty có phạm vi hạn chế chỉ áp dụng trong một số lĩnh vực nhất định, và chúng không có sức ràng buộc pháp lý mạnh mẽ.
6. Trách nhiệm thuộc về ai?
Hãy tưởng tượng một tình huống: một thuật toán AI được sử dụng bởi một ngân hàng từ chối cho bạn một khoản vay vì nó phát hiện bạn có điểm rủi ro cao. Bạn phản đối và hỏi: “Ai chịu trách nhiệm cho quyết định này?”
Có phải lỗi của nhà phát triển vì họ xây dựng một thuật toán thiên vị?
Có phải lỗi của ngân hàng vì họ quyết định sử dụng AI?
Có phải lỗi của công ty cung cấp dữ liệu vì họ cung cấp những thông tin sai lệch?
Hay AI tự chịu trách nhiệm, dù nó chỉ là một chương trình máy tính?
Thực tế là, hệ thống pháp lý hiện tại không có câu trả lời rõ ràng. Các khung pháp lý mới như EU AI Act bắt đầu cố gắng giải quyết vấn đề này, nhưng vẫn còn rất nhiều điểm mơ hồ.
Thêm vào đó, có một vấn đề pháp lý khác liên quan đến sở hữu trí tuệ. Nếu AI tạo ra một phát minh hoặc tác phẩm nghệ thuật, ai sở hữu nó? Các cuộc tranh chấp giữa tác giả con người và AI về quyền sở hữu trí tuệ đang bắt đầu xảy ra, nhưng hệ thống pháp lý vẫn chưa sẵn sàng.
7. Công chúng vẫn còn mù mờ về AI
Có một vấn đề lớn về nhận thức xã hội mà rất ít người nói tới: hầu hết mọi người không hiểu AI là gì, và nó tác động đến họ như thế nào.
Văn hóa phổ thông, có thể kể tới những bộ phim khoa học viễn tưởng, các cuốn tiểu thuyết, những câu chuyện cứu rỗi hoặc diệt vong, đã tạo ra những hình ảnh không chính xác về AI. Nhiều người tưởng rằng AI là những con robot nhân hình thông minh, trong khi thực tế, hầu hết các ứng dụng AI hiện tại chỉ là những thuật toán xử lý dữ liệu mà bạn không thể thấy.
Ngoài ra còn một vài điểm đáng để tâm:
Phần lớn mọi người không nhận ra mức độ mà xã hội hiện đại phụ thuộc vào AI
Công chúng thiếu kiến thức để đánh giá xem các hệ thống AI có công bằng hay không
Sự nhân cách hóa AI (xem AI như một thực thể có ý định) dẫn đến những phản ứng không hợp lý, dựa trên cảm xúc hơn là lý trí
Kết quả là, khi các quyết định quan trọng được đưa ra về AI, công chúng không có đủ kiến thức để tham gia một cách có ý thức.
Các khung pháp lý đang hình thành
Để có một cái nhìn toàn diện, hãy xem xét những nỗ lực hiện tại:
Cấp độ quốc tế:
UNESCO (2021): Đưa ra 5 khuyến nghị chính về đạo đức AI
OECD (2019): Công bố 5 nguyên tắc cơ bản được thừa nhận bởi G-20
IEEE: Xuất bản “Ethically Aligned Design” (Khung Thiết kế phù hợp với đạo đức”)
ISO/IEC: Ban hành tiêu chuẩn quản trị AI và tính minh bạch
Cấp độ khu vực:
Châu Âu: Dẫn đầu với EU AI Act (có hiệu lực từ tháng 8 năm 2024), cùng với những quy định khác như GDPR
Mỹ Latinh: Lần đầu tiên tổ chức Hội nghị Đạo đức về AI Mỹ Latinh vào tháng 11/2024
Châu Á-Thái Bình Dương: Các quốc gia như Nhật Bản, Singapore, và Hàn Quốc đang xây dựng khung pháp lý của riêng mình
Cấp độ Quốc gia:
Trung Quốc: Nguyên tắc AI và Sách trắng về tiêu chuẩn AI
Canada: Chỉ thị về sử dụng AI tự động hóa
Hoa Kỳ: Các quy định ở cấp liên bang và tiểu bang, cùng với Sắc lệnh hành pháp năm 2019
Những nỗ lực này cho thấy một sự thức tỉnh toàn cầu, nhưng chúng cũng chứng minh rằng không có sự thống nhất.
Liệu có tồn tại những nguyên tắc chung?
Mặc dù có sự khác biệt, các tài liệu từ khắp thế giới đều nhấn mạnh một số nguyên tắc chung:
Minh bạch: Người dùng phải biết họ đang tương tác với AI.
Công lý và Công bằng: AI không nên phân biệt đối xử.
Không gây hại: AI không nên gây ra những kết quả tiêu cực không lường trước.
Trách nhiệm: Ai đó phải chịu trách nhiệm.
Quyền riêng tư : Dữ liệu cá nhân phải được bảo vệ.
Nhưng như đã thảo luận, cách diễn giải những nguyên tắc này lại khác nhau rất lớn tùy theo bối cảnh.
Chúng ta sẽ đi về đâu?
Tình hình hiện tại là một cuộc chạy đua không có điểm kết thúc. Các quốc gia, tổ chức quốc tế, và doanh nghiệp tư nhân đang cạnh tranh để định hình cách mà AI sẽ được điều chỉnh, và mỗi bên đều có lợi ích riêng.
Châu Âu muốn bảo vệ quyền của công dân. Trung Quốc muốn duy trì sự ổn định xã hội. Hoa Kỳ muốn bảo vệ lãnh đạo công nghệ của mình. Các quốc gia đang phát triển muốn được phát triển mà không bị trì hoãn bởi những hạn chế.
Vấn đề là: không ai đang nghĩ đến những người bị ảnh hưởng nhất - công chúng.
Kết luận
Có lẽ chúng ta đang cố gắng ứng phó với một hiện tượng công nghệ có quy mô và tốc độ chưa từng có bằng cách sử dụng các khái niệm đạo đức lâu đời và những cơ chế pháp lý lỗi thời.
Để tiếp cận điều này, một số những thảo luận có thể đưa ra là:
Hợp tác quốc tế thực sự, không phải để áp đặt một bộ quy tắc từ phương Tây cho toàn bộ thế giới
Đa dạng văn hóa trong cuộc tranh luận, với giọng nói từ Châu Phi, Mỹ Latinh, và Châu Á được nghe một cách công bằng
Quy định có tính bắt buộc thực sự không chỉ là những hướng dẫn mềm mại mà không ai phải tuân theo
Giáo dục công chúng để những người bị ảnh hưởng bởi AI nhiều nhất có thể tham gia vào cuộc tranh luận
Tính linh hoạt: bởi vì AI đang thay đổi nhanh chóng, và các quy tắc cần phải thích ứng ngay lập tức với sự thay đổi
Cuộc hành trình này vẫn còn rất dài, và những thách thức đã liệt kê ở trên là những chướng ngại khó có thể bỏ qua.
Điều tích cực là chúng ta vẫn còn có cơ hội để hình thành tương lai này.
Và câu hỏi là: chúng ta sẽ chọn làm gì?
Bài viết này dựa trên bài luận “Đạo Đức AI - Những Thách Thức Về Một Khung Pháp Lý Toàn Cầu” của Nguyễn Khánh Linh, cùng với các dữ liệu cập nhật từ 2024-2025 về quy định AI toàn cầu.
Liên hệ để được huấn luyện chuyên sâu về tư duy tự học cùng AI (cá nhân) hoặc tư vấn chiến lược ứng dụng AI cho doanh nghiệp (cho lãnh đạo, quản lý):
NHẮN VỀ TẠI ĐÂY (Ms. Ngọc Bích)
Nếu thấy những nội dung từ Tự Học cùng AI hữu ích và muốn ủng hộ để cộng đồng tiếp tục có thêm những kiến thức chọn lọc và chất lượng về AI Ứng Dụng cho Công việc dưới góc độ Tư Duy Hệ Thống, bạn có thể gửi sự đóng góp của mình về:
- Ngân hàng TPBank | STK: 0868355261 | Chủ TK: Le Ngoc Bich
- Nội dung: Họ tên của bạn + Ung Ho THCAI


