AI và vấn đề đạo đức: Ai chịu trách nhiệm khi máy móc gây hậu quả?

-,Blogs

Trong thời đại công nghệ số phát triển mạnh mẽ, trí tuệ nhân tạo (AI) đang dần thâm nhập vào mọi khía cạnh của cuộc sống xã hội, từ những quyết định kinh doanh quan trọng đến các dịch vụ y tế cứu người. Tuy nhiên, khi các hệ thống AI ngày càng tự chủ và phức tạp, một câu hỏi then chốt đang nổi lên: khi công nghệ này gây ra những hậu quả không mong muốn, ai sẽ phải chịu trách nhiệm? Đây không chỉ là một vấn đề kỹ thuật mà còn là một thách thức pháp lý và đạo đức sâu sắc đòi hỏi sự cân nhắc kỹ lưỡng từ các nhà hoạch định chính sách, doanh nghiệp và xã hội.

Bối cảnh này đặc biệt quan trọng đối với các doanh nghiệp Việt Nam đang trên hành trình chuyển đổi số. Leandix, với vai trò là đối tác hàng đầu trong việc triển khai các giải pháp Odoo ERP tích hợp AI, hiểu rõ tầm quan trọng của việc ứng dụng trí tuệ nhân tạo một cách có trách nhiệm. Thông qua việc kết hợp công nghệ AI tiên tiến với hệ thống quản lý doanh nghiệp toàn diện, Leandix không chỉ giúp các doanh nghiệp tối ưu hóa hoạt động mà còn đảm bảo rằng việc sử dụng AI tuân thủ các nguyên tắc đạo đức và minh bạch cao nhất.

1. Khung pháp lý toàn cầu về trách nhiệm AI

1.1. Xu hướng quy định AI năm 2025

Năm 2025 đánh dấu một bước ngoặt quan trọng trong việc xây dựng khung pháp lý toàn cầu cho AI. Liên minh châu Âu tiếp tục dẫn đầu với Đạo luật AI (AI Act) có hiệu lực từ tháng 8 năm 2024, thiết lập các tiêu chuẩn nghiêm ngặt cho các hệ thống AI có rủi ro cao. Đạo luật này yêu cầu các nhà cung cấp AI phải thực hiện đánh giá rủi ro toàn diện, đảm bảo tính minh bạch và duy trì sự giám sát của con người trong các quyết định quan trọng.​

Tại Hội nghị thượng đỉnh AI Paris tháng 2 năm 2025, các nhà lãnh đạo toàn cầu đã nhấn mạnh nguyên tắc “AI vì con người – an toàn, tự chủ, hợp tác, bao trùm và bền vững”. Tổng thống Pháp Emmanuel Macron tuyên bố rằng “AI là một cuộc cách mạng phải phục vụ nhân loại – nó nên cải thiện cuộc sống, không chỉ là công nghệ”. Điều này phản ánh sự chuyển dịch từ việc phát triển AI đơn thuần vì lợi ích kỹ thuật sang việc ưu tiên các giá trị con người.​

Ở châu Á, Singapore đã tích hợp các phát triển AI tạo sinh mới nhất vào Khung Quản trị AI Mẫu được đề xuất, trong khi Trung Quốc phát hành dự thảo quy định AI mới để đảm bảo huấn luyện dữ liệu an toàn. Việt Nam cũng không đứng ngoài xu hướng này, với Bộ Khoa học và Công nghệ ban hành các nguyên tắc nghiên cứu và phát triển AI có trách nhiệm vào tháng 6 năm 2024.​

1.2. Mô hình trách nhiệm chia sẻ

Một trong những xu hướng nổi bật nhất trong quy định AI là việc chuyển từ mô hình trách nhiệm đơn lẻ sang mô hình trách nhiệm chia sẻ. Nghiên cứu của Ủy ban Nghị viện châu Âu cho thấy rằng trách nhiệm pháp lý cần được phân bổ giữa nhiều bên liên quan, bao gồm các nhà phát triển AI, người triển khai hệ thống, quản trị viên bệnh viện và thậm chí cả các cơ quan quản lý.​

Mô hình này đặc biệt phù hợp với thực tế rằng hầu hết các hệ thống AI hiện đại đều liên quan đến một chuỗi giá trị phức tạp. Ví dụ, trong lĩnh vực y tế, một quyết định AI có thể được ảnh hưởng bởi dữ liệu huấn luyện từ các nhà cung cấp dữ liệu, thuật toán được phát triển bởi các công ty công nghệ, và việc triển khai thực tế bởi các cơ sở y tế. Khi xảy ra sự cố, việc xác định một bên duy nhất chịu trách nhiệm trở nên cực kỳ khó khăn và không công bằng.​

1.3. Nguyên tắc minh bạch và trách nhiệm giải trình

Yêu cầu về minh bạch trong AI đã trở thành một trong những trụ cột chính của các khung pháp lý toàn cầu. Đạo luật AI của EU yêu cầu các nhà cung cấp hệ thống AI có rủi ro cao phải tiết lộ các đặc điểm chính của mô hình, bao gồm dữ liệu huấn luyện, kiến trúc mô hình và các chỉ số hiệu suất. Tại Hoa Kỳ, Đạo luật Trách nhiệm Thuật toán được đề xuất năm 2023 sẽ yêu cầu đánh giá tác động đối với các hệ thống quyết định tự động có rủi ro cao.​

Tuy nhiên, việc đạt được minh bạch thực sự trong AI vẫn là một thách thức lớn. Nghiên cứu cho thấy rằng việc giải thích các hệ thống AI phức tạp có thể vẫn rất kỹ thuật và khó hiểu đối với các cá nhân bị ảnh hưởng và các cơ quan quản lý. Điều này đòi hỏi sự phát triển của các công cụ và phương pháp mới để làm cho AI trở nên dễ hiểu hơn đối với người dùng cuối.​

postnam43 1

2. Các trường hợp thực tế về trách nhiệm AI

2.1. Lĩnh vực y tế và chăm sóc sức khỏe

Ngành y tế đang chứng kiến sự gia tăng nhanh chóng trong việc sử dụng AI, với thị trường AI trong y tế đạt 20,9 tỷ USD vào năm 2024 và dự kiến tăng lên 148,4 tỷ USD vào năm 2029. Tuy nhiên, việc sử dụng AI trong y tế cũng đặt ra những câu hỏi phức tạp về trách nhiệm khi xảy ra sai sót.​

Một nghiên cứu phân tích 31 vụ kiện và báo cáo tổn hại liên quan đến AI trong y tế cho thấy rằng hầu hết các vụ việc đều liên quan đến việc AI can thiệp vào quyết định lâm sàng của bác sĩ. Trong nhiều trường hợp, các hệ thống AI được sử dụng bởi các công ty bảo hiểm y tế đã từ chối cung cấp dịch vụ chăm sóc cần thiết cho bệnh nhân cao tuổi dựa trên dự đoán AI về thời gian hồi phục, ngay cả khi bác sĩ và hồ sơ y tế cho thấy bệnh nhân cần thời gian dài hơn để hồi phục.​

Các vụ kiện này chủ yếu được khởi xướng bởi các cá nhân bị ảnh hưởng hoặc các nhóm vận động như ACLU. Đáng chú ý, các hệ thống được sử dụng bởi các cơ quan nhà nước thường bị dừng nhanh chóng hơn do vi phạm quyền của các nhóm dễ bị tổn thương, trong khi các thuật toán được triển khai bởi các công ty tư nhân thường hoạt động lâu hơn và chỉ bị dừng khi có các vụ kiện tập thể.​

2.2. Xe tự lái và trách nhiệm trong giao thông

Lĩnh vực xe tự lái đặt ra những thách thức đạo đức và pháp lý độc đáo. Với hơn 60% xe trên đường hiện có một mức độ tự động nào đó, việc xác định trách nhiệm khi xảy ra tai nạn trở thành một vấn đề phức tạp. Các nghiên cứu gần đây đề xuất một mô hình trách nhiệm chia sẻ, trong đó cả nhà sản xuất và người lái xe đều có trách nhiệm dựa trên mức độ tự động của xe và bối cảnh tình huống.​

Đối với xe tự lái cấp độ 4 và 5, nơi việc lái xe được xử lý hoàn toàn bởi xe và có thể không có người lái trong xe, các vấn đề trách nhiệm chính phát sinh. Các xe taxi tự lái của Waymo là ví dụ về xe tự lái cấp độ 4, hoạt động hoàn toàn tự động trong các điều kiện cụ thể của “miền thiết kế hoạt động” (ODD). Tương tự, các robotaxi mới của Tesla được ra mắt tại Austin, Texas vào cuối tháng 6 cũng hoạt động ở chế độ tự động.​

Một số học giả đề xuất áp dụng tiêu chuẩn “người lái xe hợp lý” cho xe tự lái, có nghĩa là hệ thống AI cần phải thực hiện ít nhất tương đương với những gì một người lái xe hợp lý sẽ làm trong cùng tình huống. Cách tiếp cận này tránh được những suy đoán triết học về thời điểm xe tự lái đạt đủ tự chủ để trở thành các tác nhân pháp lý độc lập.​

2.3. Nhận dạng khuôn mặt và phân biệt chủng tộc

Các hệ thống nhận dạng khuôn mặt đã trở thành một trong những ví dụ rõ ràng nhất về cách AI có thể gây ra tổn hại do thiên kiến thuật toán. Vụ việc của Pa Edrissa Manjang, một tài xế Uber Eats người da đen, đã nhận được khoản bồi thường sau khi cáo buộc rằng phần mềm nhận dạng khuôn mặt được sử dụng để truy cập ứng dụng làm việc có “thiên kiến chủng tộc”.​

Manjang đã làm việc cho Uber Eats ở Oxfordshire từ tháng 11 năm 2019. Vào năm 2021, anh bị đình chỉ vĩnh viễn khỏi nền tảng sau một lần kiểm tra nhận dạng khuôn mặt thất bại do “sự không khớp liên tục”. Anh đã nói với công ty sau khi bị đình chỉ: “Thuật toán của các bạn có vẻ như là phân biệt chủng tộc và điều này cần được giải quyết vì nó không thể nhận dạng và xác minh ảnh của tôi”.​

Ủy ban Bình đẳng và Nhân quyền (EHRC) và Liên đoàn Tài xế và Người giao hàng Ứng dụng đã tài trợ cho vụ việc của Manjang, quan ngại về việc sử dụng AI trong các kiểm tra nhận dạng khuôn mặt đã làm anh mất thu nhập. Microsoft trước đây đã thừa nhận rằng phần mềm nhận dạng khuôn mặt của họ hoạt động kém hơn đối với những người thuộc các nhóm thiểu số dân tộc.​

postnam43 2

3. Thách thức trong việc xác định trách nhiệm AI

3.1. Vấn đề “hộp đen” trong AI

Một trong những thách thức lớn nhất trong việc xác định trách nhiệm AI là bản chất “hộp đen” của nhiều hệ thống AI hiện đại. Các mạng nơ-ron sâu, mặc dù có khả năng đưa ra các quyết định chính xác, thường hoạt động theo cách mà ngay cả các nhà phát triển cũng không thể giải thích đầy đủ. Sự thiếu minh bạch này tạo ra những thách thức đáng kể cho việc xác định trách nhiệm.​

Vụ việc Houston Federation of Teachers v. Houston Independent School District là một ví dụ điển hình. Liên đoàn Giáo viên Houston đã kiện học khu về việc sử dụng Hệ thống Đánh giá Giá trị Gia tăng Giáo dục (EVAAS), một công cụ AI được sử dụng để đánh giá hiệu suất giáo viên. Liên đoàn lập luận rằng thuật toán này không minh bạch và thiếu giải thích đầy đủ cho các kết quả đầu ra, khiến giáo viên khó có thể thách thức các đánh giá của họ.​

Để giải quyết vấn đề này, các nhà nghiên cứu đã phát triển các kỹ thuật AI Có thể Giải thích (XAI) như LIME (Giải thích Mô hình Cục bộ Có thể Diễn giải) và SHAP (Giá trị Shapley Phụ thuộc). Những công cụ này cung cấp các mô hình cục bộ, có thể diễn giải để giải thích các dự đoán của bất kỳ bộ phân loại nào. Tuy nhiên, việc cân bằng giữa độ phức tạp của mô hình và khả năng diễn giải vẫn là một thách thức lớn.​

3.2. Thiên kiến thuật toán và công bằng

Thiên kiến thuật toán đại diện cho một trong những vấn đề đạo đức nghiêm trọng nhất trong AI hiện tại. Thiên kiến này có thể biểu hiện theo nhiều cách khác nhau, chẳng hạn như phân biệt chủng tộc hoặc giới tính, bất bình đẳng kinh tế xã hội, hoặc đối xử không công bằng dựa trên các đặc điểm cá nhân.​

Hệ thống COMPAS (Profiling Quản lý Tội phạm Hiệu chỉnh cho Các Biện pháp Thay thế) là một ví dụ nổi tiếng về thiên kiến AI trong hệ thống tư pháp. Theo ProPublica, một tạp chí điều tra, hệ thống này có thiên kiến và phân biệt đối xử với mọi người dựa trên chủng tộc. Nó thất bại trong trường hợp của các bị cáo da đen, với những người phạm tội da đen gần như có khả năng gấp đôi so với những người phạm tội da trắng được xếp vào nhóm rủi ro cao nhưng không tái phạm.​

Điều đáng chú ý là chủng tộc không phải là một đặc điểm rõ ràng được mô hình xem xét. Điều này cho thấy thiên kiến có thể xuất hiện trong các hệ thống AI ngay cả khi các biến được bảo vệ không được sử dụng trực tiếp, thông qua các biến proxy hoặc tương quan ẩn trong dữ liệu.​

3.3. Xung đột giữa GDPR và Đạo luật AI

Một thách thức pháp lý mới nổi là xung đột tiềm tàng giữa Quy định Bảo vệ Dữ liệu Chung (GDPR) và Đạo luật AI của EU trong việc xử lý thiên kiến thuật toán. Đạo luật AI cho phép xử lý dữ liệu cá nhân nhạy cảm như dữ liệu chủng tộc hoặc sức khỏe để phát hiện và sửa chữa thiên kiến thuật toán trong các hệ thống AI có rủi ro cao. Tuy nhiên, GDPR yêu cầu sự đồng ý rõ ràng để xử lý dữ liệu nhạy cảm, tạo ra xung đột cho các công ty cố gắng tuân thủ cả hai quy định.​

Điều 10(5) của Đạo luật AI cho phép linh hoạt hơn bằng cách cho phép xử lý dữ liệu nhạy cảm mà không cần sự đồng ý rõ ràng để ngăn ngừa hoặc sửa chữa thiên kiến thuật toán, với điều kiện có các biện pháp bảo vệ mạnh mẽ. Sự linh hoạt này trực tiếp xung đột với các điều kiện nghiêm ngặt hơn của GDPR, làm tăng cường xung đột AI-GDPR.​

postnam43 3

4. Khung pháp lý của Việt Nam về AI

4.1. Chiến lược AI quốc gia và luật AI đầu tiên

Việt Nam đang thể hiện cam kết mạnh mẽ trong việc phát triển AI có trách nhiệm. Vào ngày 15 tháng 9 năm 2025, Bộ Khoa học và Công nghệ Việt Nam đã công bố rằng đất nước sẽ ban hành phiên bản cập nhật của Chiến lược AI Quốc gia (lần đầu được ban hành năm 2021) và Luật AI đầu tiên vào cuối năm nay. Bộ nhấn mạnh rằng chiến lược AI không chỉ là một khung pháp lý mà là cam kết áp dụng AI để đưa Việt Nam vào một kỷ nguyên mới.​

Tầm nhìn chiến lược của Việt Nam là tận dụng AI cho tăng trưởng kinh tế, phát triển xã hội và năng lực cạnh tranh toàn cầu, dưới nguyên tắc chỉ đạo “AI vì con người – an toàn, tự chủ, hợp tác, bao trùm và bền vững”. Chiến lược cập nhật định vị AI như cơ sở hạ tầng quốc gia cốt lõi, có thể so sánh với điện hoặc internet, nhằm cung cấp cho mỗi công dân một “trợ lý kỹ thuật số cá nhân”.​

4.2. Sáu nguyên tắc cốt lõi cho pháp luật AI

Luật AI của Việt Nam sẽ được xây dựng dựa trên sáu nguyên tắc cốt lõi sau:​

  1. Quy định dựa trên rủi ro: Tiếp cận phân tầng theo mức độ rủi ro của các hệ thống AI, tương tự như Đạo luật AI của EU.
  2. Minh bạch và trách nhiệm giải trình: Đảm bảo các hệ thống AI có thể được giải thích và những người chịu trách nhiệm có thể được xác định.
  3. Phát triển lấy con người làm trung tâm: Ưu tiên lợi ích và quyền con người trong thiết kế và triển khai AI.
  4. Tự chủ AI trong nước: Phát triển năng lực AI độc lập để giảm phụ thuộc vào công nghệ nước ngoài.
  5. AI như động lực tăng trưởng bền vững: Sử dụng AI để thúc đẩy phát triển kinh tế xã hội lâu dài.
  6. Chủ quyền số: Với dữ liệu, cơ sở hạ tầng và công nghệ AI là ba trụ cột chiến lược.

4.3. Bộ quy tắc đạo đức AI và khuyến khích thị trường

Một Bộ quy tắc Đạo đức AI Quốc gia sẽ đi kèm với luật sắp tới, phù hợp với các tiêu chuẩn quốc tế nhưng được điều chỉnh theo bối cảnh Việt Nam. Chính phủ nhấn mạnh các tiêu chuẩn mở và phát triển mã nguồn mở.​

Chính phủ có kế hoạch mở rộng việc áp dụng AI trong nước, đặc biệt trong các dịch vụ công và các ngành công nghiệp chủ chốt. Quỹ Đổi mới Công nghệ Quốc gia (NATIF) sẽ phân bổ ít nhất 40% ngân sách cho các dự án AI, ưu tiên các doanh nghiệp vừa và nhỏ thông qua voucher cho các giải pháp AI được phát triển trong nước.​

Luật Công nghiệp Công nghệ Số đã giới thiệu các danh mục hệ thống AI (rủi ro cao, tác động cao, khác) với các nghĩa vụ nghiêm ngặt hơn đối với các hệ thống rủi ro cao hơn. Nó cũng đưa ra các yêu cầu về nhận dạng, chẳng hạn như tiết lộ khi người dùng tương tác với AI và bao gồm các dấu hiệu có thể nhận dạng được trên các sản phẩm kỹ thuật số do AI tạo ra.​

postnam43 4

5. Giải pháp và khuyến nghị

5.1. Xây dựng khung trách nhiệm toàn diện

Để giải quyết những thách thức phức tạp về trách nhiệm AI, cần phải xây dựng một khung trách nhiệm toàn diện bao gồm nhiều lớp bảo vệ và trách nhiệm. Khung này cần phải bao gồm bốn yếu tố chính như được đề xuất bởi các chuyên gia pháp lý châu Âu.​

Đầu tiên, khung pháp lý cần được mã hóa dưới dạng Quy định, theo xu hướng chung của EU chuyển từ Chỉ thị sang Quy định. Chỉ có Quy định Trách nhiệm AI (AILR) mới cho phép hài hòa hoàn toàn giữa các quốc gia thành viên, loại bỏ sự phân mảnh pháp lý có thể dẫn đến một cánh đồng kiện tụng cho các công ty AI và quyền bồi thường không chắc chắn cho người khiếu nại.​

Thứ hai, điều quan trọng là các cơ quan EU ngăn chặn tình huống mà nạn nhân của tổn hại liên quan đến AI phải tham gia vào các vụ kiện tốn kém, kéo dài nhiều năm chỉ để chứng minh rằng hệ thống AI gây ra thiệt hại. Các điều khoản về đảo ngược gánh nặng chứng minh phải được đưa ra một cách đúng đắn và phù hợp với Đạo luật AI.​

5.2. Đầu tư vào công nghệ AI có thể giải thích

Việc phát triển và triển khai công nghệ AI có thể giải thích (XAI) là chìa khóa để giải quyết vấn đề “hộp đen” trong AI. Các công ty cần đầu tư vào các công cụ và kỹ thuật cho phép họ giải thích các quyết định AI một cách rõ ràng và dễ hiểu.​

Một số công cụ XAI được sử dụng rộng rãi bao gồm các thuật toán mã nguồn mở như LIME, SHAP, bộ công cụ AI Explainability 360 của IBM, What-If Tool của Google và InterpretML của Microsoft. Các tổ chức cần đảm bảo rằng nhóm XAI cốt lõi luôn theo dõi sự đổi mới nhanh chóng trong lĩnh vực này.​

Việc xây dựng niềm tin AI đòi hỏi một sự thúc đẩy mạnh mẽ đối với tính minh bạch trên toàn ngành và các tiêu chuẩn đo lường được chuẩn hóa không chỉ giúp người dùng hiểu các hệ thống AI tốt hơn mà còn phù hợp với kỳ vọng của các cơ quan quản lý. Ví dụ, các nỗ lực đo lường của Hugging Face trong việc đo lường và theo dõi việc tuân thủ Đạo luật AI của EU, và trọng tâm của sáng kiến COMPL-AI về đánh giá và đo lường tính minh bạch của mô hình là những bước quan trọng hướng tới trách nhiệm giải trình cao hơn.​

5.3. Phát triển quy trình quản trị AI

Các tổ chức cần thiết lập các quy trình quản trị AI mạnh mẽ để đảm bảo việc sử dụng AI có trách nhiệm. Điều này bao gồm việc thành lập các ủy ban đạo đức AI, thực hiện đánh giá tác động AI và duy trì tài liệu toàn diện về các hệ thống AI.​

Quản trị AI hiệu quả đòi hỏi sự kết hợp giữa giám sát con người và các công cụ tự động. Các hệ thống “con người trong vòng lặp” (HITL) đảm bảo rằng các quyết định quan trọng có thể được con người xem xét và ghi đè khi cần thiết. Đồng thời, các công cụ giám sát AI liên tục có thể phát hiện sự sai lệch trong hiệu suất mô hình và kích hoạt cảnh báo khi hành vi của mô hình lệch khỏi ngưỡng có thể chấp nhận được.​

Các tổ chức cũng cần phát triển các chính sách rõ ràng về việc sử dụng AI, bao gồm các hướng dẫn về khi nào và như thế nào AI có thể được sử dụng, ai chịu trách nhiệm về các quyết định AI, và làm thế nào để xử lý các sự cố liên quan đến AI. Những chính sách này cần được cập nhật thường xuyên để phản ánh các phát triển công nghệ và quy định mới.

postnam43 5

Kết luận

Câu hỏi về trách nhiệm khi AI gây ra hậu quả không mong muốn không có câu trả lời đơn giản. Trong thời đại mà AI ngày càng thâm nhập sâu vào mọi khía cạnh của cuộc sống, từ quyết định y tế đến giao thông tự động, việc xây dựng một khung trách nhiệm toàn diện và công bằng trở thành một nhiệm vụ cấp bách của toàn xã hội.

Các xu hướng toàn cầu cho thấy sự chuyển dịch từ mô hình trách nhiệm đơn lẻ sang mô hình trách nhiệm chia sẻ, trong đó tất cả các bên liên quan trong chuỗi giá trị AI – từ nhà phát triển, nhà cung cấp dữ liệu, đến người triển khai và người dùng cuối – đều có vai trò và trách nhiệm tương ứng. Điều này phản ánh bản chất phức tạp và đa chiều của các hệ thống AI hiện đại.

Việt Nam, với việc chuẩn bị ban hành Luật AI đầu tiên và Chiến lược AI Quốc gia cập nhật, đang thể hiện tầm nhìn tiến bộ trong việc cân bằng giữa đổi mới công nghệ và bảo vệ quyền con người. Sáu nguyên tắc cốt lõi được đề xuất – từ quy định dựa trên rủi ro đến phát triển lấy con người làm trung tâm – tạo ra một nền tảng vững chắc cho việc phát triển AI có trách nhiệm tại Việt Nam.

Đối với các doanh nghiệp, thách thức không chỉ nằm ở việc tuân thủ các quy định mà còn ở việc chủ động xây dựng một văn hóa AI có trách nhiệm. Điều này đòi hỏi đầu tư vào công nghệ AI có thể giải thích, thiết lập quy trình quản trị AI mạnh mẽ, và đào tạo nhân viên về các vấn đề đạo đức AI. Các công ty như Leandix, với việc tích hợp AI vào các giải pháp Odoo ERP, đang đi đầu trong việc chứng minh rằng có thể vừa tận dụng sức mạnh của AI vừa đảm bảo tính minh bạch và trách nhiệm giải trình.

Cuối cùng, trách nhiệm trong AI không chỉ là vấn đề pháp lý hay kỹ thuật mà còn là vấn đề đạo đức căn bản. Khi chúng ta trao quyền cho máy móc đưa ra các quyết định có thể ảnh hưởng đến cuộc sống con người, chúng ta cũng phải đảm bảo rằng có những cơ chế rõ ràng để xác định trách nhiệm, bồi thường thiệt hại và học hỏi từ sai lầm. Chỉ bằng cách này, chúng ta mới có thể xây dựng một tương lai AI vừa mạnh mẽ vừa đáng tin cậy, phục vụ lợi ích của toàn nhân loại.


Nguồn tham khảo

  1. GDP RLocal – Top 5 AI Governance Trends for 2025
    https://gdprlocal.com/top-5-ai-governance-trends-for-2025-compliance-ethics-and-innovation-after-the-paris-ai-action-summit/
  2. Dataversity – Top Ethical Issues with AI and Machine Learning
    https://www.dataversity.net/articles/top-ethical-issues-with-ai-and-machine-learning/
  3. FPT Software – Top 5 AI Trends in 2025
    https://fptsoftware.com/resource-center/blogs/top-5-ai-trends-in-2025
  4. Tilleke & Gibbins – Vietnam’s AI Push: Updated National Strategy and First AI Law
    https://www.tilleke.com/insights/vietnams-ai-push-updated-national-strategy-and-first-ai-law-by-end-of-2025/
  5. Solute Labs – AI in Healthcare: Accountability, Responsibility & Transparency
    https://www.solutelabs.com/blog/ai-healthcare-accountability-responsibility-transparency
  6. Research Archive – Liability Of Autonomous Vehicles
    https://research-archive.org/index.php/rars/preprint/view/2655
  7. People Management – Uber Eats worker wins payout over ‘racist’ AI facial recognition
    https://www.peoplemanagement.co.uk/article/1866835/uber-eats-worker-wins-payout-racist-ai-facial-recognition-%E2%80%93-hr-learn
  8. Infused Innovations – Responsible AI – Accountability
    https://infusedinnovations.com/blog/responsible-ai-accountability
  9. BBC News – Payout for Uber Eats driver over face scan bias case
    https://www.bbc.com/news/technology-68655429
  10. Brookings Institution – Setting the standard of liability for self-driving cars
    https://www.brookings.edu/articles/setting-the-standard-of-liability-for-self-driving-cars/
  11. Gaming Tech Law – An AI Act vs GDPR Conflict in Fixing Algorithmic Bias
    https://www.gamingtechlaw.com/2025/03/ai-act-vs-gdpr-conflict-in-fixing-algorithmic-bias/
  12. Clifford Chance – The EU Introduces New Rules on AI Liability
    https://www.cliffordchance.com/content/dam/cliffordchance/briefings/2025/01/the-eu-introduces-new-rules-on-ai-liability.pdf
  13. Frontiers in Human Dynamics – Transparency and accountability in AI systems
    https://www.frontiersin.org/journals/human-dynamics/articles/10.3389/fhumd.2024.1421273/full
  14. Xenon Stack – Top 4 Real Life Ethical Issue in Artificial Intelligence
    https://www.xenonstack.com/blog/ethical-issue-ai
  15. McKinsey & Company – Building AI trust: The key role of explainability
    https://www.mckinsey.com/capabilities/quantumblack/our-insights/building-ai-trust-the-key-role-of-explainability
  16. CEPS – An AI Liability Regulation would complete the EU’s AI strategy
    https://www.ceps.eu/an-ai-liability-regulation-would-complete-the-eus-ai-strategy/
  17. Leandix – Trang Chủ – Digital Transformation Agency
    https://leandix.com
  18. Vietnam Plus – Vietnam seeks responsible AI use in digital communication
    https://en.vietnamplus.vn/vietnam-seeks-responsible-ai-use-in-digital-communication-post329914.vnp

Từ khóa:

-,Blogs

Chia sẻ


nguyenthiainu

Nguyễn Thị Ái Nữ

Customer Relationship Manager

Tiểu sử: Với vai trò quản lý và phát triển mối quan hệ giữa khách hàng và doanh nghiệp, đồng thời triển khai hiệu quả các dự án phần mềm và giải pháp số cho doanh nghiệp. Thành thạo trong việc thu thập yêu cầu người dùng, phối hợp với đội ngũ kỹ thuật, giám sát tiến độ và đảm bảo sản phẩm đáp ứng đúng nhu cầu.

Chuyên môn/Kỹ năng chính:

  • Giao tiếp chuyên nghiệp với khách hàng và đội ngũ nội bộ, xử lý phản hồi và thương lượng hợp đồng dịch vụ.
  • Thành thạo mô hình dự án, theo dõi tiến độ, phân công công việc, quản lý rủi ro và đảm bảo deadline.
  • Phân tích dữ liệu yêu cầu để theo dõi hành vi, đề xuất giải pháp tối ưu trải nghiệm người dùng.
dinhthanhminh

Đinh Thành Minh

Developer, Odoo Developer

Tiểu sử: Tôi là một lập trình viên full-stack với thế mạnh đặc biệt trong việc phát triển và tùy biến hệ thống ERP, cùng với nền tảng vững chắc ở cả backendfrontend.

  • Backend Programming: Python, PHP, JavaScript, Shell Script, Bash, MySQL, PostgreSQL, MongoDB.
  • Frontend & UI: JavaScript, HTML, CSS/SASS/SCSS(Responsive UI, UX best practices), OWL (Odoo Web Library), React JS/Native, Tailwind, jQuery, Bootstrap
nguyentruongtrongphuc

Nguyễn Trương Trọng Phúc

AI Engineer, Backend Developers

Tiểu sử: Được 'tôi luyện' qua 4 năm đầy thử thách tại Bách Khoa, mình là một kỹ sư đa năng với chuyên môn về AI và phát triển Backend, tập trung vào việc kiến tạo các giải pháp đột phá cho lĩnh vực Fintech và Blockchain. Mình đam mê việc 'dạy' cho máy tính cách suy nghĩ và dự đoán, đồng thời xây dựng hạ tầng vững chắc để đưa những ý tưởng đó vào doanh nghiệp hay cuộc sống.

AI & Machine Learning:

  • Chuyên môn: Predictive Modeling, Deep Learning, Model Optimization, Fintech.
  • Công nghệ: Python, TensorFlow, PyTorch, Scikit-learn, Pandas.

Backend Development:

  • Chuyên môn: High-Performance API, RESTful Design, Microservices Architecture.
  • Công nghệ: Python (FastAPI), PostgreSQL, MongoDB.
tangocnam

Tạ Ngọc Nam

Developer, Full Stack Marketer

Tiểu sử: Với định hướng trở thành một nhà phát triển giao diện và quản lý nội dung số, tôi luôn luôn cập nhật và trau dồi kiến thức về lập trình giao diện người dùng, phân tích hành vi người dùng, xây dựng chiến lược nội dung và tối ưu trải nghiệm trên nền tảng web. Luôn phát huy tư duy sáng tạo, cập nhật xu hướng công nghệ mới nhất và không ngừng đổi mới.

Chuyên môn/Kỹ năng chính:

  • Ngôn ngữ lập trình: HTML5, CSS, JavaScript (ES6+), Python, C++.
  • Framework: Wordpress, Odoo, ReactJS (TypeScript), Unity (2D/3D).
  • Multimedia Skills: Adobe Premier, Adobe Audition, Figma.

Lĩnh vực nghiên cứu: MarTech, AI Automation, User Experience

vuquynhtrang

Vũ Quỳnh Trang

UI/UX Designer

Tiểu sử: Với vai trò Designer, tôi không chỉ tạo ra những thiết kế đẹp mắt mà còn là người kể chuyện bằng hình ảnh. Tôi vận dụng tư duy sáng tạo và kỹ năng chuyên môn để mang đến các sản phẩm thiết kế đột phá, đáp ứng đúng mục tiêu kinh doanh và gây ấn tượng mạnh mẽ.

Chuyên môn/Kỹ năng chính:

  • Thiết kế Đồ họa: (Logo, Bộ nhận diện thương hiệu, Ấn phẩm Marketing)
  • Thiết kế UI/UX: (Giao diện người dùng, Trải nghiệm người dùng, Wireframe/Prototype)
phuongxuongthinh

Phương Xương Thịnh

Lead Software Engineer

Ngôn ngữ lập trình: C++, Java, Python, SQL.
Công nghệ:

  • Dev-ops: Docker, Azure’s Pipelines
  • Backend: FastAPI, Flask, Odoo
  • Deployment: Nginx

Cơ sở dữ liệu: PostgreSQL, MySQL.

Kỹ năng: Document phần mềm, phân tích và thiết kế cơ sở dữ liệu, kiến trúc hệ thống và truyền đạt kiến thức.

Sở thích: Nghiên cứu thêm về công nghệ, học thêm những thứ mới, đọc sách.