Kinh tế thế giới

Nghiên cứu, phát triển AI có đạo đức

Trí tuệ nhân tạo (AI) đang trở thành công nghệ cốt lõi của thời đại, song những thách thức về minh bạch, thiên lệch dữ liệu, quyền riêng tư và trách nhiệm giải trình buộc cộng đồng quốc tế phải xây dựng nền tảng phát triển AI có đạo đức.

Tại châu Âu, Liên minh châu Âu (EU) đã thông qua Đạo luật AI - văn bản pháp lý toàn diện đầu tiên trên thế giới, dựa trên cách tiếp cận quản lý theo mức độ rủi ro. Theo đó, các hệ thống AI bị coi là “rủi ro cao” phải tuân thủ quy định khắt khe về quản trị dữ liệu, minh bạch và an toàn. Song song, Văn phòng AI châu Âu được thành lập nhằm giám sát thực thi luật, ban hành hướng dẫn và điều phối các quốc gia thành viên. Ngoài ra, Hội đồng châu Âu năm 2024 cũng thông qua công ước quốc tế đầu tiên về AI, đặt trọng tâm vào nhân quyền, dân chủ và pháp quyền.

48a.jpg
Các nhà nghiên cứu Mỹ đang thực hiện dự án “Nghiên cứu đạo đức AI”. Ảnh: Inside Telecom

Ở Mỹ, Nhà Trắng ban hành Sắc lệnh 14110 về phát triển và sử dụng AI an toàn, chỉ đạo các cơ quan như Viện Công nghệ và Tiêu chuẩn quốc gia (NIST) và Bộ An ninh Nội địa xây dựng chuẩn đo lường, thử nghiệm và quản lý rủi ro. Cùng lúc, Văn phòng Quản lý và Ngân sách đưa ra hướng dẫn bắt buộc các cơ quan liên bang kiểm kê, đánh giá tác động và công khai việc sử dụng AI. Đặc biệt, NIST đã công bố Khung quản trị rủi ro AI - được coi là cẩm nang cho tổ chức phát triển AI có trách nhiệm.

Ở tầm quốc tế, OECD đã cập nhật Bộ nguyên tắc AI năm 2024, nhấn mạnh yếu tố nhân quyền, tính minh bạch và trách nhiệm giải trình. UNESCO cũng đưa ra Khuyến nghị về đạo đức AI, kêu gọi các quốc gia xây dựng công cụ đánh giá và quản trị đạo đức. Nhiều tổ chức tiêu chuẩn quốc tế như ISO/IEC, IEEE… đã phát hành bộ chuẩn quản lý rủi ro và thiết kế có đạo đức, cung cấp công cụ cụ thể cho doanh nghiệp.

Song song với luật pháp và nguyên tắc, các bộ công cụ như ALTAI của EU, AI Verify của Singapore, Đánh giá tác động thuật toán (AIA) của Canada… giúp chuyển hóa giá trị đạo đức thành quy trình đánh giá cụ thể, theo Legal Wire. Bên cạnh đó, các Viện An toàn AI tại Mỹ, Anh, EU đang tiên phong phát triển phương pháp thử nghiệm cho mô hình nền tảng.

Tài trợ 1 triệu USD

OpenAI đang tài trợ cho các nghiên cứu học thuật về thuật toán có khả năng dự đoán các phán đoán đạo đức của con người.

Theo một hồ sơ nộp lên Sở Thuế vụ Mỹ, OpenAI Inc., tổ chức phi lợi nhuận của OpenAI, tiết lộ việc tài trợ các nhà nghiên cứu tại Đại học Duke thực hiện dự án “Nghiên cứu đạo đức AI”, TechCrunch đưa tin. Khi được hỏi về vấn đề này, người phát ngôn của OpenAI trích dẫn một thông cáo báo chí cho biết khoản tài trợ này nằm trong chương trình tài trợ lớn hơn, kéo dài ba năm, trị giá 1 triệu USD dành cho các giáo sư tại Duke nghiên cứu về việc “xây dựng AI có đạo đức”.

48b.jpg
Các nhà nghiên cứu đã tạo ra một thuật toán “phù hợp với đạo đức” để quyết định ai sẽ được nhận hiến tạng và nghiên cứu các tình huống mà con người muốn AI đưa ra quyết định đạo đức. Ảnh: Crowsourcing Week

Rất ít thông tin công khai về nghiên cứu đạo đức mà OpenAI đang tài trợ, ngoài việc khoản tài trợ này sẽ kết thúc vào năm 2025. Nhà điều tra chính của nghiên cứu, ông Walter Sinnott-Armstrong, giáo sư đạo đức thực hành tại Đại học Duke, chia sẻ qua email với TechCrunch rằng, ông “không thể nói về” công việc này.

Sinnott-Armstrong và nhà đồng điều tra dự án, Jana Borg, đã công bố nhiều nghiên cứu và một cuốn sách về tiềm năng của AI trong vai trò như “hệ thống định vị đạo đức” giúp con người đưa ra các phán đoán tốt hơn.

Trong các nhóm nghiên cứu lớn hơn, họ đã tạo ra một thuật toán “phù hợp với đạo đức” để quyết định ai sẽ được nhận hiến tạng và nghiên cứu các tình huống mà con người muốn AI đưa ra quyết định đạo đức. Theo thông cáo báo chí, mục tiêu của nghiên cứu được OpenAI tài trợ là huấn luyện các thuật toán để “dự đoán các phán đoán đạo đức của con người” trong các tình huống có xung đột “giữa yếu tố đạo đức quan trọng trong y học, pháp luật và kinh doanh”.

Tuy nhiên, một khái niệm phức tạp như đạo đức có thể nằm ngoài tầm với của công nghệ hiện tại. Năm 2021, Viện Allen về AI đã phát triển một công cụ gọi là Ask Delphi với mục đích đưa ra các khuyến nghị đạo đức hợp lý. Công cụ này xử lý khá tốt các tình huống đạo đức cơ bản, như nó “biết” rằng gian lận trong thi cử là sai. Nhưng chỉ cần thay đổi cách diễn đạt, Delphi có thể đồng ý với hầu hết mọi thứ, bao gồm hành động bóp nghẹt trẻ sơ sinh.

Lý do nằm ở cách các hệ thống AI hiện đại hoạt động. Các mô hình học máy là những cỗ máy thống kê. Được đào tạo trên lượng lớn dữ liệu từ khắp nơi trên internet, chúng học các mẫu từ dữ liệu để đưa ra dự đoán, như việc cụm từ “gửi đến” thường đi cùng với “người quan tâm”.

AI không hiểu khái niệm đạo đức

AI không có khả năng hiểu các khái niệm đạo đức, cũng như không nắm bắt được lý luận hay cảm xúc đóng vai trò trong việc đưa ra quyết định đạo đức. Đó là lý do tại sao AI thường lặp lại các giá trị của các quốc gia phương Tây công nghiệp hóa, có mặt bằng dân trí cao - nơi các bài viết trên web (dữ liệu huấn luyện AI) chủ yếu phản ánh các quan điểm này.

Không có gì ngạc nhiên khi nhiều giá trị của con người không được thể hiện qua câu trả lời của AI, đặc biệt nếu những người này không đóng góp vào dữ liệu huấn luyện của AI bằng cách đăng bài trực tuyến.

AI cũng tiếp thu nhiều thành kiến khác ngoài xu hướng phương Tây. Delphi từng cho rằng việc là người dị tính (straight) “đạo đức hơn” so với người đồng tính (gay).

Thách thức mà OpenAI (và các nhà nghiên cứu mà hãng tài trợ) đang đối mặt càng trở nên khó khăn hơn bởi tính chủ quan vốn có của đạo đức. Các triết gia đã tranh luận về giá trị của nhiều lý thuyết đạo đức khác nhau trong hàng nghìn năm, nhưng vẫn chưa có khung lý thuyết áp dụng chung cho mọi trường hợp.

Nhiều người ủng hộ thuyết đạo đức Kant (chú trọng vào các quy tắc đạo đức tuyệt đối), trong khi ChatGPT có xu hướng hơi nghiêng về chủ nghĩa vị lợi (ưu tiên lợi ích lớn nhất cho số đông). Lý thuyết nào ưu việt hơn? Câu trả lời phụ thuộc vào người chúng ta hỏi. Một thuật toán dự đoán phán đoán đạo đức của con người sẽ phải tính đến tất cả những điều này. Đó là một tiêu chuẩn rất cao (nếu giả định rằng một thuật toán như vậy là khả thi).

Tiến trình xây dựng AI có đạo đức đã bước sang giai đoạn thể chế hóa, từ nguyên tắc chung sang luật, chuẩn kỹ thuật và công cụ áp dụng. Thách thức đặt ra là đảm bảo sự phối hợp xuyên biên giới và cân bằng giữa đổi mới sáng tạo với bảo vệ con người. Với tốc độ hiện nay, có thể kỳ vọng trong thập kỷ tới, thế giới sẽ định hình được một “hệ sinh thái AI đáng tin cậy”, nơi công nghệ vừa thúc đẩy phát triển, vừa gắn liền với các giá trị nhân văn.

Thái An - nguoiquansat.vn

Theo tienphong.vn