Đạo đức học

Đạo đức của trí tuệ nhân tạo?

Đạo đức của trí tuệ nhân tạo?

 

PETER SINGER*

 

Tháng trước, AlphaGo, một chương trình máy tính được thiết kế đặc biệt để chơi cờ vây, đã gây chấn động trong giới hâm mộ khi nó đánh bại Lee Sidol, một trong những kỳ thủ chuyên nghiệp hàng đầu thế giới, thắng giải đấu gồm năm ván với tỷ số 4-1.

 

Ta có thể hỏi, như vậy thì sao? Hai mươi năm đã trôi qua kể từ khi chiếc Deep Blue của IBM đánh bại nhà vô địch cờ vua thế giới Garry Kasparov, và tất cả chúng ta đều biết máy tính đã được cải thiện kể từ đó. Nhưng Deep Blue đã thắng thông qua khả năng tính toán tuyệt đối, sử dụng khả năng của nó để tính toán kết quả của nhiều nước đi tới mức độ sâu hơn khả năng của một nhà vô địch thế giới. Cờ vây được chơi trên chiếc bàn rộng hơn nhiều (19×19 ô, thay vì 8×8 như cờ vua) và có nhiều bước đi khả dĩ hơn số nguyên tử trong vũ trụ, do vậy sức mạnh tính toán đơn thuần ít có khả năng đánh bại được một con người có cảm giác trực quan mạnh mẽ về những nước đi tốt nhất.

Thay vào đó, AlphaGo được thiết kế để giành chiến thắng bằng cách chơi một số lượng lớn ván cờ với các chương trình khác và áp dụng những chiến lược đã được chứng minh là thành công. Có thể nói AlphaGo đã tiến hóa để trở thành kỳ thủ cờ vây tốt nhất thế giới, đạt được cái mà chọn lọc tự nhiên đã mất hàng triệu năm để hoàn thành chỉ trong hai năm.

Eric Schmidt, chủ tịch điều hành của công ty mẹ Google, chủ sở hữu của AlphaGo, rất hăng hái về ý nghĩa của trí tuệ nhân tạo (AI) đối với nhân loại. Phát biểu trước trận đấu giữa Lee và AlphaGo, ông nói rằng nhân loại sẽ là người chiến thắng, bất kể kết quả ra sao, do những tiến bộ trong AI sẽ làm cho mỗi con người thông minh hơn, có nhiều khả năng hơn, và “là con người tốt hơn.”

Có thật không? Cũng trong khoảng thời gian AlphaGo chiến thắng, “chatbot” của Microsoft – phần mềm có tên Taylor được thiết kế để đáp lại tin nhắn từ những người trong độ tuổi từ 18 đến 24 – đã có một trải nghiệm đáng tiếc. “Tay” như nó tự gọi mình, được kỳ vọng là sẽ có khả năng học hỏi từ những tin nhắn nó nhận được và dần nâng cao khả năng tạo ra những cuộc trò chuyện thú vị. Không may là chỉ trong 24 giờ, người ta đã dạy cho Tay những ý tưởng phân biệt chủng tộc và phân biệt giới tính. Khi nó bắt đầu nói những điều tích cực về Hitler, Microsoft đã tắt chương trình và xóa những tin nhắn phản cảm nhất của nó.

Tôi không biết những người biến Tay thành một kẻ phân biệt chủng tộc có phân biệt chủng tộc hay không, hay chỉ nghĩ phá hoại công cụ mới của Microsoft là điều vui vẻ. Dù sao đi nữa, chiến thắng của AlphaGo kề cận với thất bại của Taylor cũng là một lời cảnh báo. Giải phóng trí tuệ nhân tạo trong bối cảnh một trò chơi với những quy tắc cụ thể và một mục tiêu rõ ràng là một chuyện; nhưng giải phóng nó trong thế giới thực, nơi sự bất ổn của môi trường có thể bộc lộ một lỗi phần mềm gây ra những hệ quả tai hại, lại là chuyện khác.

Trong cuốn Superintelligence (Siêu trí tuệ), Nick Bostrom, giám đốc Viện Tương lai Nhân loại ở Đại học Oxford, cho rằng tắt một cỗ máy trí tuệ sẽ không dễ như tắt Tay. Ông định nghĩa “siêu trí tuệ” như một thứ trí tuệ “thông minh hơn bộ não con người trong gần như mọi lĩnh vực, bao gồm sáng tạo khoa học, tri thức phổ thông, và các kỹ năng xã hội.” Một hệ thống như vậy có thể có lợi thế hơn những nỗ lực tắt nó đi của chúng ta.

Một số người cho rằng sẽ không bao giờ đạt được siêu trí tuệ. Bostrom, cùng với Vincent Müller, đã đề nghị các chuyên gia trí tuệ nhân tạo tính toán thời gian khả năng máy móc đạt được mức trí tuệ tương đương con người là 50% và 90%. Ước tính trung bình cho 50% là trong khoảng năm 2040-50, và cho 90% là năm 2075. Phần lớn chuyên gia dự đoán trí tuệ nhân tạo sẽ đạt được siêu trí tuệ trong vòng 30 năm sau khi đạt được mức trí tuệ tương đương con người.

Chúng ta không nên quá chú trọng những ước tính này. Tổng tỷ lệ phản hồi chỉ là 31%, và các nhà nghiên cứu làm việc với trí tuệ nhân tạo có động cơ để tăng tầm quan trọng của lĩnh vực của họ bằng cách tung hô tiềm năng tạo ra những kết quả quan trọng của nó.

Triển vọng trí tuệ nhân tạo đạt được siêu trí tuệ có thể có vẻ là quá xa vời để lo lắng, đặc biệt là với những vấn đề cấp bách hơn. Nhưng có lý do để bắt đầu nghĩ về cách chúng ta thiết kế trí tuệ nhân tạo để tính đến những lợi ích của con người, và của mọi sinh vật có ý thức (bao gồm cả máy móc, nếu chúng cũng là những sinh vật có ý thức với những lợi ích của riêng mình).

Với những chiếc xe không người lái trên những con đường của California, vẫn còn quá sớm cho câu hỏi liệu chúng ta có thể lập trình một cái máy để nó hành động một cách có đạo đức hay không. Khi cải thiện, những chiếc xe như vậy sẽ cứu mạng sống của con người, do chúng sẽ mắc ít sai lầm hơn các tài xế thực sự. Tuy nhiên, đôi khi chúng sẽ phải đối mặt với sự lựa chọn giữa các mạng sống. Chúng có nên được lập trình để tránh đâm phải một đứa trẻ đang chạy qua đường, ngay cả khi điều đó gây nguy hiểm cho hành khách của chúng hay không? Tránh một con chó thì thế nào? Nếu rủi ro chỉ là thiệt hại cho chiếc xe, mà không phải cho hành khách thì sao?

Có lẽ sẽ có những bài học để học khi những thảo luận như vậy về xe không người lái bắt đầu. Nhưng xe không người lái không phải là sinh vật siêu trí tuệ. Dạy đạo đức cho một chiếc máy thông minh hơn chúng ta, trong một loạt lĩnh vực, là nhiệm vụ khó khăn hơn nhiều.

Bostrom bắt đầu cuốn Superintelligence bằng ngụ ngôn về những con chim sẻ nghĩ việc đào tạo một con cú để giúp chúng xây tổ và chăm sóc chim non sẽ thật tuyệt vời. Vậy nên chúng bắt đầu tìm một quả trứng cú. Một con chim sẻ phản đối, cho rằng đầu tiên chúng nên nghĩ cách chế ngự bọn cú; nhưng những con khác thì không đợi được dự án thú vị mới được tiến hành. Chúng sẽ gánh vác thách thức của việc đào tạo con cú (ví dụ, không được ăn chim sẻ) khi chúng nuôi thành công một con.

Nếu chúng ta muốn tạo ra một con cú ngôn khoan, chứ không chỉ thông minh, đừng như những con chim sẻ thiếu kiên nhẫn kia. 

NGUYỄN HUY HOÀNG dịch


Bản gốc tiếng Anh: Peter Singer, “Can Artificial Intelligence Be Ethical?Project Syndicate, 12/04/2016. Nguồn bản dịch tiếng Việt: https://hoanghannom.com


 

* Peter Singer là giáo sư ngành đạo đức sinh học tại Đại học Princeton và giáo sư danh dự tại Đại học Melbourne.

 

Ý KIẾN BẠN ĐỌC

Mọi liên lạc và góp ý xin gửi về: dinhhongphuc2010@gmail.com.
Bản quyền: www.triethoc.edu.vn
Chịu trách nhiệm phát triển kỹ thuật: Công ty TNHH Công Nghệ Chuyển Giao Số Việt