20 thg 8, 2023

TRÍ TUỆ NHÂN TẠO – CÓ THỂ LÀ CHÚNG TA BỊ NGUYỀN RỦA (Diển Đàn Khai Phóng )

Tác giả: Michael Braecher phỏng vấn GS Bostrom.
Người dịch: Nguyễn Phú Lộc

Cuộc cách mạng trí tuệ nhân tạo (AI): Trong nhiều năm, trí tuệ nhân tạo là một chủ đề dành cho giới chuyên môn, bây giờ mọi người đang nói về nó. Chúng tôi tự hỏi: Trí tuệ nhân tạo sẽ thay đổi chúng ta, nền kinh tế, văn hóa của chúng ta như thế nào? Sự phấn chấn đến từ đâu, điều gì sẽ chiếm ưu thế? Và tất nhiên thêm một câu hỏi: ai được lợi và ai thua thiệt?

Triết gia Nick Bostrom thuộc đại học Oxford, 50 tuổi, tin rằng một ngày nào đó siêu trí tuệ nhân tạo có thể quét sạch loài người. Hay nó sẽ giải phóng chúng ta khỏi những công việc ngu ngốc?

SPIEGEL: Thưa giáo sư Bostrom, trong nhiều thập kỷ trước, ông đã cảnh báo về sự xuất hiện của một siêu trí tuệ có thể vượt qua trí tuệ con người. Một ý nghĩ xuất phát từ sự sợ hãi. Khi nào thì thời điểm đó sẽ đến?

Bostrom: Từ giữa những năm 1990, tôi đã tin rằng ngày đó sẽ đến vào tiền bán thế kỷ 21, và dường như tôi đang đoán đúng. Trước những tiến bộ về sự phát triển của trí tuệ nhân tạo mà chúng ta đã  chứng kiến, tôi tin rằng điều đó có thể đến trong vài năm nữa.

SPIEGEL: Cho đến nay, các thuật toán có thể trò chuyện với con người hoặc tạo ra những hình ảnh nhân tạo, nhưng trí thông minh của chúng dường như bị hạn chế.

Bostrom: Các mô hình AI từ lâu đã được chuyên môn hóa trong các lĩnh vực phụ. Tuy nhiên, các mô hình ngày nay cơ bản là có khả năng để học. Chúng có thể viết mã máy tính, làm thơ và vượt qua những kỳ thi về vật lý, y học và luật. Chúng nhận ra các khuôn mẫu và áp dụng kiến thức thu được để trả lời các câu hỏi mới. Tất cả những điều đó dường như là không tưởng trước đây một vài năm.

SPIEGEL: Điều đó có đủ để tạo ra một AI toàn cầu có thể cạnh tranh với bộ não của chúng ta không?

Bostrom: Có thể mất nhiều thời gian hơn. Các mô hình ngày nay vẫn còn những điểm yếu, chẳng hạn như khả năng lập kế hoạch, tư duy phê phán và cách thức hoạt động của cơ chế ghi nhớ và cảnh giác của chúng. Tuy nhiên, công việc chuyên sâu đang được thực hiện để vượt qua những giới hạn này. Có lẽ các mẫu máy như GPT chỉ có thể là một phần của các hệ thống AI thậm chí còn phức tạp hơn sau này. Chúng ta sẽ trải nghiệm một lượng lớn công trình nghiên cứu khác.

SPIEGEL: Ông có nghĩ rằng AI sẽ phát triển ý thức được không?

Bostrom: Cuối cùng sẽ là thế. Thật khó để nói liệu các hệ thống AI ngày nay có khả năng có bất kỳ mức độ tri giác nào hay không. Thực tế là, các triết gia, nhà thần kinh học và nhà nghiên cứu nhận thức từ lâu đã tranh luận về những gì cấu thành nên ý thức. Cho đến nay vẫn chưa có sự đồng thuận về một kết luận nhất quán. Một vấn đề khác nữa, là chúng ta không thể nắm bắt được quá trình diễn ra trong các mô hình AI.

SPIEGEL: Nó có thể trở nên nguy hiểm hơn cho con người chúng ta không?

Bostrom: Để trở nên nguy hiểm, AI không cần ý thức – chỉ cần nó rất thông minh là đủ. Vị trí thống trị của chúng ta trên hành tinh này không phải nhờ vào sức mạnh thể chất mà nhờ bộ não của chúng ta. Nếu bây giờ chúng ta tạo ra những cỗ máy thông minh hơn chúng ta, điều đó có nghĩa là trong tương lai mọi thứ trên hành tinh của chúng ta sẽ bị thống trị bởi những loại máy móc đó.

SPIEGEL: Điều đó nghe hơi giống phim Hollywood. Liệu chúng ta có bị đe dọa nghiêm trọng bởi một kịch bản như phim hành động »Kẻ hủy diệt«, trong đó một AI siêu thông minh muốn quét sạch loài người?

Bostrom: Một bộ phim thành công về mặt thương mại cần có cốt truyện thú vị. Trong hầu hết mọi trường hợp, một nhân vật chính vốn được ưa thích gặp phải vấn đề, và họ có thể vượt qua. Nhưng trong cuộc sống thực, có lẽ không có một kết thúc có hậu cho loài người và không có vị anh hùng nào đến để cứu chúng ta. Một AI siêu thông minh có thể tìm đủ mọi cách để hạ gục chúng ta. Có thể với những con rô-bốt siêu nhỏ, một loại virus nguy hiểm hoặc một cách nào khác mà chúng ta thậm chí chưa thể nghĩ ra. Chúng ta thậm chí không thể nhận ra điều nguy hiểm đó trước khi quá muộn.

SPIEGEL: Giả sử mối lo ngại của ông về siêu trí tuệ nhân tạo độc hại là hợp lý: Làm sao có thể ngăn chặn kịch bản kinh dị này?

Bostrom: Rất nhiều người thông minh nhất mà tôi quen biết đang nghiên cứu giải pháp cho vấn đề này: tìm cách sắp xếp hướng đi hợp lý cho các mô hình AI. Ba phòng thí nghiệm AI hàng đầu có tất cả các đội chuyên gia lo chuyện đối phó với nó. Chúng ta có lẽ đã tiến xa hơn nếu chúng ta không lãng phí hai hoặc ba thập kỷ qua. Một nỗ lực gấp rút hiện đang được thực hiện để tìm ra giải pháp trước khi quá muộn.

SPIEGEL: Ông có một thử nghiệm tưởng tượng làm ông trở nên nổi tiếng, đó là máy sản xuất tối đa chiếc kẹp giấy. Tất cả có mục đích gì?

Bostrom: Hãy tưởng tượng rằng một AI siêu thông minh được giao nhiệm vụ tìm phương án sản xuất càng nhiều kẹp giấy càng tốt. Máy có thể kết luận rằng nếu không ai ngăn cản và giành quyền kiểm soát vũ trụ, nó có thể tạo ra nhiều kẹp giấy hơn. Để đạt được mục tiêu này, có lẽ trước hết nó sẽ hủy diệt loài người. Vì vậy, không cần phải ghét con người, trí thông minh nhân tạo cũng tiến xa đến mức đó. AI chỉ cần đưa ra kết luận rất chính xác rằng sẽ có nhiều kẹp giấy hơn, nếu nó làm như vậy. Đấy chỉ là một thí dụ, bạn cũng có thể giao cho AI các nhiệm vụ khác và sẽ tạo ra kết quả tương tự.

SPIEGEL: Chúng ta học được gì từ điều này?

Bostrom: Nó cho thấy tầm quan trọng của việc không cho phép AI siêu thông minh hoạt động hướng tới mục tiêu không phù hợp với các giá trị của con người.

SPIEGEL: Chẳng lẽ chúng ta không thể giao cho AI nhiệm vụ là không được gây tai hại cho ai?

Bostrom: Thật thú vị, những gì chúng ta thấy với cái gọi là mô hình ngôn ngữ lớn như ChatGPT là, chúng thực sự có thể đóng giả một số nhân vật tiếng tăm khi chúng ta yêu cầu. Người ta cũng có thể thử bảo AI phải thân thiện với mọi người và tôn trọng nhân quyền. Nhưng điều đó đã đủ chưa? Chắc bạn đã nắm vững ý tưởng về thần thoại Shoggoth?

SPIEGEL: Shoggoth là một quái vật gớm ghiếc trong sách của H. P Lovecraft vốn dĩ có thể tự thay đổi hình dạng của mình.

Bostrom: Trong trường hợp này, đó là một con quái vật xấu xí với những chùm lông hiểu được cảm xúc người đối diện. Có lúc, nó cho chúng ta thấy một chiếc mặt nạ có mặt đang cười vì đó là thứ mà cảm xúc chúng ta muốn thấy. Nhưng có một cái gì đó mạnh mẽ đằng sau, xa lạ và có thể thù địch với chúng ta. Ngay cả một hệ thống AI được đào tạo để có thể tỏ ra thân thiện với môi trường bên ngoài, nó cũng có thể tiềm ẩn những quy trình nội bộ để đạt những mục tiêu hoàn toàn khác. Có thể các quy trình này khó bị phát hiện trong giai đoạn thử nghiệm mà nó chỉ lộ ra khi AI đối mặt với một tình huống mới.

SPIEGEL: Xin ông cho một ví dụ?

Bostrom: Phiên bản đầu tiên của Microsofts Bing chatbot được đưa ra yêu cầu phải luôn đối xử lịch sự với người dùng của nó. Nhưng sau đó, người ta nhận ra rằng, một nhân cách đen tối hơn sẽ tự bộc lộ khi hệ thống được người dùng ra những mệnh lệnh nhất định nào đó. Lúc ấy, Chatbot trở nên hung bạo và đáng sợ.

SPIEGEL: Chúng ta phải làm gì để để thuần hóa con quái vật?

Bostrom: Chúng ta phải đối mặt với ba thách thức lớn. Tôi đã vạch ra vấn đề đầu tiên: Làm thế nào bạn có thể viết mã AI thế nào để cho phần mềm không chạy điên cuồng? Thách thức thứ hai mang tính chất xã hội: Làm thế nào để chúng ta đảm bảo rằng AI chỉ được sử dụng cho mục đích hữu ích – và không gây chiến tranh, hoặc không truyền bá thông tin sai lệch hoặc không đàn áp con người? Câu hỏi thứ ba cho đến nay ít được chú ý: Nếu quả thực chúng ta có thể phát triển một AI có năng lực cảm nhận và suy nghĩ, làm sao chúng ta có thể chắc chắn rằng chúng ta không bất công với nó? Chúng ta cần một chuẩn mực đạo đức cho bộ não kỹ thuật số.

SPIEGEL: Nhưng giờ đây, đó là chuyện khoa học giả tưởng.

Bostrom: Tôi biết điều đó hơi khác một chút những gì chúng ta cho là có thể tưởng tượng được ngày nay. Nhưng chúng ta phải bắt đầu thực hiện điều này một cách nghiêm túc. Giả sử chúng ta tạo ra được những bộ não kỹ thuật số thực sự xứng đáng với tư cách đạo đức, chẳng hạn vì chúng có tri giác hoặc có khả năng tự nhận thức. Sau đó, điều bắt buộc về mặt đạo đức là lợi ích của chúng phải được chú ý và chúng không bị lạm dụng. Chúng ta không kỳ thị màu da, càng không nên kỳ thị vì một ai đó hoặc điều gì đó đang yếu đuối về thể chất.

SPIEGEL: Một số nhà nghiên cứu AI hàng đầu đã đề xuất một lệnh cấm sáu tháng để giúp việc phát triển các thuật toán mới an toàn hơn và ngăn chặn việc lạm dụng công nghệ. Điều này có giúp gì hay không?

Bostrom: Có thể là có ích. Nhưng tôi cũng lo ngại rằng lệnh cấm như vậy sẽ được gia hạn nhiều lần. Sau đó, nghiên cứu AI có thể kết thúc trong một loại băng hà vĩnh cửu. Và chúng ta sẽ chết dần chết mòn vì những rủi ro thực tế khác, mà không bao giờ có thể tận dụng những cơ hội to lớn mà một trí tuệ siêu việt sẽ mang lại cho chúng ta. Tôi có thể hình dung một giải pháp khác.

SPIEGEL: Xin ông cứ nói!

Bostrom: Phối hợp nhiều hơn. Chúng ta phải ngăn chặn một cuộc chạy đua vũ trang trong đó 20 phòng thí nghiệm khác nhau cố gắng phát triển siêu trí tuệ càng nhanh càng tốt. Trong một cuộc đua như vậy, đội nào gạt tất cả các khía cạnh an toàn ra ngoài, đội đó có thể sẽ giành chiến thắng. Ngược lại, những người quyết định thận trọng sẽ bị tụt lại phía sau và mất đi vai trò của mình. Một kịch bản như vậy sẽ làm tăng rủi ro lên rất nhiều.

SPIEGEL: Ông được coi là người tiên phong của “chủ nghĩa dài hạn”, một triết lý mà những người ủng hộ nó coi việc cải thiện tương lai xa là ưu tiên hàng đầu. Một số người cảm thấy hoài nghi vì cho rằng những thách thức trước mắt như nghèo đói hoặc biến đổi khí hậu là quan trọng hơn.

Bostrom: Thật không may, một số người đã diễn giải sai suy nghĩ của tôi. Tôi tin rằng chúng ta cần phải giải quyết cả những vấn đề trước mắt và những thách thức lâu dài.

SPIEGEL: Hơn nữa,ông còn nói về “áp lực di truyền” từ những người kém thông minh hơn và suy đoán về thuyết ưu sinh [ND: Eugenics] để cải thiện khả năng nhận thức của các thế hệ tương lai. Ông có nhận ra rằng những tuyên bố như vậy gây ra khiếp đảm?

Bostrom: Trong một số công trình học thuật của tôi, tôi muốn khám phá xem thử điều gì sẽ xảy ra nếu một người theo đuổi những ý tưởng vị lợi nhất định. Một số người đã kết luận rằng tôi ủng hộ những giả định này. Nhưng tôi thì không. Tôi chưa bao giờ tự gọi mình là người theo chủ nghĩa vị lợi hay người theo chủ nghĩa dài hạn. Thật là đáng hoài nghi về những định kiến như vậy.

SPIEGEL: Ông có thể ước tính khả năng của con người có thể đứng vững trước một AI siêu thông minh?

Bostrom: Bạn có thể xem tôi là một người theo thuyết định mệnh ôn hòa: nếu chúng ta nỗ lực, chúng ta có thể cải thiện cơ hội sống sót của mình với tư cách là một loài. Nhưng cũng có thể là chúng ta sẽ bị nguyền rủa, cho dù bất kể chúng ta làm gì. Hoặc chúng ta cũng được an toàn mà không cần phải có nỗ lực gì đặc biệt. Thật khó nói.

SPIEGEL: Với tư cách là một triết gia AI, người ta có thể ngủ yên đến mức nào, nếu như sự diệt vong của loài người là chuyện có thể xảy ra?

Bostrom: Tôi làm việc chăm chỉ và chủ yếu làm gần như tất cả mọi chuyện trước khi đi ngủ. Nhưng tôi nghĩ chúng ta đang ở một bước ngoặt trong lịch sử, không chỉ về trí tuệ nhân tạo mà cả các công nghệ khác. Sẽ có cái đến trước và cũng có thể một cái đến sau.

SPIEGEL: Chúng ta đã nói về khía cạnh ảm đạm của AI nhiều rồi. Ông cũng có một kịch bản tích cực hơn chứ?

Bostrom: Nếu bạn nghĩ về sự phát triển đến cùng, một lúc nào đó bạn sẽ đạt đến điểm mà con người không cần phải làm việc nữa, nhờ trí tuệ nhân tạo và người máy.

SPIEGEL: Ông có nghĩ rằng cuộc sống sẽ tốt đẹp khi chúng ta không cần làm việc?

Bostrom: Tại sao không? Hãy nghĩ đến những đứa trẻ đã từng phải làm việc vất vả trên ruộng đồng hoặc nhà máy. Ngày nay, không ai ở phương Tây sẽ đổ lỗi cho chúng nếu thay vào đó chúng nó được chơi đùa hoặc đi học. Ai biết được, có thể trong tương lai chúng ta sẽ sống như những người làm nghề tự do, những người sẽ cống hiến cuộc đời mình cho những quan tâm khác mà không cần phải nghĩ đến việc đi làm công để ăn lương.


Người phỏng vấn: Michael Braecher
Der Spiegel số 31/2023, trang 68-69 (báo giấy, không có link)
Người dịch: Nguyễn Phú Lộc, tháng 8/2023

Mời Xem Lại :🌸🌸🌸🌸🌸🌸🌸

Trí tuệ nhân tạo – Tôi không sợ công cụ, nhưng sợ con người (Diển Đàn Khai Phóng )  

Trí tuệ nhân tạo – Đối thoại giữa Yuval Noah Harari và Yann LeCun 

 

Không có nhận xét nào:

Đăng nhận xét