Tác giả: Guillaume Grallet và Héloïse Pons phỏng vấn và biên tập
Người dịch: Huỳnh Thị Thanh Trúc
DĐKP giới thiệu: Yuval Noah Harari là nhà sử học tiếng tăm, có lẽ mọi người đều đã biết qua tác phẩm bán chạy Sapiens. Yann LeCun là giám đốc nghiên cứu về Trí tuệ nhân tạo (AI) tại Meta, người từng đoạt giải Turing (tương đương với giải Nobel về khoa học máy tính). Hai nhân vật này có quan điểm hoàn toàn đối nghịch về AI, nhưng cuộc đối thoại sau đây cung cấp cho người đọc những tầm nhìn lâu dài có ích.
ĐỘC QUYỀN. Sự diệt vong của nền dân chủ hay kỷ nguyên Khai sáng mới? Cuộc tranh luận giữa Yuval Noah Harari, tác giả cuốn sách bán chạy nhất Sapiens, và nhà quản lý nghiên cứu tại Meta, Yann LeCun.
Đây là chủ đề nổi bật hiện nay, một chủ đề nằm trong tâm trí của cả Tập Cận Bình lẫn Joe Biden. Bản thân Vladimir Putin đã nói vào năm 2017 rằng quốc gia nào dẫn đầu lĩnh vực trí tuệ nhân tạo, quốc gia đó sẽ thống trị thế giới. Ít nhất, lịch sử đã cho thấy các ý định của chủ nhân Điện Kremlin hiếu chiến – và nay còn nghiêm trọng hơn thế nữa – ra sao, và giờ ta không thể bỏ qua những tiến bộ của trí tuệ nhân tạo.
Trước khả năng hỗ trợ việc quan sát không gian và phát triển các vật liệu mới, thậm chí cho phép thể hiện trực quan cấu trúc xoắn của protein và các tiến bộ y học khác, cũng như một bức tranh về thực tại rõ ràng hơn nhờ ngày càng có nhiều các hình ảnh lấy cảm hứng từ các sự kiện hiện thời chính xác hơn những gì mắt người có thể cảm nhận được, chúng ta nên nghĩ gì về sự trỗi dậy của sức mạnh AI, điều có lẽ là bước nhảy vọt ngoạn mục nhất kể từ khi thuật ngữ “trí tuệ nhân tạo” xuất hiện tại Hội nghị Dartmouth năm 1956?
Trên lý thuyết, Yann LeCun và Yuval Noah Harari đứng ở hai phía hoàn toàn đối lập nhau. Một người là nhà nghiên cứu, người kia là nhà sử học. Người trước thấy không có lý do gì để hoảng sợ về sự nổi bật của lĩnh vực này, trong khi người sau sợ rằng nó sẽ dẫn đến sự sụp đổ của nền văn minh nhân loại. Yuval Noah Harari đã ký vào bức thư ngỏ do think tank The Future of Life đưa ra, cùng với gần 30.000 nhà nghiên cứu, kêu gọi tạm dừng việc phát triển các công cụ mạnh hơn GPT-4 trong vòng sáu tháng, mô hình ngôn ngữ đã thúc đẩy việc ChatGPT phổ biến rộng rãi trong thời gian kỷ lục, trong khi Yann LeCun thấy lời kêu gọi này chỉ là sự phản đối kịch liệt từ những nhà tiên tri các thảm họa.
Cuộc họp do Le Point đề xuất đã được tổ chức thông qua hội nghị
truyền hình giữa New York và Jerusalem. Tại cuộc họp, giám đốc nghiên
cứu về AI tại Meta, người đoạt giải Turing (tương đương với giải thưởng Nobel về khoa học máy tính) và là tác giả của cuốn Quand la machine apprend: La révolution des neurones artificiels et de l’apprentissage profond (Odile Jacob) [tạm dịch: Khi máy biết học: Cuộc cách mạng của mạng nơ-ron nhân tạo và học sâu],
và tác giả cuốn sách bán chạy nhất Sapiens đã gặp nhau để so sánh quan
điểm của họ về những hứa hẹn, mối hiểm họa và tương lai của AI. Bật mí:
chúng tôi chẳng thể làm họ đồng ý với nhau.
Le Point: Trước hết, ông định nghĩa trí thông minh là gì?
Yann LeCun: Trí thông minh có nghĩa là có thể nhận thức được một tình huống, từ đó lên kế hoạch ứng phó và sau đó hành động theo những phương án nhằm đạt được một mục tiêu – nhờ vậy có thể bám sát tình huống và lên kế hoạch cho một chuỗi hành động.
Yuval Noah Harari: Trí thông minh là khả năng giải quyết vấn đề. Từ việc những sinh vật đơn bào tìm kiếm thức ăn cho đến con người khám phá ra cách bay lên mặt trăng, đó là trí thông minh. Nó không giống như ý thức. Ở người, cả hai thứ này được trộn lẫn với nhau. Ý thức là khả năng cảm nhận sự vật, đau, vui, yêu, ghét. Con người chúng ta đôi khi sử dụng ý thức để giải quyết vấn đề, nhưng đấy không phải là một thành phần thiết yếu. Rất nhiều sinh vật giải quyết vấn đề mà không cần ý thức, như thực vật và vi sinh vật. Máy móc cũng có thể thông minh và giải quyết các vấn đề mà không có bất kỳ cảm giác nào.
Yann LeCun: Chưa phải bây giờ, nhưng chuyện đó sẽ xảy ra.
Le Point: Khi nào? Trong vòng năm năm, mười năm?
Yann LeCun: Rất khó để dự đoán xem sẽ mất bao
lâu. Nhưng tôi không nghi ngờ gì về việc ít nhất chúng ta sẽ có máy móc
thông minh như con người. Và nếu chúng có khả năng lập kế hoạch và đặt
mục tiêu, chúng cũng sẽ có những cảm nhận tương đương, bởi vì nhiều lúc
cảm xúc chỉ là một dự đoán về các kết quả. Bạn cần có khả năng đoán
trước điều gì sẽ xảy ra–cho dù kết quả tốt hay xấu–bạn muốn có năng lực
lập kế hoạch, và đó là nguồn cơn chính của cảm xúc. Là con người, nếu
chúng ta dự đoán rằng một tình huống có thể sẽ nguy hiểm, ta cảm thấy sợ
hãi, điều này thúc đẩy chúng ta khám phá các phương án khác nhau để
thoát khỏi tình huống nguy hiểm đó. Nếu máy móc làm được điều này, chúng
sẽ có cảm xúc.
Có lẽ còn rất xa mới đến lúc máy móc có được ý thức.
Yuval Noah Harari: Có khả năng đó, nhưng không nhất thiết phải thế. Tôi định nghĩa ý thức đơn giản là năng lực cảm nhận. Một khi bạn có thể cảm nhận niềm vui, bạn có ý thức. Tự ý thức là một cái gì đó khác, đó là năng lực phản tư trước thực tế rằng bạn tri nhận được cảm xúc. Và chúng ta chỉ có ý thức về bản thân trong một khoảng thời gian rất ngắn. Dựa trên định nghĩa này, tôi nghĩ rằng hoàn toàn có khả năng máy móc sẽ có ý thức hoặc có cảm giác. Nhưng điều đó không chắc chắn sẽ xảy ra. Máy móc có thể đang tiến bộ theo một con đường tiến hóa khác. Trong quá trình tiến hóa của loài người, cũng như động vật có vú và chim, ý thức và trí thông minh luôn song hành với nhau, chúng ta giải quyết vấn đề nhờ có cảm nhận. Nhưng có thể có những lộ trình khác cho sự tiến hóa của trí thông minh, tại đó bạn có một loại trí thông minh khác, thứ có thể vượt qua trí thông minh của con người mà vẫn không liên quan đến bất kỳ cảm nhận nào. Đó là trường hợp trong các lĩnh vực hạn chế như cờ vua hoặc cờ vây. Tôi không nghĩ rằng có ai đó thực sự nghĩ rằng AlphaGo hạnh phúc khi nó thắng ván cờ, dù nó thông minh hơn con người trong lĩnh vực rất hẹp này. Có thể có trường hợp, ngay cả với trí tuệ nhân tạo nói chung, rằng chúng sẽ vượt xa chúng ta về trí thông minh mà vẫn không cảm nhận được bất kỳ loại cảm xúc nào.
Yann LeCun: Chắc chắn sẽ có rất nhiều hệ thống mà chúng ta đánh giá là thông minh. Chúng đã tồn tại nếu chúng ta nhìn vào một máy chơi cờ vây hoặc thậm chí là hệ thống điều khiển ô tô của bạn. Chúng không có cảm giác, nhưng rốt cuộc, nếu bạn muốn các hệ thống có mức độ tự chủ nhất định và hoạt động bằng cách cố gắng thỏa mãn một mục tiêu, thì những hệ thống đó có thể sẽ có cảm xúc tương đương con người vì khi đó chúng sẽ phải có khả năng dự đoán trước kết quả xảy ra đối với một chuỗi hành động cụ thể.
Le Point: Ông có cho rằng với việc tái chiếm dụng ngôn ngữ, ChatGPT sẽ nguy hiểm cho nền dân chủ và các niềm tin của chúng ta không?
Yann LeCun: Tôi không nghĩ ChatGPT nguy hiểm vào lúc này, nhưng nguyên do khiến nó có thể sinh ra nguy cơ là vì mã nguồn con chatbot này là đóng, vì vậy mọi người không hiểu được ChatGPT và các nhà nghiên cứu không thể nghiên cứu nó. Theo tôi, cách để đạt được tiến bộ với các mô hình ngôn ngữ lớn là biến chúng thành mã nguồn mở. Và bạn thấy đó, ngày nay có nhiều nỗ lực từ khắp thế giới để minh bạch hóa mã nguồn mở. Đây là một ý tưởng tốt không chỉ từ góc nhìn kinh tế mà còn từ góc nhìn an toàn. Đồng thời, ý tưởng này tốt cho tiến bộ của nghiên cứu cũng như việc hiểu biết chính xác làm thế nào để các công cụ này hoạt động ổn định và nằm trong tầm kiểm soát. Nhưng tiếp theo, về mặt triển khai, bạn cần có quy định để đảm bảo các sản phẩm được triển khai trong xã hội đem lại tác động tích cực. Với bất kỳ công nghệ nào cũng thế. Bạn đưa một công nghệ ra thị trường, công nghệ đó phải trải qua một số quy trình chứng nhận và có những quy định xung quanh nó. Nhưng tôi nghĩ nếu ai đó tưởng tượng về một tương lai nơi mọi người đều có một trợ lý thông minh dưới quyền kiểm soát của mình thì cũng tựa như mỗi người có một nhóm nhân viên làm việc cho họ mà lại thông minh hơn họ. Là một nhà cựu quản lý công nghiệp và là giáo sư đại học, tôi cố gắng chỉ làm việc với những người thông minh hơn tôi. Đó là một hướng tốt để thành công. Vì vậy, mọi người không nên cảm thấy bị đe dọa bởi chuyện đó, họ nên cảm thấy mình được trao quyền. Tựa như chuyện chiếc xe của bạn mạnh hơn bạn, hãy tưởng tượng một tương lai nơi mọi người được trao quyền với đội ngũ máy móc thông minh giúp họ làm việc hiệu quả, năng suất cao hoặc sáng tạo hơn. Đó là lý do tại sao tôi nghĩ trí tuệ nhân tạo sẽ mang tới một thời đại Phục hưng mới, về cơ bản là một thời Khai sáng mới.
Yuval Noah Harari: Vấn đề là nó nằm trong tay ai? Chatbot AI có thể rất tuyệt vời, nhưng nếu rơi vào tay kẻ xấu, nó có thể phá hủy nền dân chủ. Bởi vì dân chủ là một cuộc trò chuyện giữa mọi người, điều gì sẽ xảy ra nếu bạn có những tác nhân AI có khả năng trò chuyện tốt hơn bất kỳ con người nào được triển khai để phục vụ những kẻ vô trách nhiệm hoặc những kẻ xấu… Nếu cuộc trò chuyện giữa mọi người bị tấn công hoặc chiếm quyền điều khiển, điều mà AI hiện hoàn toàn có khả năng thực hiện, thì điều đó sẽ phá hủy nền tảng của hệ thống dân chủ. Hãy tưởng tượng bạn đang nói chuyện trực tuyến với ai đó và bạn không biết đó là người hay bot AI. Và như trên mạng xã hội mười năm trước, chúng ta từng thấy một cuộc chạy đua vũ trang để thu hút sự chú ý, giờ đây chúng ta có thể thấy một cuộc chạy đua vũ trang để giành lấy sự thân mật, và sự thân mật thì có quyền năng hơn sự chú ý nhiều. Nếu ai đó có thể khiến bạn tin tưởng AI của mình, thì khi có bất kỳ thắc mắc nào, bạn không cần truy cập Google để tìm kiếm (đây là lý do tại sao Google cảm thấy bị đe dọa), bạn chỉ cần hỏi AI của mình. Bạn không cần báo chí vì ‘tại sao tôi phải đọc báo, tôi chỉ việc yêu cầu AI của mình cho tôi biết những tin mới!’ Và giả sử rằng, trong 95% thời gian hoạt động, AI thực sự phục vụ các lợi ích tốt nhất của bạn và bạn học được cách tin tưởng nó và có mối liên hệ rất sâu sắc với thực thể này. Và rồi thỉnh thoảng nó lại bẻ quan điểm chính trị của bạn theo một hướng cụ thể bởi vì đây là chỉ dẫn mà con chatbot này nhận được từ những người đã xây dựng và vận hành nó. Chúng ta cần đề phòng những mối nguy này bởi vì những gì chúng ta đã thấy trước đây với các thuật toán đề xuất, chẳng là gì so với sức mạnh của những AI như vậy trong việc thay đổi quan điểm của mọi người về mọi thứ, từ việc mua sản phẩm nào cho đến việc bỏ phiếu cho chính trị gia nào.
Yann LeCun: Một câu hỏi khác là đâu là cách thích hợp để xử lý việc này? Trong tương lai, tất cả mọi người sẽ tương tác với thế giới kỹ thuật số chủ yếu thông qua các trợ lý thông minh. Bộ phim “Her” là viễn cảnh tốt đẹp về những gì có thể xảy ra trong tương lai. Và nếu thiết kế của những hệ thống AI đó hoặc những người kiểm soát nó có mục đích xấu, thì những điều rất tệ có thể xảy ra. Nhưng tôi nghĩ đối tượng so sánh phù hợp với thế giới tương lai đó là Wikipedia. Mọi người tin tưởng Wikipedia. Có hàng loạt công tác biên tập nhằm cố gắng kiểm soát những ý kiến trên đó. Vậy là có phương pháp để làm điều đó (tránh AI bị lợi dụng cho mục đích xấu – ND) một cách có đạo đức, và những gì chúng ta đạt được sau cùng sẽ là một thứ giống như Wikipedia, được phát minh bởi hàng triệu người. Và thế có nghĩa là các hệ thống AI của tương lai về cơ bản sẽ phải được góp sức từ hàng tỷ người làm việc cùng nhau. Đó là cách duy nhất để thực thi, đó là lý do tại sao AI phải có mã nguồn mở. Vì vậy, tôi không nghĩ rằng tương lai chúng ta sẽ có các hệ thống AI khép kín, được sở hữu bởi một công ty duy nhất, như chúng ta đã thấy cho đến nay, tôi nghĩ rằng nó sẽ phải được rất nhiều người xem xét kỹ lưỡng vì hệ thống có thể trục trặc theo rất nhiều cách.
Le Point: Có một trợ lý thông minh chính xác đến 95% có nguy hiểm hơn một trợ lý lú lẫn hết một nửa thời gian không?
Yann LeCun: Các hệ thống hiện tại thực sự rất không đáng tin cậy. Vì vậy, chúng làm tốt vai trò trợ lý viết lách, nhưng không phải là nguồn thông tin đáng tin cậy. Bây giờ, điều sẽ xảy ra trong vài năm tới là thiết kế căn bản của hệ thống sẽ thay đổi để tạo ra các hệ thống có thể điều khiển trực tiếp, kiểm soát được và đúng sự thực hơn, nếu cần, vì đôi khi bạn không muốn chúng quá thực tế. Bạn muốn chatbot kể chuyện hoặc viết một bài thơ hay gì đó, đúng chứ? Sự thay đổi này sẽ đạt được nhiều tiến bộ trong vòng 2 đến 5 năm tới. Vì vậy, cuối cùng, các hệ thống AI sẽ đáng tin cậy hơn bất kỳ phương pháp tìm kiếm thông tin nào khác. Và mọi thứ sẽ hơi giống với việc lái xe tự động và hệ thống hỗ trợ lái xe. Hiện tại, bạn có thể có hệ thống trợ lái cho ô tô của mình. Chúng khá đáng tin cậy trên đường cao tốc, nhưng không phải ở mọi nơi, và bạn phải luôn nắm chắc vô lăng. Hiện tại, với các mô hình ngôn ngữ lớn tự hồi quy, bạn cũng phải luôn kiểm soát từ ngữ vì chúng có thể nói ra những điều ngu ngốc. Chúng không có những hiểu biết thường tình mà chúng ta mong đợi ở mọi người, mặc dù AI dường như đã tích lũy được một lượng kiến thức thực tế khổng lồ chỉ chực trào ra. Nhưng chuyện này rồi sẽ giống như ô tô: mọi người sẽ chấp nhận ô tô tự lái hoàn toàn khi những chiếc ô tô đó đáng tin nhiều hơn đáng kể so với con người.
Le Point: Vậy là có nguy cơ con người phó mặc toàn bộ quyền quyết định cho máy móc. Ông có sợ điều đó không?
Yann LeCun: Chúng ta đang sống trong một thế giới mà hầu hết các quyết định đều do máy móc đưa ra. Nhưng chúng không phải là những quyết định quan trọng lắm. Khi bạn thực hiện tìm kiếm trên công cụ tìm kiếm, thứ tự hiển thị thông tin cho bạn được xác định bởi các thuật toán. Khi bạn trò chuyện với bạn bè nói ngôn ngữ khác, lời của họ sẽ được dịch ra, kết quả dịch không hoàn hảo, nhưng có thể giúp ích. Mọi công cụ đều có thể được sử dụng cho mục đích tốt và xấu, và bạn dùng chúng cho những mục đích hữu ích. Chúng ta có thể dùng dao để nấu nướng lẫn giết chóc. Rốt cuộc, người dùng luôn là người quyết định các thuật toán làm gì vì các thuật toán này tự động điều chỉnh theo mong muốn của người dùng.
Yuval Noah Harari: AI không phải là một con dao: một con dao không thể quyết định giết ai đó hay cứu mạng ai trong cuộc phẫu thuật. Quyết định luôn nằm trong tay con người. AI là công cụ đầu tiên có khả năng thay thế chúng ta trong việc ra quyết định. Và mối hiểm họa ở đây rất lớn vì có khả năng chúng ta sẽ phạm sai lầm. Và đây có thể là một sai lầm ở mức độ mà ta có lẽ không có thời gian để rút kinh nghiệm. Trong thế kỷ 20, con người đã phát triển các công nghệ công nghiệp mới. Ta đã không biết cách xây dựng một xã hội công nghiệp tốt. Do đó, chúng ta đã mắc phải một số sai lầm khủng khiếp, những thử nghiệm thất bại thảm hại về cách xây dựng xã hội công nghiệp. Chủ nghĩa Quốc xã và Chủ nghĩa Cộng sản là những thí nghiệm thất bại. Hai cuộc chiến tranh thế giới là những sai lầm ghê gớm. Sau khi hủy hoại cuộc sống của hàng trăm triệu người, chúng ta đã học được từ những sai lầm này và cuối cùng học được cách xây dựng các xã hội công nghiệp tốt hơn. Nhưng với công nghệ mới của thế kỷ 21, nếu chúng ta lại mắc phải những sai lầm như vậy, chẳng hạn xây dựng chế độ toàn trị dựa trên AI, hay khơi mào Thế chiến III, có lẽ sẽ không còn đường lùi. Lý do duy nhất chúng ta sống sót qua thế kỷ 20 là vì công nghệ không đủ mạnh để tiêu diệt chúng ta. Công nghệ của thế kỷ 21 mạnh hơn rất nhiều. Nếu chúng ta mắc phải những sai lầm tương tự với công nghệ hiện tại, có khả năng cao là ta sẽ không thể tồn tại để học hỏi từ những sai lầm đó.
Yann LeCun: Điều tương tự cũng có thể xảy ra với tất cả các cuộc cách mạng công nghệ trong lịch sử. Báo in đã phá hủy xã hội ở châu Âu vào đầu thế kỷ 16 bằng sự chia rẽ tôn giáo, nhưng nó cũng mang lại thời kỳ Khai sáng, chủ nghĩa duy lý, khoa học, triết học và dân chủ.
Yuval Noah Harari: Báo in không chỉ thúc đẩy sự khai sáng, mà còn chủ nghĩa đế quốc châu Âu và các cuộc chiến tôn giáo. Tuy nhiên, nó không đủ mạnh để tiêu diệt loài người hoàn toàn. AI đủ mạnh. Nếu có một đợt chiến tranh tôn giáo khác, như giữa Tin lành và Công giáo ở Pháp hồi thế kỷ 16, nhưng với AI và bom hạt nhân, tôi không nghĩ nhân loại sẽ sống sót. Điều nguy hiểm là AI có thể phá hủy nền tảng của nền dân chủ và dẫn đến việc tạo ra các chế độ độc tài kỹ thuật số mới thậm chí còn cực đoan hơn cả Liên Xô.
Xem thêm: Trí tuệ nhân tạo: những người Pháp thách thức ChatGPT
Le Point: Với công nghệ deepfake, liệu nền dân chủ có gặp nguy hiểm không? Và chuyện đó có biện minh được cho việc tạm dừng không?
Yann LeCun: Việc khuếch đại trí thông minh của con người bằng máy móc sẽ tạo ra một thời kỳ phục hưng mới hoặc một thời đại khai sáng mới, được thúc đẩy bởi sự gia tăng tiến bộ khoa học, kỹ thuật, y tế và xã hội nhờ AI. Tôi không nghĩ rằng việc giảm tốc độ hoặc tạm dừng nghiên cứu là hữu ích bởi vì tôi không nghĩ rằng làm thế thì dừng được bất kỳ mối nguy hiểm nào. Để tạm dừng một mối nguy hiểm, bạn sẽ đặt ra vài giả định (trong tổng số các giả định – ND) sai lầm. Đó chính là ý tưởng cho rằng ngay khi bạn bật hệ thống siêu trí tuệ lên, nó sẽ thống trị thế giới. Thật nực cười. Để triển khai các hệ thống AI quy mô lớn trong thế giới mở, bạn cần phải rất cẩn thận. Bạn cần thực hiện từ từ và dưới sự giám sát của chính phủ và công chúng. Tôi nghĩ rằng sự sụp đổ của các xã hội đã xảy ra trong những thập kỷ qua một phần là do các chính phủ phản ứng chậm chạp. Cách đây nhiều năm, Facebook đã đề nghị hàng loạt chính phủ của các nền dân chủ tự do trên khắp thế giới: “Hãy định ra cho chúng tôi nội dung nào là chấp nhận được trên mạng xã hội” bởi vì chúng tôi không nghĩ rằng Facebook có tính hợp pháp để quyết định cho xã hội liệu nội dung chấp nhận được gồm những gì. Chẳng hạn, chúng tôi có nên gỡ bỏ tuyên truyền về tân quốc xã hay về chủ nghĩa phủ nhận Holocaust không, chúng tôi nên gỡ bỏ chúng ở châu Âu vì các nội dung đó là bất hợp pháp à? Và câu trả lời là chẳng có câu trả lời nào cả. Chính quyền Trump cho biết “ở đây chúng tôi có Tu chính án Thứ nhất*, bạn tự mà lo liệu lấy”. Chính phủ duy nhất trên thế giới thực sự phản hồi là chính phủ Macron của Pháp, họ đã ngồi xuống và thảo luận về vấn đề này. Không có điều luật nào được đưa ra, nhưng đã có những cuộc thảo luận xem đâu là cách thích hợp để xác định nội dung phù hợp và điều đó rất khó thực hiện vì bạn phải quyết định sự đánh đổi đúng mực giữa tự do ngôn luận và bảo vệ nền dân chủ. Tôi nghĩ chính các hệ thống dân chủ phải quyết định chuyện này.
Yuval Noah Harari: Những gì anh vừa mô tả cho thấy rằng xã hội cần thời gian. Các chính phủ dân chủ đã không đáp ứng yêu cầu của Facebook vì họ không hiểu tầm quan trọng của nó và tác động của mạng xã hội. Giờ họ đã hiểu, cách phản ứng đã khác. Việc các xã hội loài người, đặc biệt là các nền dân chủ, phải mất nhiều thập kỷ để hiểu rõ những thay đổi và đưa ra quyết định là chuyện bình thường. Đây là lý do tại sao chúng ta cần thêm thời gian. Bây giờ chúng ta phát hành các công cụ AI mới này và xã hội sẽ mất nhiều năm để hiểu được tác động của chúng đối với chính trị, tâm lý, kinh tế… Ta cần giảm tốc phát triển AI để xã hội có thể xác định các mối nguy hiểm và quyết định phải làm gì với nó.
Le Point: Và với những công cụ mới như Midjourney hoặc việc sáng tạo những hình ảnh mới trông rất thật, và Runway, phần mềm có thể giúp người ta tạo những video mới trông như thật, liệu đây có phải là một định nghĩa mới về sự thật? Ngày sẽ càng khó phân rõ thật giả hơn chăng?
Yuval Noah Harari: Ngay cả trước cuộc cách mạng AI hiện tại, chúng ta đã gặp phải vấn đề này. Cuộc đối thoại dân chủ đang sụp đổ vì mọi người, ngay cả các đảng chính thống, không còn khả năng đạt được sự đồng thuận. Tôi nghĩ có một nghịch lý trong các nền dân chủ phương Tây ngày nay. Các quốc gia như Hoa Kỳ có công nghệ thông tin mạnh nhất từ trước đến nay, nhưng người Mỹ không thể đồng ý về việc ai đã thắng trong cuộc bầu cử gần đây nhất vào năm 2020, hoặc về việc vắc-xin hữu ích hay gây nguy hiểm cho chúng ta, thậm chí một số người còn đặt câu hỏi liệu biến đổi khí hậu có thật không. Làm thế nào mà một xã hội với công nghệ thông tin hùng mạnh như vậy dường như không thể đồng ý với nhau về những vấn đề cơ bản nhất?
Yann LeCun: Câu hỏi đặt ra là liệu đây có phải là một hiện tượng mới hay thực tế là công nghệ truyền thông chúng ta có hiện giờ chỉ khiến hiện tượng này trở nên rõ ràng hơn. Nhiều năm trước, một số đồng nghiệp của tôi tại NYU đã thực hiện một nghiên cứu để xem ai sẽ nhấp vào các mồi câu tương tác [clickbait] có vẻ phản cảm. Đáp án là phần lớn những người đã 65 tuổi. Nếu già hơn một chút, có lẽ bạn sẽ khó theo kịp sự tiến hóa của thế giới hiện đại và bạn có thể bị lừa. Nhưng thế hệ trẻ thì không, thế hệ lớn lên với Internet luôn cảnh giác và có phương pháp truy ra nguồn của một mẩu thông tin theo cách có hệ thống hơn. Rất nhiều dự đoán được đưa ra đang bỏ qua một thực tế là mọi người điều chỉnh cách họ tư duy.
Le Point: Một số nhà nghiên cứu coi sự trỗi dậy của AI là mối nguy hiểm lớn đối với nhân loại. Có phải ta đã mất kiểm soát?
Yuval Noah Harari: Hiện tại, chúng ta vẫn đang kiểm soát AI, nhưng có lẽ trong tương lai rất gần thì không. Từ góc độ lịch sử, AI là công cụ đầu tiên trong lịch sử có thể tự đưa ra quyết định. Nhiều người so sánh nó với các cuộc cách mạng trước đây, như năng lượng hạt nhân. Nhưng AI không phải là một quả bom nguyên tử. Bom nguyên tử không thể đưa ra quyết định về cách sử dụng bom nguyên tử. AI có thể đưa ra quyết định về cách sử dụng AI. Nó đã và đang làm như vậy, với Facebook chẳng hạn: ngày càng có nhiều thuật toán quyết định nội dung nào sẽ hiển thị cho mọi người, đó là bài toán điều hướng nổi tiếng, bạn giao cho AI mục tiêu là tối đa hóa lưu lượng truy cập trên Facebook và rồi bạn nhận được kết quả ngoài ý muốn là tối đa hóa sự thù ghét trong xã hội vì AI tự phát hiện ra rằng sự thù ghét làm tăng tương tác. Tôi không nghĩ rằng mạng xã hội hoặc những nhà quản lý của nó cố tình đưa ra hướng dẫn để tăng sự căm ghét đó, nhưng AI đã phát hiện ra rằng cách để tăng tương tác của người dùng là đẩy nội dung lan truyền sự căm ghét, sự giận dữ và các thuyết âm mưu. Và điều này có tác động rất lớn, không dễ đảo ngược ngay cả khi chúng ta lập tức thay đổi thuật toán. Trump được bầu lên một phần nhờ những thuật toán này và bạn không thể hủy kết quả bầu cho ông ấy, hoặc tất cả những thay đổi mà ông ta đã tạo ra cho xã hội Mỹ và thế giới. Vì vậy, câu hỏi đặt ra là: bạn có bao nhiêu cơ hội để đảo ngược điều gì đó sau khi nó đã phạm một sai lầm nghiêm trọng? Và hiện có một mối nguy hiểm khác: trước kia, các thuật toán truyền thông xã hội chỉ lan truyền nội dung do con người tạo ra. Giờ đây, AI cũng có thể tự sản xuất nội dung và đó là thực thể đầu tiên có thể tạo ra các ý tưởng mới. Máy in không viết được sách, radio không thể viết nhạc, AI có thể. Vì vậy, chúng ta đang đối phó với một hiện tượng hoàn toàn mới, cực kỳ mạnh mẽ trong lịch sử loài người mà có thể tước đi quyền lực của chúng ta.
Yann LeCun: Trước hết, Facebook hoặc mạng xã hội mà anh vừa mô tả thì đúng cho hồi khoảng năm 2015. Nhưng đó không phải là những gì đang xảy ra ngày nay. Thực tế thì, khi triển khai một thứ gì đó, bạn đo lường tác động và nếu tác động đó xấu, bạn sẽ sửa cho đúng. Tăng cường tương tác đã là mục tiêu hợp lý, và người dùng Facebook không vui trước kết quả kia, vì vậy thuật toán xếp hạng đã được thay đổi hoàn toàn. Chẳng hạn, có một số sự tái thiết toàn diện quan trọng trong các thuật toán cung cấp nội dung để thực hiện những việc như ngăn chặn thông tin bị định hướng [information bubbles] nhằm không tạo ra các mô hình kinh tế câu tương tác. Điều thú vị trong bối cảnh các mạng xã hội và hệ thống tính toán ngày nay là AI thực sự không phải là một vấn đề, nó là giải pháp. Vậy nên, nếu bạn muốn một hệ thống gỡ bỏ chính xác bài phát biểu của nó và cố gắng thực hiện các hành động khắc phục và những thứ tương tự như thế trên mạng xã hội, AI chính là giải pháp.
Le Point: Vậy chúng ta có lẽ sẽ cần quy định tương tự cho AI như chúng ta đã có cho năng lượng hạt nhân?
Yann LeCun: Việc tạo hệ thống AI tại thời điểm này đòi hỏi nguồn tài nguyên khổng lồ, nhưng cuối cùng ai cũng có thể sử dụng chúng. Vì vậy, AI sẽ không giống như vũ khí hạt nhân. Ngoài ra, điểm khác biệt lớn là AI được thiết kế để giúp mọi người linh hoạt hơn hoặc tăng cường trí thông minh của con người, trong khi vũ khí hạt nhân được thiết kế để giết người.
Yuval Noah Harari: Đó là một câu hỏi hay về AI: Chúng ta thiết kế AI để làm cho con người linh hoạt hơn hay chúng ta thiết kế AI để kiểm soát con người? Cái đó phụ thuộc vào mỗi quốc gia.
Yann LeCun: Một số quốc gia có lẽ đang thiết kế AI để kiểm soát mọi người. Nhưng các quốc gia này chắc chắn sẽ tụt hậu về mặt công nghệ như Đế chế Ottoman đã từng vào thế kỷ 17 khi họ cấm sử dụng công nghệ in ấn. Vào thời Trung cổ, thế giới Hồi giáo vẫn đang thống trị khoa học. Đến thế kỷ 17, họ đã tụt lại phía sau và sau đó ngày càng bị bỏ xa. Điều gì đó tương tự như thế có thể xảy ra ở Trung Quốc, nơi đang tự cô lập mình khỏi hệ sinh thái AI. Và nếu Trung Quốc không cho người dân tiếp cận với công cụ trí tuệ nhân tạo mạnh mẽ hơn vì lo lắng về việc kiểm soát nhập cư, họ cũng sẽ tụt hậu.
Yuval Noah Harari: Tôi hy vọng là anh đúng nhưng tôi nghĩ đó chỉ là mơ tưởng. Đức Quốc xã tiến bộ hơn nhiều so với phương Tây, ví dụ như, về tên lửa và máy bay phản lực. Năm 1940, Đức đã đánh bại Pháp một cách triệt để, mặc dù cán cân quyền lực về kinh tế có lợi cho liên minh Pháp-Anh. Vì vậy, tôi sẽ không vội đánh cuộc rằng các nền dân chủ sẽ luôn thắng thế. Chúng ta cần tính đến các tình huống xấu nhất.
Le Point: AI không chỉ giúp chúng ta tạo ra vật liệu mới, thuốc men và tạo ra việc làm, mà còn có tiềm năng xóa bỏ việc làm. Một nghiên cứu từ Đại học Pennsylvania cho biết những vị trí dễ bị tổn thương nhất có thể là nhà toán học hoặc kế toán, thay vì đầu bếp hoặc vũ công. Đây là lần đầu tiên công việc văn phòng gặp nhiều rủi ro hơn các ngành nghề khác. Ông có thấy AI có tiềm năng của sức mạnh hủy diệt hơn là sáng tạo không?
Yann LeCun: Các nhà kinh tế như Erik Brynjolfsson tại Stanford nói rằng các công nghệ mới thay thế việc làm, nhưng chúng cũng giúp mọi người làm việc hiệu quả hơn, mặc dù phải mất 15 đến 20 năm để giúp mọi người làm việc hiệu quả hơn theo cách có thể đo lường được. Công nghệ thay thế việc làm, nhưng chúng ta tạo ra nó để giúp mọi người làm việc hiệu quả hơn. Tổng số của cải được tạo ra mỗi giờ làm việc tăng lên. Và lý do mất nhiều thời gian tăng hiệu quả đến vậy là do tốc độ công nghệ tác động đến nền kinh tế bị giới hạn bởi tốc độ mọi người có thể học cách sử dụng nó. Và do đó, sự thay thế việc làm cũng bị giới hạn bởi tốc độ mà mọi người có thể học cách sử dụng công nghệ mới. Vậy nên ta sẽ mất 10 hoặc 15 năm. Sẽ có một số chuyển dịch quan trọng trong một số lĩnh vực nhất định của nền kinh tế. Một số người sẽ phải được đào tạo lại. Các quốc gia nào biết cách thực hiện điều này sẽ cần các kế hoạch xã hội, không chỉ ở Hoa Kỳ mà còn bao gồm cả Tây Âu. Chắc chắn sẽ có một số đổ vỡ. Nhưng cuối cùng, mọi người sẽ kiếm được nhiều tiền hơn cho một lượng công việc nhất định hoặc làm việc ít hơn để nhận cùng một lượng tiền.
Le Point: Tức là ông thấy mọi người đều có việc làm và không có bất bình đẳng gia tăng trong hai mươi năm tiếp theo?
Yann LeCun: Việc làm mới sẽ được tạo ra, việc làm cũ sẽ biến mất giống như cách mà quá trình công nghiệp hóa đã diễn ra khi mà tỷ lệ người làm việc trong lĩnh vực sản xuất lương thực giảm từ 60% xuống còn 2%. Những nghề mới sẽ xuất hiện và thay thế những nghề cũ. Hồi 20 năm trước ai có thể nghĩ rằng người ta có thể sống khá giả bằng cách sản xuất video YouTube, làm các ứng dụng dành cho thiết bị di động hoặc trở thành nhà thiết kế web? Và kế đó là câu hỏi cách phân phối sự giàu có này giữa mọi người. Đó là một câu hỏi chính trị, nó phụ thuộc vào bạn chọn bầu cử ai.
Yuval Noah Harari: Công việc cũ sẽ biến mất và công việc mới sẽ được tạo ra. Nhưng tôi lo lắng cho quá trình chuyển tiếp. Trong lịch sử, những sự chuyển tiếp đều đầy nguy hiểm. Ngay cả khi về lâu dài sẽ có đủ việc làm cho mọi người thì trong các thời kỳ chuyển tiếp, nhiều người vẫn có thể chịu thiệt hại lớn trong thời gian quá độ. Quay trở lại với ví dụ thường được dùng, ở Đức, sau cuộc khủng hoảng năm 1929, tỷ lệ thất nghiệp cao chỉ duy trì trong 4 năm – và chúng ta có Hitler. Vì vậy, thời gian là yếu tố then chốt. Và yếu tố còn lại là không gian. Các quốc gia phát triển dẫn đầu cuộc cách mạng AI sẽ được hưởng lợi rất nhiều và sẽ có khả năng hỗ trợ và đào tạo lại lực lượng lao động của họ. Câu hỏi lớn là điều gì xảy ra ở phần còn lại của thế giới? Với một quốc gia như Bangladesh, nơi chủ yếu dựa vào ngành dệt may, điều gì sẽ xảy ra khi việc sản xuất áo sơ mi tự động ở châu Âu rẻ hơn ở Bangladesh? Bạn sẽ lấy đâu ra tiền để đào tạo lại hàng triệu công nhân dệt may 50 tuổi người Bangladesh lúc đấy trở thành kỹ sư AI? Vì vậy, mặc dù tôi không nghĩ rằng AI sẽ gây ra tình trạng thiếu việc làm tuyệt đối, tôi e rằng sự đổ vỡ sẽ cực kỳ nguy hiểm về mặt chính trị. Đấy không phải là vấn đề không thể giải quyết. Bạn có thể đánh thuế các tập đoàn công nghệ cao ở Hoa Kỳ và sử dụng tiền đó để đào tạo lại công nhân dệt may Bangladesh, nhưng tôi không thấy bất kỳ chính quyền Mỹ nào sẽ làm gì đó giống vậy…
Xem thêm: Mistral, dự án bí mật của Pháp để chống lại ChatGPT
Yann LeCun: Đó là một vấn đề lớn, nhưng tôi không nghĩ đó là vấn đề lớn đi kèm với AI. Những tác động của tiến bộ công nghệ trong quá khứ cũng có tác dụng tương tự.
Yuval Noah Harari: AI thì khác, bởi vì nó có thể phá hủy nhu cầu về lao động thủ công giá rẻ, vốn là tài sản kinh tế chính của nhiều nước đang phát triển.
Le Point: Ông có nghĩ rằng AI có thể giúp con người đạt được sự bất tử (hoặc ngược lại, rút ngắn cuộc sống của con người) không? Ông nghĩ gì về đề xuất cấy chip vào não người của Elon Musk để giúp chúng ta mạnh mẽ như AI?
Yuval Noah Harari: Câu hỏi là: Chúng ta nghĩ gì về năng lực nâng cấp của con người? Tôi nghĩ sẽ rất nguy hiểm khi sử dụng AI hoặc các lớp giao tiếp [interface] não-máy tính để “nâng cấp” loài người nhằm đạt được tuổi thọ dài hơn hoặc trí nhớ mạnh mẽ hơn. Con người chúng ta luôn gặp khó khăn trước một khoảng cách lớn giữa khả năng thao túng các hệ thống và sự khôn ngoan cần thiết để hiểu sâu sắc các hệ thống này. Thật không may, thao túng thì dễ hơn hiểu rõ nhiều. Việc xây dựng một con đập trên sông dễ hơn là hiểu tác động của nó lên hệ sinh thái. Do đó, con người chúng ta bắt đầu thao túng mọi thứ từ rất lâu trước khi chúng ta hiểu được hậu quả từ hành động của mình. Trong quá khứ, con người chúng ta đã học cách thao túng thế giới bên ngoài. Chúng ta đã học cách kiểm soát các dòng sông, động vật, rừng rậm. Nhưng vì không hiểu được sự phức tạp của hệ thống sinh thái, chúng đã lạm dụng quyền lực của mình. Con người đã làm mất cân bằng hệ thống sinh thái, và bây giờ chúng ta phải đối mặt với sự sụp đổ về sinh thái. Trong thế kỷ 21, chúng ta có thể học cách thao túng không chỉ thế giới bên ngoài mà cả thế giới bên trong chúng ta. Trí tuệ nhân tạo và các công nghệ khác như kỹ thuật di truyền có thể cho phép chúng ta thiết kế lại cơ thể và tâm trí, đồng thời thao túng cảm xúc, suy nghĩ và cảm giác của mình. Nhưng vì chúng ta không hiểu sự phức tạp của hệ thống tinh thần bên trong mình, ta có thể lạm dụng sức mạnh đó. Chúng ta có thể làm mất cân bằng cơ thể và tâm trí, và ta có thể phải đối mặt với sự suy sụp nội tại song song với cuộc khủng hoảng sinh thái bên ngoài. Cụ thể, các chính phủ, tập đoàn và quân đội có khả năng sử dụng các công nghệ mới để tăng cường các kỹ năng mà họ cần, như trí thông minh và kỷ luật, trong khi ít quan tâm đến việc phát triển các kỹ năng khác, như lòng trắc ẩn, sự nhạy cảm nghệ thuật hoặc tinh thần. Kết quả có lẽ là cho ra những con người rất thông minh và kỷ luật nhưng lại thiếu lòng trắc ẩn, thiếu sự nhạy cảm nghệ thuật và thiếu chiều sâu tinh thần. Do đó, ta có thể đánh mất một phần lớn tiềm năng của loài chúng ta mà không hề nhận ra rằng mình sở hữu nó. Thật vậy, ta không biết tiềm năng đầy đủ của con người là gì, bởi vì chúng ta biết quá ít về tâm trí con người. Và tuy vậy, ta hầu như không đầu tư mấy vào việc khám phá tâm trí con người, thay vào đó ta lại tập trung vào việc tăng sức mạnh của các thuật toán. Tôi hy vọng rằng với mỗi đô la và mỗi phút chúng ta dành cho việc phát triển AI, chúng ta sẽ dành một đô la và một phút khác để khám phá và phát triển tâm trí của chính mình.
Yann LeCun: Chắc chắn AI sẽ đẩy nhanh tiến độ trong y học, chúng ta đã thấy điều đó trong kỹ thuật chẩn đoán hình ảnh. AI giúp chúng ta hiểu cơ chế sinh hóa của sự sống, chẳng hạn bằng cách dự đoán cấu tạo của các protein và tương tác của chúng với các protein khác. Tôi không tin vào kịch bản khoa học viễn tưởng được ưa chuộng rằng AI sẽ thống trị và loại bỏ loài người. Các AI của tương lai có thể thông minh hơn chúng ta, nhưng chúng sẽ phục vụ chúng ta và không có mong muốn thống trị nhân loại. Về cấy ghép não, việc nghiên cứu đã diễn ra trong nhiều năm. Chúng rất hữu ích trong việc điều trị một số rối loạn thị giác và thính giác, và rất có triển vọng đối với một số bệnh tê liệt. Trong tương lai, chúng ta có thể tưởng tượng việc điều trị các khiếm khuyết về trí nhớ bằng cách bổ sung một hồi hải mã nhân tạo. Nhưng tôi nghi ngờ chuyện nhiều người sẽ chấp nhận được cấy ghép để tương tác với một trợ lý ảo. Ít nhất là không có chuyện đó trong tương lai gần.
Le Point: Chúng ta nên dạy con cái mình điều gì để giúp chúng tồn tại và thịnh vượng trong thế giới mới này?
Yann LeCun: Kiến thức không bị lỗi thời. Tôi nghĩ sẽ tốt hơn nếu học những nghề sáng tạo mang tính nghệ thuật hoặc khoa học và đòi hỏi các kỹ năng sâu. Và bất cứ điều gì liên quan đến trải nghiệm và giao tiếp thuộc về bản chất con người, bởi vì chúng không thể bị thay thế bằng máy móc. Hãy tưởng tượng bạn là một nghệ sĩ nhạc jazz ngẫu hứng giỏi giang, bạn đang truyền đạt một trạng thái tinh thần. Chúng ta có thể tạo ra những bản jazz ngẫu hứng bằng cơ khí hoặc công cụ điện tử, nhưng những bản nhạc đó truyền đạt điều gì? Với nghệ thuật cũng vậy: bạn có thể tạo ra những tác phẩm nghệ thuật đẹp mắt, nhưng bạn truyền đạt điều gì? Những công cụ AI sẽ khuếch đại sức sáng tạo của con người, nhưng chúng sẽ không làm cho sự sáng tạo của con người trở nên lỗi thời. Chúng chỉ đơn giản là giúp nhiều người trở nên sáng tạo và phát huy các ý tưởng sáng tạo của họ.
Xem thêm: Khi trí tuệ nhân tạo vào vai biên kịch
Yuval Noah Harari: Thật nguy hiểm khi đặt cược vào một kỹ năng cụ thể. Tốt nhất bạn nên tập trung vào việc học cách học cũng như các công cụ tâm lý cần thiết để tiếp tục thay đổi suốt đời. Vấn đề lớn nhất sẽ là tâm lý: làm thế nào để bạn tiếp tục thay đổi, tiếp tục tái tạo bản thân khi thị trường việc làm ngày càng biến động. AI gia nhập, có thể có nghề mới, nhưng nghề mới cũng biến mất hoặc thay đổi đến chóng mặt trong vòng 10, 20 năm. Và bạn phải tái tạo chính mình lần nữa. Vì vậy, chúng ta nên dạy mọi người cách học, đồng thời giúp họ xây dựng một kiểu nhân cách có khả năng đón nhận sự thay đổi bởi vì thay đổi sẽ là hằng số duy nhất trong thế kỷ 21. Chúc Yann may mắn với những gì mình đang làm, tôi nghĩ tương lai của nền dân chủ phần lớn phụ thuộc vào anh và những người khác trong ngành. Nên mong anh hãy làm việc tốt và có trách nhiệm.
Yann LeCun: Đây luôn là “kim chỉ nam” của tôi.
Huỳnh Thị Thanh Trúc dịch
Nguồn: Yuval Noah Harari (Sapiens) versus Yann LeCun (Meta) on artificial intelligence, Le Point, 11/05/2023.
Nguồn tiếng Việt: Phân Tích Kinh Tế
Không có nhận xét nào:
Đăng nhận xét