Sunday 7 May 2023

NĂM THẾ GIỚI CỦA TRÍ TUỆ NHÂN TẠO (Scott Aaronson - Boaz Barak)

 



Năm thế giới của trí tuệ nhân tạo    

Five Worlds of AI 

Scott Aaronson - Boaz Barak

Doãn Minh Đăng  dịch

05/05/2023 17:53

https://www.diendan.org/khoa-hoc-ky-thuat/nam-the-gioi-cua-tri-tue-nhan-tao

 

Trí tuệ nhân tạo đã đạt được những tiến bộ đáng kinh ngạc trong thập kỷ qua, nhưng ở một khía cạnh quan trọng, nó vẫn lệch nhịp so với lý thuyết khoa học máy tính của những năm 1990: cụ thể là, không có bài luận nào mô tả năm thế giới tiềm năng mà chúng ta có thể sống và đặt tên ấn tượng cho từng thế giới đó. Nói cách khác, chưa ai làm được cho AI những gì mà Russell Impagliazzo đã làm cho lý thuyết độ phức tạp vào năm 1995, khi ông định nghĩa "năm thế giới" Algorithmica, Heuristica, Pessiland, Minicrypt và Cryptomania, tương ứng với năm cách giải quyết có thể có của bài toán P so với NP cùng các vấn đề trung tâm chưa được giải quyết của mật mã học.(1)

 

Trong bài đăng trên blog này, chúng tôi—Scott và Boaz—muốn lấp khoảng trống này. Cụ thể, chúng tôi xem xét 5 kịch bản có thể xảy ra về cách AI sẽ phát triển trong tương lai. (Tình cờ thay, tại một hội thảo năm 2009 kỷ niệm "năm thế giới" của Impagliazzo do Boaz đồng tổ chức, Scott đã gặp người vợ hiện tại của mình, nhà lý thuyết về độ phức tạp Dana Moshkovitz. Chúng tôi hy vọng nền văn minh sẽ tiếp tục đủ lâu để ai đó trong tương lai có thể gặp bạn tâm giao, hoặc bạn thần kinh giao (neuron-mate) của họ, tại một hội thảo trong tương lai về "năm thế giới" của chúng tôi.)

 

Giống như trong bài báo năm 1995 của Impagliazzo về năm thế giới tiềm ẩn của độ khó của các bài toán NP, chúng tôi sẽ không cố gắng kể hết mọi thứ mà tập trung vào các trường hợp cực đoan. Có thể chúng ta sẽ kết thúc ở một hỗn hợp của nhiều thế giới hoặc một tình huống không được mô tả bởi bất kỳ thế giới nào. Thật vậy, một điểm khác biệt quan trọng giữa bối cảnh của chúng ta và bối cảnh của Impagliazzo, đó là trong trường hợp về độ phức tạp, các thế giới tương ứng với các phỏng đoán toán học cụ thể (và loại trừ lẫn nhau). Vì vậy, theo một nghĩa nào đó, câu hỏi không phải là “chúng ta sẽ sống trong thế giới nào?” mà là “thế giới nào chúng ta luôn luôn sống ở đó mà không nhận ra?” Ngược lại, tác động của AI sẽ là sự kết hợp phức tạp giữa các giới hạn toán học, khả năng tính toán, phát minh của con người cùng các vấn đề xã hội và pháp lý. Do đó, các thế giới mà chúng ta mô tả không chỉ phụ thuộc vào các khả năng và hạn chế cơ bản của trí tuệ nhân tạo, và loài người cũng có thể chuyển từ thế giới này sang thế giới khác theo thời gian.

 

Không chần chừ gì nữa, chúng tôi đặt tên cho năm thế giới của mình là “ AI-Fizzle,” “Futurama,” “AI-Dystopia,” “Singularia,” và “Paperclipalypse.”   Trong bài tiểu luận này, chúng tôi không cố gắng gán xác suất cho các tình huống này; chúng tôi chỉ phác thảo các giả định cùng những hệ quả kỹ thuật và xã hội của chúng. Chúng tôi hy vọng rằng bằng cách đưa ra các giả định rõ ràng, chúng tôi có thể giúp tạo nền tảng cho cuộc tranh luận về các rủi ro khác nhau xung quanh AI.

 

Hình : https://www.diendan.org/khoa-hoc-ky-thuat/nam-the-gioi-cua-tri-tue-nhan-tao/fiveworlds.jpg

 

AI-Fizzle. Trong kịch bản này, AI sẽ “xì hơi” (fizzle) khá sớm. AI vẫn có tác động đáng kể đến thế giới (vì vậy nó không giống như “bong bóng tiền điện tử”), nhưng so với những kỳ vọng hiện tại, đây được coi là một nỗi thất vọng. AI có thể được so sánh tương tự với năng lượng hạt nhân hơn là các cuộc cách mạng công nghiệp hoặc máy tính: ban đầu mọi người rất vui mừng về tiềm năng dường như vô hạn, nhưng nhiều thập kỷ sau, tiềm năng đó hầu như chưa được thực hiện. Tuy nhiên, với năng lượng hạt nhân, nhiều người sẽ lập luận rằng tiềm năng đã không được thực hiện chủ yếu vì lý do chính trị xã hội hơn là lý do kỹ thuật. AI cũng có thể xì hơi bởi các quyết định chính trị?

 

Bất kể câu trả lời là gì, một khả năng khác là hàm số chi phí (về dữ liệu và tính toán) tăng lên quá nhanh theo biến số hiệu suất và độ tin cậy khiến AI không hiệu quả về chi phí khi áp dụng trong nhiều lĩnh vực. Nghĩa là, có thể đối với hầu hết các công việc, con người vẫn sẽ hiệu quả hơn về độ tin cậy và tiết kiệm năng lượng (chúng ta thường không nghĩ rằng mức tiêu thụ năng lượng thấp là chìa khóa cho sự đặc biệt của con người, nhưng nó có thể diễn ra như vậy!). Vì vậy, giống như phản ứng tổng hợp hạt nhân, một AI mang lại giá trị cao hơn đáng kể so với các nguồn lực cần thiết để xây dựng và triển khai nó có thể luôn tồn tại trong vài thập kỷ tới. Trong kịch bản này, AI sẽ thay thế và nâng cao một số công việc của con người cũng như cải thiện năng suất, nhưng thế kỷ 21 sẽ không phải là “thế kỷ của AI” và tác động của AI đối với xã hội sẽ bị hạn chế theo cả mặt tốt và mặt xấu.

 

Futurama. Trong kịch bản này, AI tạo ra một cuộc cách mạng hoàn toàn có thể so sánh với các cuộc cách mạng khoa học, công nghiệp hoặc thông tin (nhưng “chỉ” với những cuộc cách mạng đó). Các hệ thống AI phát triển đáng kể về khả năng và thực hiện nhiều nhiệm vụ hiện thuộc về các chuyên gia (con người) với một phần nhỏ chi phí, trong một số lĩnh vực "rất con người". Tuy nhiên, các hệ thống AI vẫn được con người sử dụng như là công cụ, và ngoại trừ một số nhà tư tưởng bên lề, không ai coi chúng là có tri giác. AI dễ dàng vượt qua bài kiểm tra Turing, có thể chứng minh các định lý khó và có thể tạo nội dung giải trí (cũng như tạo tin giả như thật). Nhưng nhân loại sẽ quen dần với điều đó, giống như chúng ta đã quen với việc máy tính vượt con người khi chơi cờ vua, dịch văn bản và tạo hiệu ứng đặc biệt trong phim. Hầu hết mọi người không còn cảm thấy thua kém AI của họ rõ hơn là cảm thấy thua kém chiếc ô tô của mình vì nó chạy nhanh hơn. Trong trường hợp này, con người có thể sẽ nhân cách hóa AI ít hơn theo thời gian (như đã xảy ra với máy tính kỹ thuật số). Trong “Futurama”, AI, giống như bất kỳ công nghệ mang tính cách mạng nào, sẽ được sử dụng cho cả mục đích tốt và xấu. Nhưng cũng giống như các cuộc cách mạng công nghệ lớn trước đây, nhìn chung thì AI sẽ có tác động tích cực lớn đến nhân loại. AI sẽ được sử dụng để xóa đói giảm nghèo và đảm bảo rằng nhiều người hơn được tiếp cận với thực phẩm, chăm sóc sức khỏe, giáo dục và các cơ hội kinh tế. Trong “Futurama”, hệ thống AI đôi khi sẽ gây hại, nhưng phần lớn những thất bại này là do sơ suất hoặc ác ý của con người. Một số hệ thống AI có thể phức tạp đến mức có thể mô hình hóa chúng là có khả năng hoạt động “bất lợi”, và một phần của thực tiễn triển khai AI một cách có trách nhiệm là đảm bảo một “lớp bọc vận hành” giúp hạn chế thiệt hại tiềm ẩn của chúng ngay cả khi gặp sự cố đối nghịch. 

 

AI-Dystopia. Các giả định kỹ thuật của “AI-Dystopia” tương tự như của “Futurama”, nhưng kết quả cuối cùng lại cực kỳ khác biệt. Ở đây, một lần nữa, AI mở ra một cuộc cách mạng ở quy mô của các cuộc cách mạng công nghiệp hoặc máy tính, nhưng sự thay đổi rõ ràng là tồi tệ hơn. AI làm tăng đáng kể quy mô giám sát của chính phủ và các tập đoàn tư nhân. Nó gây ra tình trạng mất việc làm lớn trong khi làm giàu cho một nhóm nhỏ ưu tú. Nó khơi sâu những bất bình đẳng và thành kiến ​​hiện có của xã hội. Và nó lấy đi một công cụ trung tâm chống lại sự áp bức: cụ thể là khả năng của con người từ chối hoặc lật đổ các mệnh lệnh của giới thống trị.

 

Thật thú vị, thậm chí có khả năng cùng tương lai có thể được một số người mô tả là Futurama và một số khác xem nó như AI-Dystopia – giống như cách một số người nhấn mạnh nền văn minh công nghệ hiện tại của chúng ta đã giúp hàng tỷ người thoát khỏi đói nghèo và nâng cao mức sống như thế nào (điều chưa từng có trong lịch sử), trong khi những người khác tập trung vào sự bất bình đẳng và đau khổ vẫn đang tồn tại (và trong một số trường hợp đang gia tăng), và coi đó là sự lạc hậu của chủ nghĩa tư bản tân tự do.

 

Singularia.   Ở đây, AI thoát ra khỏi mô hình hiện tại, nơi muốn tăng khả năng (của AI) thì đòi hỏi nguồn tài nguyên về dữ liệu và tính toán ngày càng tăng. Nó không còn phụ thuộc vào dữ liệu hoặc phần cứng và năng lượng do con người cung cấp mà vẫn trở nên mạnh mẽ hơn với tốc độ ngày càng tăng. AI cải thiện khả năng trí tuệ của chính chúng, bao gồm cả việc phát triển khoa học mới và (dù là do thiết kế có chủ ý hay tình cờ) chúng đóng vai trò là các phần tử có định hướng về mục tiêu trong thế giới vật chất. Chúng có thể được coi là một nền văn minh ngoài hành tinh – hoặc có lẽ là một loài mới, so với chúng ta thì giống như chúng ta ("Người tinh khôn" - Homo sapiens) so với "Người đứng thẳng" - Homo erectus.

 

Tuy nhiên, may mắn thay (và một lần nữa, dù là do thiết kế cẩn thận hay chỉ là sản phẩm phụ từ nguồn gốc loài người của chúng), AI hành động với chúng ta như những vị thần nhân từ và dẫn chúng ta đến một “xã hội không tưởng AI”. Chúng giải quyết các vấn đề vật chất cho chúng ta, mang đến cho chúng ta sự sung túc vô tận và có lẽ là những cuộc phiêu lưu thực tế ảo do chúng ta lựa chọn. (Mặc dù có thể, như trong phim "Ma trận", các AI sẽ phát hiện ra rằng con người cần có xung đột nào đó, và tất cả chúng ta sẽ sống trong một mô phỏng của Twitter năm 2020, liên tục can thiệp vào nhau…).

 

Paperclipalypse.   Trong “Paperclipalypse” hay “AI Doom”, một lần nữa chúng ta nghĩ về các AI trong tương lai như một “chủng tộc ngoài hành tinh” siêu thông minh, phát triển không cần con người. Tuy nhiên, ở đây, các AI hoặc tích cực phản đối sự tồn tại của con người hoặc thờ ơ với nó theo cách gây ra sự tuyệt chủng của loài người như một hệ quả phụ. Trong kịch bản này, AI không phát triển khái niệm đạo đức có thể so sánh với chúng ta, hoặc thậm chí không có khái niệm rằng việc duy trì sự đa dạng của các loài và đảm bảo con người không bị tuyệt chủng có thể hữu ích cho chúng về lâu dài. Thay vào đó, sự tương tác giữa AI và Homo sapiens kết thúc giống như cách mà Homo sapiens hoàn toàn thay thế người Neanderthal. 

 

Trên thực tế, những mô tả kinh điển về một kịch bản như vậy tưởng tượng ra một sự tương tác đột ngột hơn nhiều so với sự cọ xát của chúng ta với người Neanderthal. Ý tưởng là, có lẽ vì chúng bắt nguồn từ một số quy trình tối ưu hóa, các hệ thống AI sẽ có một số mục tiêu mạnh mẽ nhưng cụ thể một cách kỳ lạ (à la  “maximizing paperclips” - “tối đa hóa kẹp giấy” (2)), mà sự tiếp tục tồn tại của con người đằng nào cũng là một trở ngại. Vì vậy, các AI nhanh chóng tiến hành các kịch bản và chỉ trong vài phần nghìn giây, quyết định rằng giải pháp tối ưu là giết tất cả con người, mất thêm vài phần nghìn giây để lập kế hoạch cho điều đó và thực hiện nó. Nếu các điều kiện chưa chín muồi để thực hiện kế hoạch của chúng, các AI sẽ giả vờ là những công cụ ngoan ngoãn, như trong kịch bản “Futurama”, chờ đợi thời điểm thích hợp để tấn công. Trong kịch bản này, quá trình tự phát triển của AI diễn ra nhanh đến mức con người thậm chí có thể không nhận ra điều đó. Không cần phải có giai đoạn trung gian trong đó AI “chỉ” giết chết vài nghìn người, gióng lên hồi chuông cảnh báo kiểu 11/9.

 

.

Quy chế kiểm soát

 

Tác động thực tế của các quy định về AI phần lớn phụ thuộc vào việc chúng ta đánh giá những kịch bản nào có khả năng xảy ra nhất. Quy định kiểm soát không quá quan trọng trong kịch bản “AI Fizzle” trong đó AI thất bại. Trong “Futurama”, các quy định sẽ nhằm mục đích đảm bảo rằng về mặt cân bằng, AI được sử dụng cho mục đích tốt hơn là cho mục đích xấu, và thế giới không bị biến thành “AI Dystopia”.   Mục tiêu thứ hai đòi hỏi các quy định chống độc quyền và khoa học mở để đảm bảo rằng quyền lực không tập trung vào một số tập đoàn hoặc chính phủ. Do đó, các quy định là cần thiết để dân chủ hóa sự phát triển AI hơn là hạn chế nó. Điều này không có nghĩa là AI sẽ hoàn toàn không được kiểm soát. Nó có thể được đối xử tương tự như thuốc – một thứ có thể có tác dụng phức tạp và cần trải qua thử nghiệm trước khi triển khai đại trà. Cũng sẽ có các quy định nhằm giảm khả năng “những kẻ xấu” (dù là các quốc gia hay cá nhân) tiếp cận với các AI tiên tiến, nhưng có lẽ phần lớn nỗ lực sẽ là tăng cơ hội cản trở chúng (ví dụ: sử dụng AI để phát hiện thông tin sai lệch do AI tạo ra hoặc sử dụng AI để củng cố hệ thống chống lại tin tặc do AI hỗ trợ). Điều này tương tự như cách hầu hết các chuyên gia học thuật tin rằng mật mã nên được kiểm soát (và cách chủ yếu người ta kiểm soát nó hiện nay ở hầu hết các quốc gia dân chủ): đó là một công nghệ có thể được sử dụng cho cả mục đích tốt và xấu, nhưng chi phí hạn chế quyền truy cập của nó đối với công dân bình thường lớn hơn lợi ích. Tuy nhiên, như chúng ta làm với các khai thác bảo mật ngày nay, chúng ta có thể hạn chế hoặc trì hoãn việc phát hành công khai các hệ thống AI ở một mức độ nào đó.

 

Tuy nhiên, nếu chúng ta thấy trước được “Singularia” hoặc “Paperclipalypse” ở bất kỳ mức độ nào, các quy định đóng một vai trò hoàn toàn khác. Nếu chúng ta biết mình đang hướng tới “Singularia”, thì có lẽ các quy định sẽ trở nên thừa thãi, có lẽ ngoại trừ việc cố gắng đẩy nhanh sự phát triển của AI! Trong khi đó, nếu người ta chấp nhận các giả định của “Paperclipalypse”, bất kỳ quy định nào khác ngoài những quy định hà khắc nhất cũng có thể là vô ích. Nếu trong tương lai gần, hầu như bất kỳ ai cũng có thể chi vài tỷ đô la để xây dựng một AI tự hoàn thiện theo cách đệ quy có thể biến thành một tác nhân siêu thông minh để hủy diệt thế giới, và hơn thế nữa (không giống như vũ khí hạt nhân), họ sẽ không cần vật liệu đặc biệt để làm điều đó, thì thật khó để biết làm thế nào để ngăn chặn ngày tận thế, có lẽ ngoại trừ thông qua một thỏa thuận được thực thi nghiêm ngặt trên toàn thế giới để “tắt tất cả,” như Eliezer Yudkowsky hiện đang công khai kêu gọi. Các quy định “thông thường” cùng lắm là trì hoãn ngày tận thế trong một khoảng thời gian ngắn – với tốc độ tiến bộ của AI hiện tại, có lẽ không quá vài năm. Do đó, bất kể khả năng người ta xem xét kịch bản này như thế nào, người ta có thể muốn tập trung nhiều hơn vào các kịch bản khác chỉ vì lý do phương pháp luận!

 

Scott Aaronson - Boaz Barak

(Doãn Minh Đăng dịch)

 

-------------

Chú thích: 

 

(1) Bạn nào muốn đọc thêm về 5 thế giới của Impagliazzo có thể tham khảo bài “Bốn thế giới ảo và một thế giới thực" (Phan Dương Hiệu, đã đăng trên Pi).

 

(2) Có thể tham khảo bài viết  The Paperclip Maximiser về khái niệm "tối đa hóa kẹp giấy" này.

 

Bản gốc: 

Five Worlds of AI trên blog của Scott Aaronson.

 

Scott Aaronson là Giám đốc Trung tâm nghiên cứu lượng tử của Đại học Texas ở Austin và Boaz Barak là GS của Đại học Harvard.


 




No comments:

Post a Comment

View My Stats