Thursday 30 March 2023

KÊU GỌI "NGỪNG A.I." VÌ RỦI RO NGHIÊM TRỌNG CHO XÃ HỘI (Bình Phương / Saigon Nhỏ)

 



Kêu gọi “Ngừng A.I.” vì rủi ro nghiêm trọng cho xã hội

Bình Phương  -  Saigon Nhỏ
29 tháng 3, 2023

https://saigonnhonews.com/doi-song/cong-nghe/keu-goi-ngung-a-i-vi-rui-ro-nghiem-trong-cho-xa-hoi/

 

Hơn một ngàn nhà quản lý công nghệ, nhà nghiên cứu đã ký tên vào một lá thư ngỏ thúc giục các phòng thí nghiệm trí tuệ nhân tạo (artificial intelligence – A.I.) “tạm ngừng” (moratorium) việc phát triển các hệ thống A.I. mạnh hơn nữa vì lo ngại “những rủi ro trầm trọng cho xã hội và nhân loại”, báo The New York Times tường thuật.

 

 

https://saigonnhonews.com/wp-content/uploads/2023/03/GettyImages-1248378294.jpg

GPT-4 , phiên bản A.I. mới nhất, mạnh nhất nâng cấp từ ChatGPT của công ty OpenAI, được cho là một bộ não tinh tế không thua kém bộ óc con người. Logo GPT-4 được trình chiếu lại sự kiện giới thiệu sản phẩm ở Ba Lan hôm 13 tháng Ba vừa qua.Ảnh Jaap Arriens/NurPhoto via Getty Images

 

Thư ngỏ, do tổ chức Viện Tương Lai Sự Sống (Future of Life Institute) khởi thảo và công bố hôm thứ Tư 29 tháng Ba, quy tụ nhiều nhân vật nổi tiếng trong lĩnh vực công nghệ Mỹ như Elon Musk – chủ nhân và người điều hành SpaceX, Tesla, Twitter; Steve Wozniak – đồng sáng lập Apple; Andrew Yang – doanh nhân và ứng cử viên tổng thống Mỹ và Rachel Bronson – chủ tịch tổ chức Bản tin các Nhà Khoa Học Nguyên Tử, cơ quan điều hành Đồng hồ Ngày Tận thế (Doomsday Clock) và nhiều học giả tại các trường đại học, viện nghiên cứu.

 

Những người phát triển công nghệ A.I. “đang lao vào một cuộc chạy đua ngoài tầm kiểm soát để phát triển và đưa vào ứng dụng những bộ óc kỹ thuật số ngày càng mạnh mẽ mà không ai – kể cả những người tạo ra chúng – có thể hiểu được, dự đoán được hoặc kiểm soát được một cách đáng tin cậy,” thư ngỏ cảnh báo.

 

A.I. vận hành những chatbot như ChatGPT của OpenAI, Bing của Microsoft và Bard của Google, là những thứ có thể đối thoại giống như người thật, tạo ra những bài nghị luận về vô số các đề tài khác nhau và thực hiện những nhiệm vụ phức tạp như viết các mã điện toán.

 

Nhu cầu phát triển những chatbot mạnh mẽ hơn nữa đã dẫn tới một cuộc chạy đua nhằm quyết định những người lãnh đạo mới của ngành công nghiệp điện toán trong tương lai. Nhưng những công cụ này bị phê phán vì chúng có thể đưa ra những nhận định sai và lan truyền tin tức giả mạo, sai sự thật.

 

Thư ngỏ của các nhà khoa học kêu gọi “tạm ngừng” việc phát triển các hệ thống A.I. mạnh hơn GPT-4, một chatbot mà công ty OpenAI công bố đầu tháng này. Lá thư cho biết, việc “tạm ngừng” sẽ mang lại một quãng thời gian để thực hiện “quy tắc an toàn chung” cho các hệ thống A.I. “Nếu không thể thực hiện ngay một cuộc tạm ngừng như vậy thì các chính phủ phải vào cuộc và áp đặt một cuộc tạm ngừng,” thư ngỏ cho biết. 

 

Việc phát triển các hệ thống A.I. mạnh mẽ chỉ nên được xúc tiến “một khi chúng ta tin rằng chúng sẽ có tác động tích cực và quản lý được những rủi ro của chúng”, lá thư nói thêm. “Nhân loại có thể tận hưởng một tương lai thịnh vượng với A.I. Đã thành công trong việc tạo ra những hệ thống A.I. mạnh mẽ, bây giờ chúng ta nên tận hưởng một ‘mùa nghỉ hè A.I.’ trong đó chúng ta gặt hái thành quả, điều chỉnh những hệ thống này sao cho có lợi rõ ràng cho tất cả mọi người và để cho xã hội một cơ hội để thích nghi,” lá thư viết.

 

Giám đốc điều hành của OpenAI, ông Sam Altman, không ký vào thư ngỏ.

 

https://saigonnhonews.com/wp-content/uploads/2023/03/GettyImages-1473912473-1-2048x1365.jpg

Tập đoàn Baidu của Trung Quốc cũng lao vào cuộc chạy đua phát triển các hệ thống A.I. vối chatbot ERNIE vừa chào hàng hôm 15 tháng Ba. Ảnh LONG WEI / Feature China/Future Publishing via Getty Images

 

Một số nhà khoa học cho rằng, thuyết phục cộng đồng công nghệ tự nguyện “tạm ngừng” là chuyện khó, còn yêu cầu các chính phủ hành động nhanh chóng còn khó hơn nữa vì các nhà lập pháp đang làm rất ít để điều hành lĩnh vực trí tuệ nhân tạo. Các chính trị gia Hoa Kỳ thậm chí không hiểu biết nhiều về công nghệ A.I., theo lời một dân biểu trong Hạ Viện. 

 

Năm 2021, các nhà lập chính sách của Liên minh Châu Âu đã đề nghị một dự luật quản lý các công nghệ A.I. có tiềm năng gây hại cho con người, chẳng hạn như công nghệ nhận diện khuôn mặt. Dự luật – có thể được ban hành cuối năm nay – yêu cầu các công ty phải đánh giá rủi ro các công nghệ A.I. của họ để xác định chúng có thể ảnh hưởng tới sức khỏe, sự an toàn và quyền của cá nhân như thế nào.

 

                                                      ***

GPT-4 là thứ mà các nhà nghiên cứu A.I. gọi là một “mạng thần kinh” (neural network), tức là một hệ thống thuật toán học tập các kỹ năng từ phân tích dữ kiện. Mạng thần kinh sử dụng cùng công nghệ mà các “trợ lý ảo” như Siri của Apple hoặc Alexa của Amazon dùng để nhận biết các lệnh bằng lời nói, các xe tự lái dùng để nhận biết người đi bộ…

 

Ngay từ năm 2018, các công ty Google và OpenAI đã bắt đầu xây dựng các mạng thần kinh học tập kỹ năng từ khối lượng khổng lồ các văn bản đã được số hóa, bao gồm sách vở, từ điển bách khoa Wikipedia, các bản đối thoại và những thông tin khác lấy từ mạng Internet. Các mạng thần kinh này được gọi là “mô hình ngôn ngữ lớn”, viết tắt là L.L.M. (large language models).

 

Bằng cách xác định chính xác hàng tỷ mẫu câu trong tất cả các văn bản đó, L.L.M. học cách tạo ra văn bản của riêng nó, bao gồm các dòng tin ngắn (tweet), bài viết và những chương trình điện toán. Chúng thậm chí còn có thể đối thoại. Theo năm tháng, OpenAI và các công ty khác đã xây dựng các L.L.M. học tập được ngày càng nhiều dữ liệu và cải thiện năng lực của chúng. 

 

Tuy nhiên các hệ thống vẫn mắc lỗi; chúng thu nhận những dữ kiện sai và chế ra các thông tin không báo trước – hiện tượng mà các nhà nghiên cứu gọi là “chứng ảo giác” (hallucination). Bởi vì các hệ thống đưa ra thông tin gần như với sự tự tin hoàn toàn, người tiếp nhận rất khó phân biệt thông tin nào là đúng, thông tin nào sai.

 

Các chuyên gia lo ngại những phần tử xấu có thể sử dụng các hệ thống này để lan truyền tin giả, tin xuyên tác với tốc độ và mức hiệu quả cao hơn nhiều so với trước kia. Họ tin điều đó có thể được dùng để dụ dỗ hành vi của mọi người trên toàn cõi Internet.

 

Trong nhiều năm, nhiều nhà nghiên cứu A.I, các học giả và nhà quản lý công nghệ – kể cả ông Musk, một trong những người sáng lập công ty OpenAI – đã lo ngại rằng các hệ thống A.I có thể gây ra những tai họa lớn hơn nữa, nhiều người cảnh báo rằng cuối cùng A.I. có thể hủy diệt nhân loại; một số người khác lo ngại nhiều hơn tới những nguy cơ trước mắt, chẳng hạn như lan truyền tin giả và nguy cơ nhiều người dựa vào A.I. để tìm cách điều trị bệnh tật và cảm xúc.

 

-----------------

Đọc thêm:

 

Bản PDF tặng độc giả, Vol 5 – Thế giới và cơn sốt ChatGPT

 

ChatGPT và mối đe dọa lan truyền tin giả





No comments:

Post a Comment

View My Stats