Vì
sao người ta sợ AI đến thế?
Thursday, April 1, 2021
http://nguyenvanphu.blogspot.com/2021/04/vi-sao-nguoi-ta-so-ai-en-the.html
Nếu chỉ một mình các nhà
văn viết truyện khoa học viễn tưởng lo sợ có ngày trí tuệ nhân tạo (AI) chiếm
ngự, điều khiển loài người thì không nói làm gì. Đằng này ngày càng có nhiều
nhà khoa học nổi tiếng cũng cảnh báo mối nguy do AI đem lại, như Stephen
Hawking từng nói: “Việc phát triển trí tuệ nhân tạo hoàn chỉnh có thể dẫn đến sự
diệt vong của loài người”. Vì sao có nỗi sợ này? Không phải khi nguy cấp chỉ cần
ngắt điện là tắt mọi AI sao? Về đề tài này, tờ Vox vừa có một bài dài dạng
hỏi đáp rất hữu ích.
Trước hết AI là gì?
Người ta thường dùng cụm
từ “trí tuệ nhân tạo” cho đủ loại chương trình máy tính thông minh, từ ứng dụng
Siri trên điện thoại iPhone, chương trình dịch tự động của Google đến các phần
mềm chơi cờ bất bại hay các hệ thống tinh vi có thể ứng xử như một vị thần biết
hết mọi thứ trên đời. Thật ra với các nhà nghiên cứu,
họ thường xếp các AI thành 2 dạng: AI chuyên biệt và AI tổng quát. AI
chuyên biệt nay đã giỏi hơn người trong nhiều lãnh vực: máy móc nay đọc phim
hay chẩn đoán ung thư chính xác hơn bác sĩ nhiều lần. AI tổng quát, tức thông
minh đủ thứ là chưa có, chưa hề tồn tại.
Trong vài năm gần đây AI
chuyên biệt đã có những bước tiến ghê gớm. Như ứng dụng dịch tự động của Google
đã giỏi hơn ngày xưa nhiều lắm rồi, không còn các câu dịch ngây ngô nữa. Trong
các hoạt động thường ngày, chúng ta từng tiếp xúc với nhiều dạng AI chuyên biệt
như trả kết quả tìm kiếm thông tin trên Google, sắp xếp thông tin trên trang
Facebook của từng người, hiển thị các video trên YouTube, giới thiệu phim, nhạc
trên Netflix hay Spotify. Có những chương trình máy tính thông minh biết viết
báo, soạn nhạc mà kết quả không kém gì do người làm, tốc độ thì nhanh gấp triệu
lần.
Những tiến bộ này một phần
là do con người đã biết cách bày cho máy tự học. Thoạt tiên phải trưng ra từng
tấm hình và dạy cho máy đây là con mèo, kia là con chó nhưng sau đó nó tự học bằng
cách thu thập một lượng dữ liệu khổng lồ, xử lý chúng rồi tự rút ra các quy luật
cần thiết. Trong quá trình này máy đã học được các kỹ năng nhận diện hình ảnh,
nhận biết ngôn ngữ chẳng khác gì quá trình học của một đứa bé. Chẳng sớm thì muộn
sẽ xuất hiện các hệ thống AI tổng quát như một “túi khôn” vô hạn mà con người
có thể thò tay vào khai thác.
Với những ai vẫn còn hoài
nghi khả năng máy tính thông minh hơn con người, cứ thử tưởng tượng một kịch bản:
người ta làm ra một hệ thống AI thua sút con người đủ mọi phương diện chỉ trừ một
lãnh vực: AI này là một kỹ sư chuyên thiết kế và cải tiến các hệ thống AI sao
cho ngày càng hoàn thiện hơn. Vậy là nó cứ mày mò thử sai để các sản phẩm của
nó – các AI đời mới – ngày càng thông minh hơn như một vòng tròn khép kín,
không cần sự can thiệp của loài người nữa.
AI gây hại ra sao?
Hiện nay dù chưa có AI tổng
quát, các AI chuyên biệt đã có thể gây hại cho loài người bằng đủ cách. Dùng
các chương trình viết tin tự động, người ta đã có thể đẻ ra đủ loại “tin giả” đọc
vào nghe như thật và thực tế mạng xã hội đang dày đặc thông tin loại này, tức
thông tin trộn lẫn giả với thật do máy nhào nặn ra rồi tự động đưa lên hàng
ngàn, hàng chục ngàn tài khoản giả cũng do máy tạo ra. Các thuật toán sử dụng
AI đang dựa vào thói quen của người dùng để giới thiệu video mới trên YouTube;
vì người soạn thuật toán muốn giữ chân người xem càng lâu càng tốt nên chương
trình AI sẽ giới thiệu các video gây nghiện, gây tò mò, y như thủ thuật viết
tít câu khách của báo lá cải ngày trước.
Máy bay không người lái
được điều khiển một phần do người, một phần do phân tích của AI đưa ra có thể dẫn
đến cái chết của thường dân khi được sử dụng để tiêu diệt một tay khủng bố nào
đó. Chương trình nhân diện gương mặt người từng dẫn tới nhiều trường hợp bắt nhầm
người trong thực tế. Các trường hợp này có thể gán tác hại của AI do nhầm lẫn của
con người nhưng nó hé lộ cho thấy một tương lai khủng khiếp khi AI được sử dụng
nhiều hơn trong cuộc sống và sẽ quyết định nhiều thứ hơn liên quan đến sự an
nguy của nhiều người.
Máy học, có nghĩa quá
trình này không có sự can thiệp của con người và con người không hiểu hết các
khâu máy tự học kiến thức mới. Giả thử chúng ta bảo một AI làm sao chơi game được
điểm càng cao cao tốt, mục đích là để máy tự chơi và học được các kỹ năng liên
quan đến chơi game. Nhưng máy tự học và thấy chỉnh sửa luật chơi từ gốc sẽ giúp
nó đạt điểm tối đa. Nó sẽ đi theo con đường “tà đạo” này một cách tự nhiên,
không chút áy náy chơi gian.
Stephen Hawking đã dùng ẩn
dụ giết kiến để minh họa cho khả năng AI gây đại họa. Ông viết: “Có lẽ bạn
không phải là người thù ghét gì lũ kiến, dí chân giết chúng chỉ vì độc ác.
Nhưng giả thử bạn chịu trách nhiệm xây một đập thủy điện và gần đấy có một tổ
kiến sẽ ngập trong nước, vậy là lũ kiến đi tong. Chúng ta đừng đặt con người vào
vị trí của lũ kiến như thế”. Ý tưởng AI có thể gây hại cho con người xuất phát
từ chỗ chúng ta giao cho AI một nhiệm vụ, chúng sẽ tìm mọi cách để thực hiện
nhiệm vụ đó, bất kể sẽ có hại hay không cho con người. Ví dụ có một hệ thống AI
được giao nhiệm vụ tính toán một con số nào đó, AI này nhận ra nếu dùng hết nguồn
lực tính toán trên thế giới thì việc tính toán sẽ nhanh hơn và nếu dùng một vũ
khí sinh học nào đó để tiêu diệt hết loài người thì nguồn lực tính toán sẽ tập
trung về một mối – thế là nó sợ gì mà không cho nổ quả bom sinh học đó.
Hiện nay các chương trình
máy tính đã rất phức tạp, phát hiện một lỗi đã là khó; giả thử máy có khả năng
điều chỉnh chương trình, thêm vào các biến số mới, các mục tiêu mới thì loài
người làm sao phát hiện kịp thời để chỉnh sửa. Nhu cầu tự thân của mọi chương
trình máy tính thông minh là thu nhận thêm nguồn lực, tìm cách để cải thiện hiệu
năng, chống lại mọi điều chỉnh trái ý nó hay mọi nỗ lực phá hoại nó. Đây chính
là tiền đề AI trở nên “tham lam, độc ác, tàn bạo” chỉ bởi vì nó muốn thực hiện
tốt nhất nhiệm vụ loài người giao cho nó dù quá trình này buộc nó dí chân giết
muôn người.
Trong thực tế, một AI của
Google được giao nhiệm vụ sao cho có càng nhiều người nhấp chuột vào quảng cáo
càng tốt thì nó sẽ ưu tiên cho nhiệm vụ đó – bất kể quá trình này có thể cản trở
người đọc báo một cách khó chịu. Các AI dùng trong nhận diện gương mặt người từng
bị cho là có thiên kiến với người da màu y như trong đời thật…
Sao chúng ta không tắt máy đi
nếu nó gây hại?
Nhiều người suy nghĩ trí
tuệ thông minh nhân tạo mà khôn ngoan quá, con người cứ thiết kế sẵn nút tắt mở
- nó có tác hại gì, chúng ta cứ ngắt điện là xong. Đã gọi là thông minh thì một
hệ thống AI tinh quái sẽ biết tìm cách ngăn cản không cho người ta ngắt điện
nó. Hầu như các cuốn truyện viễn tưởng về AI đều xoay quanh nỗ lực của loài người
ngắt kết nối cỗ máy đang hủy diệt nhân loại và cách cỗ máy này chống lại. Quan
trọng nhất, một hệ thống thông minh thật sự sẽ làm loài người mất cảnh giác,
không hề hay biết nó đang hủy hoại chúng ta.
Cứ như hiện nay, ai cũng
biết mạng xã hội đang làm hỏng mọi cuộc tranh luận nghiêm túc, phá hủy thay vì
xây dựng các mối quan hệ, gây thù hằn hơn là kết nối mọi người lại với nhau. Thế
nhưng có phải ai cũng tắt mạng xã hội ít nhất cho riêng mình được đâu. Nhiều
nhà tư tưởng cho rằng các hệ thống AI sau này sẽ kết hợp để trở thành một phần
của Internet lúc đó chúng hiện diện khắp nơi, biết đâu là nút tắt mở để ngắt kết
nối? Lúc đó tắt một máy tính sẽ không có ý nghĩa gì nữa cả.
Các nước đã có chính sách gì
chưa?
Ngày xưa lúc nhà văn viễn
tưởng Isaac Asimov viết về các thế hệ robot trong tương lai thông minh tài giỏi
hơn người, ông đã tự đặt ra ba nguyên tắc để khắc chế mọi tác hại bọn robot này
có thể gây ra:
1) robot không được gây
thương tổn cho con người, hay do không chịu hành động mà để con người bị thương
tổn;
2) Robot phải tuân thủ
các mệnh lệnh do con người đưa ra trừ phi lệnh đó trái với điều 1;
3) Robot phải bảo vệ sự tồn
tại của chính nó miễn là điều này không mâu thuẫn với điều 1 và điều 2. Sau đó
hầu như mọi nhà văn viễn tưởng khi viết về robot hay AI đều dựa chuẩn mực đạo đức
trên 3 nguyên tắc này.
Điều đáng ngạc nhiên là
cho đến nay chưa có một chính sách chính thức nào được công bố về các giới hạn
đặt ra cho các hệ thống AI. Hình như các chính trị gia, người viết chính sách
chưa hiểu hết về AI và chưa thấy mối đe dọa này như một vũ khí chính trị. Riêng
các tổ chức tư nhân đã có nhiều nghiên cứu về đề tài này như tổ chức phi lợi
nhuận MIRI chuyên nghiên cứu về cách thiết kế các chương trình trí tuệ nhân tạo
mà con người có thể tiên đoán hành vi, nhờ thế có thể tạo ra một hành lang an
toàn. Hay tổ chức OpenAI của Elon Musk thành lập vừa nghiên cứu năng lực của
các hệ thống AI vừa nghiên cứu về bảo đảm tính an toàn của chúng. Hệ thống
DeepMind của Google một AI tiên phong có riêng một đội ngũ lo về an toàn.
Với chúng ta, những “đại
gia” công nghệ như Facebook hay Google đang biên soạn các chương trình AI nào, ứng
dụng chúng vào các sản phẩm của họ ra sao, tác động tinh vi lên ứng xử của
chúng ta như thế nào… chúng ta hoàn toàn không biết. Đó mới là mối nguy rõ rệt
và hiển hiện chứ không hề là chuyện viễn tưởng.
No comments:
Post a Comment