Saturday, 25 February 2023

ChatGPT - ĐỌT PHÁ MỚI CỦA CUỘC CÁCH MẠNG TRÍ TUỆ NHÂN TẠO (Nguyễn Tiến Dũng / Diễn Đàn)

 



ChatGPT - đột phá mới của cuộc cách mạng trí tuệ nhân tạo    

Nguyễn Tiến Dũng 

24/02/2023 00:30

https://www.diendan.org/khoa-hoc-ky-thuat/chatgpt-dot-pha-moi-cua-cuoc-cach-mang-tri-tue-nhan-tao

 

Bạn hãy thử hình dung luôn có bên mình một trợ lý siêu việt, đọc thông viết thạo hàng trăm thứ tiếng, chỉ dẫn và làm phiên dịch cho bạn ở mọi chỗ mọi nơi, sàng lọc tin tức quan trọng cho bạn, đọc thư và soạn thảo mọi văn bản giúp bạn, nhắc việc và gợi ý cho bạn, dạy bạn đủ thứ, hỏi gì trả lời đó một cách chính xác và hóm hỉnh, bằng một giọng mà bạn ưa thích nhất, động viên bạn hàng ngày, v.v.

Một trợ lý như vậy, nếu bằng da bằng thịt thì chắc không thể có, nhưng nếu là trợ lý nhân tạo thì đó không còn là một chuyện viễn tưởng xa xôi nữa, mà là một thực tế đang hình thành trước mắt chúng ta, ngay trong thập kỷ này, nhờ vào cuộc cách mạng trí tuệ nhân tạo.
Nếu như chỉ cách đây ít lâu, bạn và tôi còn không nghĩ tới hay còn rất hoài nghi về chuyện này, thì sự xuất hiện của ChatGPT và các phần mềm trí tuệ nhân tạo tương tự đã tạo nên cú sốc, xóa bỏ đi sự hoài nghi đó.

 

.

ChatGPT là gì?

 

Đó là một phần mềm trợ lý ảo “hỏi gì trả lời đó” do công ty Open AI công bố vào cuối năm 2022 (xem https://chat.openai.com/ hoặc có thể tải ứng dụng cho điện thoại), và đang gây một làn sóng lớn trên thế giới, báo chí hàng ngày tốn không biết bao nhiêu giấy mực để viết về nó. Chỉ sau hai tháng kể từ khi công bố, ChatGPT đã cán mốc 100 triệu người dùng, là một kỷ lục từ trước đến nay cho các dịch vụ phần mềm.

 

Nguyên tắc sử dụng ChatGPT rất đơn giản: sau khi đăng nhập, bạn có thể viết bất cứ một câu hỏi hay bình luận gì, bằng tiếng Việt hay tiếng Anh hay bất kỳ thứ tiếng thông dụng nào khác, ChatGPT sẽ đưa ra câu trả lời bằng thứ tiếng mà bạn sử dụng.

 

Trong rất nhiều trường hợp, câu trả lời do ChatGPT đưa ra khá là hợp lý, có ích. Có ích đến mức mà các lập trình viên khi cần viết một đoạn code nhỏ nào đó cũng có thể hỏi GPT viết hộ, các bác sĩ cũng nhờ ChatGPT viết giải thích về các căn bệnh, v.v. Thậm chí đã có nhiều sinh viên gian lận trong thi cử bằng cách dùng ChatGPT để làm những bài luận mà đáng nhẽ họ phải tự làm, dẫn đến việc các trường đại học phải thiết lập các biện pháp phát hiện chuyện này. Sẽ không ngạc nhiên lắm nếu như sẽ có cả những luận án tiến sĩ được viết bằng ChatGPT hoặc những trợ lý ảo tương tự!

 

Tuy nhiên, bạn phải rất thận trọng khi dùng ChatGPT và những trợ lý ảo tương tự, bởi chúng có thể bịa đặt, đưa ra những câu trả lời “tưởng như đúng rồi” nhưng thực ra là nói nhảm. Ví dụ, khi được hỏi “hãy cho danh sách các bài báo khoa học của tác giả xyz”, ChatGPT liền đưa ra những tên bài báo … hoàn toàn bịa đặt. Đó là bởi vì, thực ra ChatGPT không hề có tên các bài báo đó trong trí nhớ của nó, nó chỉ từng được xem các tên bài báo đó trong quá trình huấn luyện, và nhớ không phải là đầy đủ các tên mà chỉ là các cụm từ, rồi lấy “râu ông nọ cắm cằm bà kia”, xáo trộn các cụm từ đó vào với nhau thành các tên bịa mà trông qua cử tưởng như thật!

 

Một ví dụ khác, khi được hỏi về một chỉ số đo độ nặng của một loại bệnh da, ChatGPT trả lời là người ta tính nó bằng cách đo độ nặng của bệnh trên 4 phần của cơ thể là đầu, thân, chân tay, và móng, rồi cộng lại với nhau. Đây là câu trả lời bịa (nhưng những ai không biết thì sẽ có thể tin là thật), vì chuyện đo trên 4 phần khác nhau là có thật, nhưng 4 phần đó là đầu, thân, chi trên (tay) và chi dưới (chân) chứ không có móng. Trợ ý ảo đã vơ cả móng vào trong công thức, có lẽ bởi nó đã được nhai đi nhai lại nhiều lần rằng móng cũng có liên quan đến bệnh da này.

Theo đánh giá của Microsoft, công ty đầu tư hàng tỷ đô la vào Open AI, thì tỷ lệ trả lời có nghĩa của ChatGPT hiện mới đạt khoảng 70%. Ông Jean-Noel Barrot, bộ trưởng về truyền thông và chuyển đổi số ở Pháp, không phải vô cớ khi nói rằng ChatGPT “chẳng qua là một con vẹt”. Tuy nhiên, những “con vẹt” này cũng rất đáng gờm, bởi chúng có khả năng học rất nhanh những cấu trúc và thông tin mới, càng ngày càng tinh tế và thông minh lên. Từ GPT-2 (thế hệ 2 của ChatGPT xuất hiện năm 2019) cho đến GPT-3 (thế hệ hiện tại của ChatGPT) đã là một bước tiến rất lớn, các câu trả lời có nghĩa lên rất nhiều, và sắp tới GPT-4 ra đời sẽ còn giỏi hơn nhiều lần nữa.

 

.

Một chút lịch sử

 

Có thể coi lịch sử của trợ lý ảo bắt đầu từ những năm 1960, khi giáo sư Weizenbaum ở đại học MIT nghĩ ra một chatbot (phần mềm đối thoại người với máy), đặt tên là ELIZA. Thuật toán ELIZA chỉ biết làm một số động tác đơn giản, ví dụ như lặp lại mấy từ mà người dùng đưa vào, thêm vào đó mấy cấu trúc câu mà nó có sẵn trong bộ nhớ, còn tất nhiên là không hiểu gì về nội dung. Thế đã đủ tạo ra những “cuộc nói chuyện rất riêng tư” giữa ELIZA và cô thư ký của Weizenbaum.

 

Từ đó đến nay, cuộc cách mạng về học máy (machine learning), đi kèm với cuộc cách mạng về hiệu suất tính toán, đặc biệt là trong lĩnh vực xử lý ngôn ngữ tự nhiên, đã làm thay đổi hoàn toàn bộ mặt của các trợ lý ảo.

 

Một bước tiến quan trọng trong việc xử lý ngôn ngữ tự nhiên (natural language processing) bằng trí tuệ nhân tạo là phương pháp Word2vec xuất hiện vào năm 2013 cho phép chuyển các từ ngữ thành các vec-tơ (các bộ số có độ dài cho trước, hay có thể hiểu như là các điểm trong không gian Euclid nhiều chiều). Bởi vì máy tính làm việc với các bộ số thì tiện hơn nhiều so với làm với với các từ ngữ. Hơn nữa, vị trí tương đối giữa các vec-tơ với nhau phản ánh quan hệ giữa các từ tương ứng với nhau, ví dụ như (đàn ông) - (đàn bà)
cho ra vec-tơ tương tự như (hoàng tử) - (công chúa), nên khi tính toán với các vec-tơ ta nhận được luôn quan hệ giữa các từ trong câu.

 

Từ trước đó, vào thập kỷ 1980 đã xuất hiện một loại mạng thần kinh nhân tạo gọi là RNN (recurrent neural netwoork = mạng thần kinh có lặp?) có thể học xử lý ngôn ngữ tự nhiên, do nhà khoa học Hopfield và nhà tâm lý học Rumelhart ở Mỹ đề xuất. Ta hình dung một văn bản hay một đoạn âm thanh như một chuỗi thời gian trong đó các từ mới (âm thanh mới) xuất hiện dần dần. Mạng RNN sẽ xử lý lần lượt (kiểu “lặp đi lặp lại”) từng từ (từng âm thanh) một khi nó xuất hiện, và có giữ một chút trí nhớ về những từ vừa xử lý trước đó.

Vào năm 1997, hai giáo sư người Đức tên là Hochreiter và Schmidhuber đưa ra một cải tiến quan trọng của RNN, gọi là LSTM (long short-term memory = trí nhớ ngắn hạn kéo dài?), không những chỉ nhớ một cụm từ phía trước mà còn nhớ được “dư âm” của những từ xuất hiện từ trước đó lâu hơn trong văn bản. Phương pháp Word2vec kết hợp với LSTM đã cho ra những công cụ xử lý ngôn ngữ tự nhiên (chatbot, máy dịch tự động văn bản, v.v.) tốt nhất trong thập kỷ 2010.



Transformer cho trợ lý ảo

 

Vào năm 2017, các nhà nghiên cứu ở Google và ở đại học Toronto công bố một cấu trúc mạng thần kinh nhân tạo mới, gọi là Transformer (cấu trúc biến đổi?). (Xem bài báo: https://arxiv.org/pdf/1706.03762.pdf) Nói chung tất cả các công nghệ xử lý ngôn ngữ tự nhiên thế hệ mới, từ BERT rồi BARD của Google cho đến GPT của Open AI (công nghệ nền tảng của ChatGPT) cho đến BART của Facebook v.v. đều dựa trên cấu trúc Transformer này.

Bản thân GPT trong ChatGPT là viết tắt của cụm từ Generative Pretrained Transformer. (Generative có nghĩa là có chức năng sinh sôi sáng tạo, còn Pretrained có nghĩa là nó đã được học trên một tập dữ liệu khổng lồ để ghi nhớ được nhiều khái niệm hay cấu trúc quan trọng trước khi huấn luyện sâu thêm cho lĩnh vực cụ thể nào đó).

Cấu trúc Transformer khác biệt RNN và LSTM ở những điểm nào mà “gây bão” đến vậy?
Có thể kể ra hai điểm khác biệt chính như sau:

 

Điểm thứ nhất liên quan đến một nhược điểm rất lớn của RNN và LSTM, đó là chúng xử lý các văn bản một cách lần lượt (sequential) từng từ một, và quá trình học của nó cũng theo kiểu lần lượt như vậy. Nhưng ngày nay không cần phải là chuyên gia tin học cũng có thể biết rằng muốn xử lý nhanh thì phải theo kiểu song song (parallel, rất nhiều thứ cùng một lúc) chứ không lần lượt. Các bộ vi xử lý hình ảnh hiện đại trong máy tính hay điện thoại đều là xử lý song song. Transformer đã biến đổi thông tin ngôn ngữ tự nhiên thành dạng có thể xứ lý song song thay vì lần lượt, và điều này khiến nó học được rất nhanh rất nhiều hơn so với các công nghệ trước.

Điểm thứ hai là Transformer tính toán các hệ số attention và self-attention (tính xem từ nào thì quan trọng hơn đối với từ nào trong ngữ cảnh của đoạn văn), điều mà RNN/LSTM không làm. Các hệ số attention đó cho phép mô tả chính xác hơn cấu trúc ngữ pháp, quan hệ giữa các từ, và do đó “hiểu” chính xác hơn, dịch chính xác hơn.

 

Với những điểm mới này, các trợ lý ảo dựa trên Transformer không những học được cách trả lời cho đúng, mà còn dễ học được cả cách cá nhân hóa (personalization), có thể đóng vai người làm nghề này hay nghề khác (bác sĩ nói năng một kiểu, nghệ sĩ nói năng kiểu khác), và đóng vai trạng thái cảm xúc này hay cảm xúc khác (AI cũng biết giả vờ vui, buồn, giân dỗi, vv), vv

Tuy mới đầu được thiết lập để xử lý ngôn ngữ tự nhiên, nhưng ý tưởng Transformer, đặc biệt là ý tưởng về attention, cũng được dùng để xử lý ảnh và các loại thông tin, tín hiệu khác một cách hiệu quả.

 

Có thể xem một danh sách khá đầy đủ các phần mềm AI sử dụng transformer ở đây: https://huggingface.co/docs/transformers/index)

 

 

Cuộc chạy đua AI mới

 

Theo giáo sư Oder Netzer phó trưởng khoa ở Columbia Bisuness School, thì “thế giới không còn như trước nữa” sau khi ChatGPT xuất hiện. Rất nhiều doanh nghiệp và ngành nghề “tụt hậu về trí tuệ nhân tạo” bị đe sọa xóa sổ trong tương lai gần, và ngược lại rất nhiều cơ hội làm giàu mới xuất hiện, với tổng giá trị lên tới hàng nghìn tỷ đô la. Ngay cả những “gã khổng lồ” như Google cũng cảm thấy mối đe dọa chiếm lĩnh thị trường tra cứu thông tin (search engine) từ ChatGPT, đến mức phải cấp bách thay đổi chiến lược, tập trung đầu tư vào những giải pháp cạnh tranh.

 

Công ty Open AI, tác giả của ChatAI, là một công ty mới được thành lập từ năm 2015, nhưng được đầu tư cả tỷ đô la ngày từ đầu, và có Elon Musk (tỷ phú công nghệ giàu nhất nhì thế giới) trong danh sách các nhà sáng lập. Chính Musk là người đặt tên Open (có nghĩa là “mở”) cho công ty này, và mục đích ban đầu của công ty là tạo ra các phần mềm AI mã nguồn mở phục vụ cả nhân loại. Ngoài ChatGPT, Open AI còn có các dự án AI rất nổi tiếng khác, ví dụ như DALL-E-2 cho phép sáng tác các bức tranh ứng với các câu văn mà người dùng đưa vào. Tuy nhiên, chính theo lời của Musk, Microsoft đang càng ngày càng thâu tóm Open AI để phục vụ cho việc thống lĩnh thị trường và làm tiền của họ, xa rời ý tưởng “phần mềm mở” ban đầu.

Về cơ bản, ý tưởng thuật toán của GPT và những phần mềm xử lý ngôn ngữ tự nhiên tượng tự không khó, ai cũng có thể copy về máy của mình, xào xáo một chút, cho nó học trên bộ dữ liệu của mình, để tạo ra một trợ lý ảo chuyên về lĩnh vực nào đó hoặc là trợ lý ảo vạn năng. Cái khó ở đây là làm sao đạt được quy mô lớn và hiệu quả cao. Các mô hình mạng thần kinh nhân tạo xử lý ngôn ngữ tự nhiên quy mô lớn (LLM - large language model) hiện tại có đến hàng trăm tỷ biến số (learnable parameters), và những mô hình sắp tới của các “đại gia” AI sẽ có đến hàng nghìn tỷ biến số. Để so sánh, các mô hình AI xử lý ảnh thông dụng hiện tại có lượng biến số chưa bằng 1/1000 như vậy.

 

Ước tính hiện tại cần đầu tư ít nhất 50 triệu đô la tiền máy tính mới đủ sức tính toán cho việc học máy để tạo ra phần mềm như ChatGPT. Tuy nhiên, con số 50 triệu đô la đó không phải là rào cản đối với các công ty lớn và các quốc gia, và sẽ có sẽ có rất nhiều công ty và quốc gia tham dự cuộc chạy đua trợ lý ảo AI. Bởi vì ai kiểm soát thông tin, người đó nắm quyền lực. Nếu một quốc gia nào đó không kiểm soát được trợ lý ảo nào, thì thậm chí lịch sử của quốc gia đó có thể bị kẻ khác viết lại thông qua các trợ lý ảo của họ được thế giới dùng.

 

 

Nguyễn Tiến Dũng

02/2023


Nguồn. Bài đã đăng trên Tia Sáng số 4, ra ngày 20.02.2023 với tiêu đề "ChatGPT hay mặt
trái tấm huy chương". Trên đây là bản gốc tác giả gửi Diễn Đàn.





No comments:

Post a Comment

View My Stats