Thursday, 2 November 2023

DEEPFAKE CHÍNH TRỊ SẼ LAN TRUYỀN SỰ NHẦM LẪN VÀ THÔNG TIN SAI LỆCH (Robert W. Gehl | DCVOnline)

 



Deepfake chính trị sẽ lan truyền sự nhầm lẫn và thông tin sai lệch   

Robert W. Gehl | DCVOnline

POSTED ON OCTOBER 31, 2023

https://dcvonline.net/2023/10/31/deepfake-chinh-tri-se-lan-truyen-su-nham-lan-va-thong-tin-sai-lech/

 

Deepfake càng gây ra nhiều nhầm lẫn thì càng có nhiều người buộc tội nhau làm giả mọi thứ. Thiên hạ sẽ không tin vào những gì họ nhìn thấy. Người ta sẽ không tin vào những gì họ không thích.

 

Robert W. Gehl, Trưởng khoa nghiên cứu về Quản trị kỹ thuật số vì công bằng xã hội Ontario, giải thích tại sao những tác phẩm deepfake ngày càng trở nên thực tế hơn —và có sức thuyết phục— khi nền tảng trí tuệ nhân tạo ngày càng phát triển.

 

https://macleans.ca/wp-content/uploads/2023/10/5_Deepfakes.jpeg

(Hình minh họa do Anna Minzhulina, giám đốc mỹ thuật của Maclean, tạo ra bằng chương trình làm hình ảnh  tổng hợp bằng trí tuệ nhân tạo Hãy tưởng tượng. Minzhulina đã dành nhiều tuần để đưa mớm lời, lấy cảm hứng từ bài viết, cho chương trình vẽ hình.)

 

Trong 10 đến 15 năm qua, bot truyền thông xã hội là phương tiện chính để tuyên truyền thông tin sai lệch. Thông thường, những tác nhân nhà nước dùng những robot này trong nước hoặc để định hình quan điểm quốc tế. Ví dụ: trước cuộc bầu cử Mỹ năm 2016, Nga đã tạo ra những bot Twitter giả là người trong giới hoạt động Black Lives Matter — họ yêu cầu cử tri da đen ở nhà không đi bỏ phiếu, rằng việc bỏ phiếu sẽ vô nghĩa. Người Mỹ da đen là khối bỏ phiếu đáng tin cậy của đảng Dân chủ, và vì Nga ủng hộ Trump nên mục đích của sự tuyên truyền này là để ngăn chặn phiếu bầu của người Mỹ gốc châu Phi. Vào năm 2022, khi mọi người phản đối việc đàn áp người Uyghurs trong Thế vận hội Bắc Kinh, Trung Hoa đã tung ra một dàn robot để tạo ra bề ngoài vui vẻ. Việc dùng kỹ thuật này là một chiến thuật lâu đời —và trí tuệ nhân tạo sẽ  giúp loại thông tin sai lệch thế này lan rộng.

 

Ngày nay, giới nghiên cứu đang thấy những bot được ChatGPT hỗ trợ trên X (trước đây là Twitter), cũng như deepfake —các đối tượng truyền thông nhân tạo có hình ảnh người thật đang làm những việc giả mạo. Deepfake có thể bắt chước những người như Trudeau, Zelenskyy hoặc Biden một cách đáng tin cậy, thao túng hình ảnh của họ để cho thấy họ làm và nói những điều họ chưa bao giờ làm. Ví dụ, sau cuộc xâm lăng Ukraine, có một video deepfake về Volodymyr Zelenskyy lan truyền khắp Facebook nói rằng hãy để Nga điều hành đất nước và Ukraine nên đầu hàng. Thực sự đó không phải là Zelenskyy, nhưng một số người — giới khoa học chính trị gọi họ là những cử tri có ít thông tin — rất dễ mắc phải cách lừa đảo đó.

 

Những mạng xã hội bán quảng cáo xung quanh những thông điệp lan truyền, vì vậy chúng được thiết kế để khuyến khích việc thích (like), chuyển đi (share) và lan truyền— mà không  kiểm soát kỹ lưỡng. Đó không phải là vấn đề mới, nhưng trí tuệ nhân tạo (AI) sẽ làm vấn đề trở nên nghiêm trọng hơn. Nếu đang hối hả dùng mạng xã hội và muốn nhận được nhiều lượt thích và lượt xem hơn thì điều đó thường tốn thời gian, công sức và trí tưởng tượng. Bây giờ chúng ta có máy viết hộ chúng ta. Khi kỹ thuật này cải tiến, những thuật toán tạo video sẽ cần ít sức mạnh tính toán hơn và mọi người sẽ có thể làm video (giả) với tốc độ nhanh hơn. Những tác nhân xấu này có thể tràn ngập internet với đủ loại nội dung có giá trị thấp để thu hút thật nhiều người nhấp chuột và gây ảnh hưởng, tạo ra đủ sự nhầm lẫn và nghi ngờ đến mức khó có thể phân biệt đâu là thật đâu là giả. Việc đó có thể gây thiệt hại rất lớn trong những kỳ bầu cử mà ứng cử viên có thể đắc cử nếu họ có thể di chuyển được một tỷ lệ phiếu nhỏ ở những khu vực bầu cử hoặc quận nào đó. Để làm việc với những con số cận biên đó đôi khi có nghĩa là rầm rộ tràn ngập mạng xã hội với thông tin sai lệch.

 

Trong khi đó, deepfake sẽ cảng trở nên tốt hơn và sẽ có nhiều người bị chúng lừa hơn. Hiện tại, deepfake tạo ra các tạo tác thị giác hoặc thính giác có thể phát giác được, chẳng hạn như những phản xạ kỳ lạ hoặc điều gì đó ngộ nghĩnh với đường chân tóc. Nhưng nếu  thành thạo với những hệ thống này, người ta có thể sửa đổi những tạo phẩm này. Đang có một cuộc chạy đua vũ trang giữa những người phát triển thuật toán để làm cho các tác phẩm nhân tạo trở nên thực tế hơn và những người phát triển các thuật toán để phát giác ra chúng là tác phẩm nhân tạo. Những tác phẩm giả tạo này càng gieo rắc nhiều nhầm lẫn thì mọi người sẽ càng buộc tội nhau làm giả mọi thứ. Người ta sẽ không tin vào những gì họ nhìn thấy. Thiên hạ sẽ không tin vào những gì họ không thích, bởi vì ngay từ đầu ai cũng có thể tuyên bố rằng nó là đồ giả.

 

Sự xói mòn lòng tin này sẽ lan rộng ra ngoài mạng xã hội. Ví dụ: một số công ty có thể tận dụng kỹ thuật làm việc tại nhà để tạo ra những thông điệp sai lệch. Nếu chúng ta bước vào một thế giới ảo giác theo loại metaverse, nơi mà chúng ta gặp nhau trong môi trường ảo, thì theo định nghĩa, mọi thứ sẽ được số hóa và do đó dễ dàng bị thao túng. Môi trường này sẽ khốc liệt hơn, đắm chìm và nhân tạo hơn so với phương tiện truyền thông xã hội của công ty được điều khiển bằng thuật toán. Bất cứ ai đang xây dựng môi trường ảo đó kiểm soát nó. Một biến thể khác mà chúng ta có thể thấy là thực tế tăng cường — kỹ thuật mà Google Glass đã cố gắng thực hiện vài năm trước— nơi mọi người đeo kính có chiếu hình ảnh máy tính bao phủ môi trường xung quanh họ bằng những thứ như bản dịch hoặc bản đồ. Chúng ta có thể dễ dàng tưởng tượng, bởi vì đây chính xác là mục đích của hệ thống, việc đưa vào những thông điệp mang tính thao túng hoặc mang tính chính trị.

 

https://www.searchenginejournal.com/wp-content/uploads/2023/04/the-metaverse-what-is-it-2-64412b87eaf6c-sej.png

Metaverse: Người đeo kính có chiếu hình ảnh máy tính bao phủ môi trường xung quanh họ bằng những thứ như bản dịch hoặc bản đồ, Nguồn: https://www.searchenginejournal.com/

 

Chúng ta không nhìn vào một sự đoạn tuyệt triệt để với quá khứ. Trí tuệ nhân tạo (AI) sẽ được lồng vào những hệ thống có khuyết điểm mà chúng ta hiện có và nó sẽ làm trầm trọng thêm những sai sót đó. Nếu chúng ta quyết định mọi thứ chúng ta không thích đều do AI tạo ra và mọi thứ chúng ta thích đều chân thực và có thật, thì điều đó sẽ làm gia tăng sự phân cực. Ai sẽ trục lợi nhờ trình trạng này? Khi nào chúng ta hỗn loạn và thiếu lòng tin thì người hưởng lợi thực sự chính là những người nắm quyền.

 

Chúng ta dành hết sức lực của mình để cố gắng phân biệt đâu là giả và đâu là thật, đồng thời chúng ta không dành thời gian buộc những người có quyền lực phải giải trình. Nếu chúng ta liên tục tranh cãi về việc liệu biến đổi khí hậu là có thật hay nguyên nhân chính xác của hiện tượng cháy rừng, thì chúng ta sẽ không thay đổi hệ thống cần thay đổi, như ngành kỹ nghệ nhiên liệu hóa thạch. Thông tin sai lệch sẽ gây xao lãng cũng như nguy hiểm. Đó là thế giới chúng ta hiện đang kiến tạo.

 

 

Tác giả | Robert W. Gehl là phó giáo sư về nghiên cứu truyền thông và phương tiện truyền thông tại Đại học York và Trưởng khoa nghiên cứu về Quản trị kỹ thuật số vì công bằng xã hội Ontario.

 

© 2023 DCVOnline

Nếu đăng lại, xin ghi nguồn và đọc “Thể lệ trích đăng lại bài từ DCVOnline.net


Nguồn:  Political deepfakes will spread confusion and misinformation  | Robert W. Gehl | MACLEAN’S | October 12, 2023

 





No comments:

Post a Comment

View My Stats