Khi trí tuệ nhân tạo dùng để... lừa dối
Hiện nay, người ta nhắc đến ngày càng nhiều những ích lợi to lớn khi áp dụng hiệu quả trí tuệ nhân tạo (AI). Ở hướng ngược lại, trí tuệ nhân tạo mang đến những nguy cơ không nhỏ cho xã hội.
ZAO - ứng dụng biến bạn thành diễn viên điện ảnh nổi tiếng
Đầu tháng 9 này, một ứng dụng của Trung Quốc ra đời và nhanh chóng tạo ra cơn sốt trên toàn thế giới: ứng dụng ZAO. Nếu trước đây đã có một số ứng dụng hoán đổi gương mặt, lấy ảnh gương mặt của bạn hoán đổi với gương mặt của người khác (ảnh tĩnh) thì ZAO đã đi một bước xa hơn nhờ ứng dụng trí tuệ nhân tạo: hoán đổi gương mặt người dùng với hình ảnh của diễn viên điện ảnh nổi tiếng trong một đoạn video (ảnh động).
ZAO là một ứng dụng hoàn toàn miễn phí. Người dùng chỉ cần đưa lên một tấm ảnh chân dung của mình và chọn trong thư viện các clip của ZAO, gồm trích đoạn các bộ phim điện ảnh hay show truyền hình nổi tiếng là sẽ trở thành diễn viên chính trong các clip ấy. ZAO sẽ yêu cầu bạn thực hiện một số động tác nhỏ như: nhép miệng, nhắm mở mắt... và ghi hình lại. Điều này giúp ZAO xử lý các động tác cơ mặt của bạn trong clip được chân thật hơn, nhưng nếu bạn không làm thì ZAO vẫn tạo nên clip với độ trung thực kém hơn một chút.
Công nghệ hoán đổi khuôn mặt này là một dạng công nghệ Deepfake. Trong thuật ngữ chuyên môn này, Deep xuất phát từ Deep-learning (học sâu) trong AI, một hướng nghiên cứu giúp máy tư duy giống người một cách sâu sắc hơn.
Ngay sau khi ra đời, ZAO đã được hưởng ứng và nhanh chóng chiếm vị trí số 1 các app được download về nhiều nhất tại Trung Quốc. Cũng ngay sau đó nó phải đón nhận những phản ứng gay gắt bởi trong phần quyền hạn của ứng dụng, nhà phát triển đã ghi rằng họ được phép sử dụng miễn phí và vĩnh viễn các nội dung do người dùng tạo ra. Ai mà biết được họ sẽ sử dụng hình ảnh của người dùng cho mục đích gì? Càng đáng lo ngại hơn nữa nếu ta biết rằng ZAO là sản phẩm của Momo - công ty Trung Quốc sở hữu dịch vụ hẹn hò!
Bỏ qua chuyện vi phạm quyền riêng tư ấy, cái nhìn xa đáng lo ngại hơn nhiều. Trước đây, cần hàng trăm hình ảnh để tạo ra một video Deepfake thuyết phục, giờ chỉ cần một hình ảnh duy nhất là có kết quả tương đối tốt rồi. ZAO là một ứng dụng phổ biến, miễn phí đã làm được như thế, vậy những nghiên cứu quy mô lớn đã đạt được kết quả đến đâu? Trong tương lai làm sao biết được đâu là một video giả?
Vi phạm chuẩn mực đạo đức
Cuối tháng 6 năm nay, một ứng dụng cũng áp dụng công nghệ Deepfake mang tên DeepNude ra mắt gây xôn xao dư luận. Với DeepNude, nếu đưa vào ảnh phụ nữ có mặc trang phục, nó sẽ đưa ra hình ảnh người phụ nữ ấy khỏa thân hoàn toàn. Bản miễn phí của ứng dụng, những chỗ nhạy cảm sẽ bị làm mờ và họ quảng cáo rằng bản cao cấp giá 99 USD sẽ hiện rõ, đầy đủ. Ứng dụng này đã chịu phản ứng gay gắt với lý do là xúc phạm nhân phẩm phụ nữ, và cuối cùng đã phải rút khỏi kho ứng dụng.
Với ZAO hiện giờ, mặc dù bản miễn phí chỉ cho phép hoán đổi gương mặt người dùng với gương mặt nhân vật chính trong những clip có sẵn và nói chung là lành mạnh, nhưng với đà phát triển này việc hoán đổi gương mặt người dùng với nhân vật trong clip bất kỳ là hoàn toàn khả thi. Và với những nghiên cứu sâu hơn, việc làm cho những clip ấy “như thật” sẽ không phải là vấn đề nan giải nữa.
Khi ấy, hãy tưởng tượng gương mặt của bạn hoặc người thân được lồng vào những clip khiêu dâm và tải lên mạng. Thật là phiền nhiễu!
Ở phạm vi lớn hơn, lấy gương mặt của các chính khách, các nhân vật có ảnh hưởng lớn lồng ghép vào các đoạn video nhạy cảm về chính trị, xã hội... để củng cố một thông tin giả nào đó cũng sẽ tạo nên một hậu quả khó lường!
Mối quan ngại của cả thế giới
Về lý thuyết, một video Deepfake càng giống thật nếu có càng nhiều hình ảnh biểu cảm gương mặt và môi của nhân vật để ứng dụng ấy mô phỏng và đưa vào video. Ví dụ, hồi tháng 7-2017, một nhóm nghiên cứu tại Đại học Washington (Mỹ) đã công bố một video Deepfake về cựu Tổng thống Barack Obama y như thật. Điều này thật dễ dàng, vì trong 8 năm làm tổng thống, mọi biểu cảm gương mặt và môi của ông Obama đều có thể được tìm thấy trên mạng.
Vì thế, một số chuyên gia khuyên rằng nên hạn chế chia sẻ các hình ảnh lên mạng xã hội, những nơi bất kỳ ai cũng có thể dễ dàng tìm thấy nguồn dữ liệu cho Deepfake. Thế nhưng liệu bạn có làm được không? Hơn nữa, với đà phát triển công nghệ này, như ta thấy với ZAO, chỉ cần một ảnh chân dung là có thể làm được video Deepfake rồi!
Bộ Quốc phòng Mỹ có một chương trình nghiên cứu có tên MediFor, được tạo ra nhằm thu hẹp khoảng cách công nghệ về việc nhận diện hình ảnh, khi không có hệ thống đầu cuối nào có thể xác thực được việc chỉnh sửa các hình ảnh trên smartphone và camera kỹ thuật số. Chương trình này đang nỗ lực tạo ra các công cụ sử dụng AI để phân tích các phương tiện trực quan và phát hiện những thao tác chỉnh sửa tinh vi bằng AI.
Trung tâm Nghiên cứu chiến lược và quốc tế (CSIS) của Mỹ xếp các video được làm giả dựa trên công nghệ Deepfake vào một trong 5 nguy cơ gây mất an ninh toàn cầu năm 2019. Một nhà nghiên cứu thuộc tổ chức này cho rằng thứ duy nhất có thể chống lại fake news dưới bất kỳ hình thức nào lại chính là con người, tất nhiên phải được giáo dục và có nhận thức về nguy cơ từ các hành động của mình trên internet.