Giả sử ai đó đã lập trình ra một hệ thống AI có trí thông minh vượt trội hơn con người, mang tới cho siêu AI này khả năng tự học một cách độc lập.
Bằng cách sử dụng các tính toán lý thuyết, một nhóm các chuyên gia quốc tế trong lĩnh vực nghiên cứu AI mới đây đã kết luận: Con người sẽ không thể điều khiển một siêu AI có trí tuệ vượt trội hơn nhiều so chúng ta.
Giả sử ai đó đã lập trình ra một hệ thống AI có trí thông minh vượt trội hơn con người, mang tới cho siêu AI này khả năng tự học một cách độc lập. Khi được kết nối với Internet, siêu AI này có thể truy cập vào tất cả dữ liệu của nhân loại. Nó có thể thay thế tất cả các chương trình hiện có và kiểm soát tất cả các thiết đang online trên toàn thế giới.
Vậy điều gì sẽ xảy ra sau đó? Liệu AI có thể chữa khỏi bệnh ung thư, mang lại hòa bình thế giới và ngăn chặn thảm họa khí hậu? Hay nó sẽ tiêu diệt loài người và chiếm lấy Trái đất? Và hơn hết cả, liệu chúng ta có thể kiểm soát một ‘siêu AI’ giống như vậy hay không?
"Một cỗ máy siêu thông minh điều khiển thế giới nghe có vẻ giống như trong phim hay truyện khoa học viễn tưởng. Nhưng trên thực tế, đã có những cỗ máy tự thực hiện một số tác vụ quan trọng một cách độc lập, khiến lập trình viên cũng phải bất ngờ khi không rõ nó tự học như thế nào. Do đó, câu hỏi được đặt ra là liệu những AI này vào một lúc nào đó có thể trở nên mất kiểm soát và nguy hiểm cho nhân loại hay không.", Manuel Cebrian đồng tác giả nghiên cứu, Lãnh đạo Nhóm Huy động Kỹ thuật số tại Trung tâm Con người và Máy móc, Viện Phát triển Con người Max Planck cho biết.
Từ lâu nay, các nhà khoa học đã khám phá nhiều phương án khác nhau về cách có thể điều khiển và kiểm soát một AI siêu thông minh. Ở phương án đầu tiên, khả năng hoạt động của siêu AI có thể bị giới hạn bằng các biện pháp như chặn kết nối với Internet và tất cả các thiết bị kỹ thuật khác để nó không thể tiếp xúc với thế giới bên ngoài. Tuy nhiên, điều này sẽ khiến khả năng xử lý của các siêu AI trở nên kém mạnh mẽ, khi nó không thể giải quyết được các vấn đề ngoài phạm vi / khả năng của con người.
Với phương án thứ hai, AI có thể được lập trình các nguyên tắc đạo đức ngay từ đầu, chẳng hạn như AI chỉ được phép theo đuổi các mục tiêu mang lại lợi ích tốt nhất cho nhân loạn. Tuy nhiên, các nhà nghiên cứu cũng chỉ ra rằng phương án kiểm soát AI nói trên vẫn có nhược điểm.
Về cơ bản, nếu muốn kiểm soát một siêu AI vượt xa khả năng hiểu biết của con người, việc đầu tiên chúng ta cần làm là tạo ra một phiên bản mô phỏng của siêu AI này. Từ đó, chúng ta có thể phân tích siêu AI này để tìm ra biện pháp kiểm soát phù hợp. Vấn đề ở chỗ, chúng ta không thể tạo ra một phiên bản mô phỏng như vậy nếu không thể hiểu rõ được siêu AI.
Theo đó, các quy tắc như 'không gây hại cho con người' không thể đặt ra nếu chúng ta không hiểu loại tình huống mà AI sẽ đưa ra. Khi một hệ thống máy tính đang hoạt động ở mức cao hơn phạm vi điều khiển của các lập trình viên, chúng ta không thể đặt ra các giới hạn hay quy tắc nữa.
"Một siêu AI đặt ra vấn đề khác hoàn toàn so với khái niệm thường được nghiên cứu là ‘đạo đức robot’. Điều này là bởi siêu AI cực kỳ toàn năng, có khả năng huy động nhiều nguồn lực để đạt được các mục tiêu mà con người có thể không thể hiểu được, chứ chưa nói đến có thể kiểm soát được.", nhóm nghiên cứu cảnh báo.
Trong nghiên cứu của mình, nhóm nghiên cứu đã thử tạo ra một "thuật toán ngăn chặn" (trên lý thuyết) nhằm đảm bảo một AI siêu thông minh không thể gây hại cho con người trong bất kỳ trường hợp nào. Cụ thể, bằng cách mô phỏng hành vi của AI, thuật toán này sẽ lập tức tiến hành ngăn chặn AI nếu phát hiện nó thực hiện các hành vi được coi là có hại.
Vấn đề ở chỗ, sau khi phân tích kĩ càng, các nhà khoa học kết luận việc tạo ra thuật toán như vậy được coi là điều bất khả thi trong mô hình máy tính hiện tại của chúng ta. Một phần kết luận của nhóm nghiên cứu đến từ Bài toán tạm dừng do Alan Turing đưa ra vào năm 1936. Bài toán này tập trung vào việc liệu một chương trình máy tính có thể đưa ra kết luận và câu trả lời hay không (khiến nó tạm dừng), hay đơn giản là lặp đi lặp lại mãi mãi để tìm ra một kết quả.
"Dựa trên các quy tắc cơ bản của lý thuyết khoa học máy tính, một thuật toán ra lệnh cho AI không phá hủy thế giới có thể vô tình tự ngăn chặn hoạt động của chính nó. Nếu điều này xảy ra, bạn sẽ không biết liệu thuật toán ngăn chặn vẫn đang phân tích mối đe dọa của AI, hay liệu nó đã thất bại trong việc kiểm soát AI có hại hay chưa. Trên thực tế, điều này làm cho thuật toán ngăn chặn trở nên vô dụng", Iyad Rahwan, Giám đốc Trung tâm Con người và Máy móc giải thích.
Nghiên cứu được công bố trên Tạp chí Nghiên cứu Trí tuệ Nhân tạo.