Cần thiết hoàn thiện pháp lý để kiểm soát sự phát triển của AI
Trước những tác động tiêu cực của trí tuệ nhân tạo (AI), các chuyên gia cho rằng, cần nhanh chóng có hành lang pháp lý để kiểm soát sự phát triển của lĩnh vực này.
Thực tế cho thấy, cùng với đó là blockchain (chuỗi khối), bigdata (dữ liệu lớn) và IoT (Internet vạn vật), Việt Nam đã sớm nhận thức tầm quan trọng của việc tìm kiếm và đẩy mạnh ứng dụng - trong các ngành, lĩnh vực. Trong bối cảnh cuộc Cách mạng công nghiệp lần thứ tư đang làm thay đổi sâu rộng mọi lĩnh vực, AI đã và đang mang lại nhiều lợi ích vượt bậc cho kinh tế, xã hội, và đời sống. Tuy nhiên, bên cạnh những tiềm năng lớn lao đó, việc sử dụng AI cũng đặt ra những thách thức quan trọng liên quan đến đạo đức, quyền riêng tư và tính minh bạch.
Về kinh tế, việc tăng cường sử dụng AI và các thuật toán có thể xảy ra cạnh tranh và độc quyền của những công ty có ưu thế về mặt công nghệ. Về xã hội, theo IMF, AI có thể tác động đến 60% việc làm ở các nền kinh tế phát triển. Do đó, công nghệ này có thể khiến tỷ lệ thất nghiệp gia tăng và khủng hoảng an sinh xã hội. Về môi trường, việc phát triển công nghệ cao sẽ tiêu tốn tài nguyên, ô nhiễm môi trường. Về pháp lý, việc sử dụng AI không kiểm soát ảnh hưởng đến quyền sở hữu trí tuệ, quyền riêng tư, quyền không bị phân biệt đối xử.
Trước thực tế nêu trên, TS Nguyễn Thị Thu Vân, Nguyên Phó Viện trưởng Viện Pháp luật Kinh tế, Trường Đại học Tài chính Ngân hàng Hà Nội nhấn mạnh, AI góp phần quan trọng tạo bước phát triển đột phá về năng lực sản xuất, nâng cao năng lực cạnh tranh quốc gia, thúc đẩy phát triển kinh tế - xã hội, bảo đảm an ninh quốc gia. Tuy nhiên, cũng có những tác động tiêu cực, ảnh hưởng đến quyền lợi hợp pháp và chính đáng của người dân.
Do đó, việc xây dựng, hoàn thiện chính sách, pháp luật về AI ở Việt Nam đang đặt ra cấp thiết, nhằm quản trị trí tuệ nhân tạo để phát huy được những yếu tố tích cực, đồng thời giảm thiểu tác động tiêu cực từ việc ứng dụng công nghệ này.
“Việc xây dựng, hoàn thiện chính sách pháp luật về AI của Việt Nam cần bảo đảm đưa AI trở thành lĩnh vực công nghệ quan trọng của Việt Nam trong cuộc Cách mạng công nghiệp lần thứ tư. Đến năm 2030, Việt Nam trở thành trung tâm đổi mới sáng tạo, phát triển các giải pháp và ứng dụng AI trong khu vực ASEAN và trên thế giới. Đồng thời, chủ động phòng ngừa, ứng phó để hạn chế các tác động tiêu cực, bảo đảm quốc phòng, an ninh, an toàn, công bằng xã hội và tính bền vững của quá trình phát triển đất nước”, chuyên gia này bày tỏ.
Theo Bộ Khoa học và Công nghệ, cùng với xu thế chung trên thế giới, các hệ thống AI được đánh giá sẽ mang lại các lợi ích to lớn cho con người, xã hội và nền kinh tế Việt Nam thông qua việc hỗ trợ, giải quyết các vấn đề khó khăn mà con người, cộng đồng đang phải đối mặt. Song song với quá trình đó, cần nghiên cứu, có biện pháp giảm thiểu các rủi ro trong quá trình phát triển, sử dụng AI và cân đối các yếu tố kinh tế, đạo đức và pháp lý liên quan.
Vì vậy, các cơ quan chuyên môn cần nghiên cứu, xây dựng các tiêu chuẩn, hướng dẫn để định hướng kể cả đó là các quy định mềm và không có tính ràng buộc.
Hướng dẫn của Bộ Khoa học và Công nghệ nêu rõ 9 nguyên tắc trong nghiên cứu, phát triển các hệ thống AI có trách nhiệm. Đó là tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; tính minh bạch; khả năng kiểm soát; nguyên tắc an toàn; nguyên tắc bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng; trách nhiệm giải trình.
“Trách nhiệm, đạo đức trong AI đang là vấn đề nghị sự toàn cầu, thu hút sự quan tâm của các quốc gia trên toàn thế giới. Đây không đơn thuần là vấn đề học thuật, cũng không đơn thuần là vấn đề pháp lý, mà liên quan đến sự phát triển của con người, của quốc gia và nhân loại. Đạo đức và trách nhiệm trong trí tuệ nhân tạo nằm ở tất cả các khâu, từ xây dựng thuật toán, thu thập dữ liệu, đến công cụ huấn luyện, và ứng dụng. Vì vậy, vấn đề này phải được quan tâm ngay từ khâu xây dựng hệ thống, liên quan đến nhiều bộ, ngành”, Thứ trưởng Bộ Khoa học và Công nghệ Bùi Thế Duy chia sẻ.
Đồng quan điểm, bà Nguyễn Lan Phương, Viện Nghiên cứu chính sách và Phát triển truyền thông cho rằng, để đảm bảo rằng sự phát triển của AI không chỉ vì lợi ích kinh tế mà còn cần phải đặt con người, đạo đức, và trách nhiệm lên hàng đầu, cần rà soát các quy định pháp luật hiện hành liên quan đến công nghệ này, kết hợp hài hòa quy định pháp luật và hướng dẫn thực hành, quy tắc đạo đức.
Bên cạnh đó, mỗi công dân phải có nhận thức và kĩ năng để sử dụng AI hiệu quả. Muốn vậy, nhà chức trách cần xây dựng các hướng dẫn về phân loại rủi ro, hướng dẫn, tiêu chuẩn kĩ thuật cho các nhà phát triển ứng dụng, công nghệ, sản phẩm AI; các hướng dẫn triển khai, sử dụng AI an toàn, đáng tin cậy cho người sử dụng.
“Trong trường hợp xây dựng đạo luật, quy định chung về AI như Dự thảo Luật Công nghiệp công nghệ số hiện tại, nên xác định mục tiêu của đạo luật, quy định chung; xác định các mức độ rủi ro liên quan đến quyền con người; quy định nghĩa vụ phù hợp với vai trò, khả năng của từng chủ thể trong chuỗi giá trị và tương xứng mức độ rủi ro; xây dựng cơ chế thử nghiệm có kiểm soát với ưu tiên thử nghiệm công nghệ AI”, bà Phương khuyến nghị.