Các chính sách bảo hiểm mới đang ra đời để bảo hiểm những tổn thất tài chính do lỗi của AI tạo ra. Mặt khác đây có thể là xúc tác thúc đẩy ứng dụng AI nhiều hơn.
Hãng bảo hiểm lừng danh Lloyd's ở Luân Đôn vừa chính thức giới thiệu một sản phẩm bảo hiểm rất mới. Sản phẩm này được thiết kế để bù đắp cho các công ty trước những tổn thất tài chính phát sinh từ các công cụ trí tuệ nhân tạo (AI) hoạt động sai chức năng. Các chính sách bảo hiểm này sẽ chi trả chi phí pháp lý và các khoản bồi thường thiệt hại theo quyết định của tòa án nếu một công ty bị khách hàng hoặc bên thứ ba kiện và chứng minh được họ đã bị tổn hại do công cụ AI hoạt động kém hơn kỳ vọng ban đầu.
Nhu cầu thị trường
Sự phát triển nhanh chóng của AI tạo sinh (generative AI) hiện nay đang làm thay đổi cách các công ty giao tiếp, tự động hóa và mở rộng quy mô hoạt động. Từ các bot dịch vụ khách hàng xử lý hàng nghìn yêu cầu cho đến các công cụ pháp lý soạn thảo hợp đồng và tài liệu tuân thủ, các mô hình ngôn ngữ lớn (LLM) hiện đã trở thành một phần không thể thiếu trong các chức năng kinh doanh cốt lõi.
Tuy nhiên, khi sự phụ thuộc vào AI tăng lên, mức độ rủi ro do lỗi của nó cũng tăng theo. Các vấn đề như thông tin "ảo giác" (hallucinations) - tức là đưa ra các thông tin sai lệch nhưng đầy tự tin, lời khuyên gây hiểu lầm, và nội dung không phù hợp đã gây ra những cuộc khủng hoảng pháp lý và ảnh hưởng tới uy tín của doanh nghiệp.
Ví dụ, một chatbot dịch vụ tài chính có thể đưa ra lời khuyên sai về các lựa chọn đầu tư, hoặc một công cụ AI pháp lý có thể tạo ra các trích dẫn án lệ giả mạo.
Đã có những trường hợp đáng chú ý xảy ra gần đây: Một luật sư ở New York đã bị xử phạt vì sử dụng bản tóm tắt do AI tạo ra với các tài liệu tham khảo vụ án không có thật. Hay công ty Virgin Money phải xin lỗi sau khi chatbot AI của họ khiển trách một khách hàng vì sử dụng từ "virgin", và nhóm chuyển phát DPD phải vô hiệu hóa một phần bot dịch vụ khách hàng sau khi nó chửi rủa khách hàng và gọi chủ sở hữu của nó là "công ty dịch vụ giao hàng tồi tệ nhất thế giới".
Tòa án cũng đã ra lệnh cho Air Canada phải thực hiện mức giảm giá mà chatbot dịch vụ khách hàng của họ tự nghĩ ra. Những sự cố này cho thấy lỗi đầu ra của AI đã gây ra tổn thất tài chính hoặc pháp lý cụ thể.
Những sự cố do AI gây ra đã làm nổi bật một khoảng trống thị trường bảo hiểm hiện có. Mặc dù một số nhà bảo hiểm đã bao gồm các tổn thất liên quan đến AI trong các chính sách bảo hiểm lỗi và sơ suất công nghệ (tech errors and omissions - E&O) chung, nhưng những chính sách này thường có giới hạn bồi thường thấp cho rủi ro AI.
Theo đó xuất hiện một làn sóng chính sách bảo hiểm mới đang được giới thiệu để bảo hiểm những tổn thất tài chính gây ra bởi lỗi của AI tạo sinh. Điều này đánh dấu một sự thay đổi lớn: sự công nhận chính thức AI tạo sinh là một rủi ro vật chất, có thể bảo hiểm được. Các chính sách này nhằm mục đích giảm thiểu thiệt hại pháp lý, tài chính và danh tiếng mà các công ty phải đối mặt khi AI gặp trục trặc.
Những chính sách này thường bao gồm các chi phí pháp lý để bào chữa cho các vụ kiện phát sinh từ thông tin sai lệch hoặc kết quả đầu ra sai sót, các khoản bồi thường theo phán quyết của tòa án hoặc dàn xếp nếu khách hàng hoặc bên thứ ba chứng minh được bị tổn hại, giảm thiểu thiệt hại danh tiếng bao gồm dịch vụ quản lý khủng hoảng truyền thông, hay các yêu cầu bồi thường vi phạm hợp đồng khi sản phẩm bàn giao do AI tạo ra không đáp ứng các điều khoản hợp đồng.
Thách thức với các nhà bảo hiểm
Một trong những rào cản chính trong việc cung cấp bảo hiểm lỗi AI là đánh giá rủi ro. Các mô hình sáng tạo mang tính xác suất, không xác định và liên tục được cập nhật, điều này khiến việc áp dụng các mô hình định phí bảo hiểm truyền thống hoặc dữ liệu tổn thất lịch sử trở nên khó khăn. Các nhà bảo hiểm phải xem xét nhiều yếu tố: quản trị mô hình (AI là độc quyền, mã nguồn mở hay được cấp phép?), tài liệu chuỗi nhắc lệnh (các đầu vào và đầu ra có được theo dõi không?), kiểm soát vòng lặp con người (kết quả đầu ra có được xem xét trước khi đến tay khách hàng không?), và bối cảnh ngành (một ảo giác trong công cụ nghiên cứu nội bộ khác với trong chatbot pháp lý trực tiếp).
Do đó, nhiều chính sách có các điểm loại trừ chặt chẽ, ví dụ: không bảo hiểm cho việc sử dụng sai mục đích cố ý, sử dụng kết quả ngoài ngữ cảnh dự định, hoặc can thiệp trái phép vào mô hình của bên thứ ba. Các biện pháp kiểm soát rủi ro, như chính sách sử dụng AI, nhật ký kiểm tra và chứng nhận AI đạo đức, cũng có thể được yêu cầu trước khi cấp bảo hiểm.
Tiềm năng tương lai
Các công ty bảo hiểm như Hiscox, Chubb, Beazley và Munich Re là những đơn vị đầu tiên giới thiệu các chính sách bảo hiểm hiệu suất AI chính thức. Nhu cầu bảo hiểm được cho là cao nhất trong các lĩnh vực nơi công cụ AI tương tác trực tiếp với khách hàng hoặc tạo ra các kết quả được quy định. Điều này bao gồm các nền tảng công nghệ pháp lý (đặc biệt là tự động hóa hợp đồng, khám phá và giao tiếp với khách hàng), các công ty dịch vụ khách hàng thuê ngoài triển khai AI ở quy mô lớn, các công ty fintech (đặc biệt trong quy trình giới thiệu khách hàng - KYC, và truyền thông cho nhà đầu tư), cũng như các công ty công nghệ y tế và nhân sự nơi AI sáng tạo đang được thử nghiệm cho chẩn đoán, tuyển dụng và sàng lọc đủ điều kiện.
Một số nhà bảo hiểm đang xem xét định giá dựa trên mức độ sử dụng, nơi phí bảo hiểm được liên kết với khối lượng tương tác AI, phân loại rủi ro của các trường hợp sử dụng và mức độ giám sát của con người.
Loại hình bảo hiểm mới này có thể xúc tác cho việc triển khai AI một cách chuyên nghiệp hơn. Tương tự như cách bảo hiểm rủi ro mạng đã thúc đẩy các công ty tăng cường hệ thống IT của họ, bảo hiểm AI có thể khuyến khích các doanh nghiệp thực hiện giám sát chặt chẽ việc sử dụng mô hình, kỹ thuật ra lệnh và xác minh kết quả đầu ra. Nó cũng có thể khuyến khích các công ty vẫn còn ngần ngại triển khai các công cụ sáng tạo, bởi vì biết rằng rủi ro pháp lý hoặc danh tiếng có thể được chuyển giao cho một nhà bảo hiểm sẽ tăng thêm sự tự tin.
Một số nhà phân tích kỳ vọng các nhà bảo hiểm sẽ làm việc chặt chẽ với các nhà cung cấp AI trong tương lai, cung cấp bảo hiểm đi kèm với các sản phẩm AI doanh nghiệp, tương tự như hỗ trợ bảo hành trong cấp phép phần mềm. Ngoài ra, các nhà bảo hiểm có khả năng sẽ bắt đầu xây dựng các mô hình kiểm toán AI độc quyền của riêng họ, kết hợp phân tích chuỗi nhắc lệnh, giám sát người dùng và chấm điểm hành vi để hỗ trợ định phí bảo hiểm.
Việc ra mắt bảo hiểm lỗi chatbot AI đánh dấu một cột mốc quan trọng. Khi các công cụ AI ngày càng tự chủ và được nhúng vào các môi trường có rủi ro cao, bảo hiểm trách nhiệm hiệu suất AI có thể trở nên phổ biến. Bằng cách này, các nhà bảo hiểm có thể không chỉ đơn thuần bảo hiểm rủi ro AI mà còn giúp định hình các rào cản đảm bảo việc triển khai AI an toàn và có trách nhiệm.
Ông Quang Tuấn - Chuyên gia tư vấn Chính sách và Công nghệ công ty IS-Tech (Integrated Smart Technologies) - nhận định: “Trong bối cảnh trí tuệ nhân tạo ngày càng được ứng dụng rộng rãi vào đời sống xã hội, từ hỗ trợ giúp con người xử lý công việc (AI assistance), cho đến thay thế con người tự động ra quyết định thực hiện quy trình sản xuất, kinh doanh (AI Agent). Điều này đã dẫn đến nhiều vấn đề pháp lý đặt ra cần được xem xét giải quyết, như:
Thứ nhất, trách nhiệm pháp lý của các bên liên quan, bao gồm nhà phát triển, người triển khai, người sử dụng AI – ai chịu trách nhiệm khi AI gây ra thiệt hại, và ai là ‘người được bảo hiểm’;
Thứ hai, AI thường bị ảnh hưởng bởi dữ liệu huấn luyện và thuật toán. Vậy lỗi đến từ dữ liệu sai và thuật toán thao túng có được bảo hiểm không?
Thứ ba, việc định giá phí bảo hiểm AI sẽ là vấn đề rất khó, do thiếu dữ liệu lịch sử về thiệt hại, dẫn đến khó khăn trong định lượng rủi ro – khác với các loại bảo hiểm truyền thống như cháy nổ hay tai nạn;
Thứ tư, AI và vấn đề đạo đức, quyền cá nhân dẫn đến phân biệt đối xử, vi phạm nhân quyền (giới tính, chủng tộc) có thể kéo theo kiện tụng phức tạp, yêu cầu bảo hiểm rủi ro đạo đức và pháp lý, v.v..
"Bảo hiểm AI" không chỉ là một công cụ tài chính để chuyển giao rủi ro mà còn là một cơ chế quản trị pháp lý quan trọng, buộc các bên phát triển và sử dụng AI phải có trách nhiệm với tác động của công nghệ. Tuy nhiên tại Việt Nam, hiện vẫn chưa có quy định cụ thể nào cho vấn đề này. Các điều khoản hiện hành về bảo hiểm trách nhiệm dân sự, bảo hiểm chuyên môn có thể áp dụng một phần nhưng chưa đầy đủ.
Do đó, theo chuyên gia, việc tham khảo kinh nghiệm của Anh, EU và các nước đi trước trên lĩnh vực này, để sớm phát triển và áp dụng "Bảo hiểm AI tại Việt Nam trước mắt cũng như lâu dài là một bước đi tất yếu và cần thiết của chiến lược phát triển AI an toàn, bền vững và có trách nhiệm, với một số lưu ý: (i) Cần xây dựng khung pháp lý về trách nhiệm dân sự AI, bao gồm các cấp độ rủi ro và nghĩa vụ bảo hiểm bắt buộc đối với một số lĩnh vực nhạy cảm; (ii) Yêu cầu đánh giá rủi ro pháp lý của AI trước khi triển khai, đi kèm quy định bảo hiểm như một điều kiện cấp phép trong một số trường hợp, đặc biệt trong lĩnh vực ngân hàng, logistics, y tế, giáo dục và thành phố thông minh, v.v..”.