Công nghệ

Cách nào để vô hiệu tấn công mạng được cá nhân hoá bởi AI?

Hạnh Lê 18/01/2025 03:30

AI được sử dụng để tinh chỉnh, nâng cấp các chiêu trò tấn công mạng khiến những người có kinh nghiệm về an ninh mạng cũng có thể “mắc bẫy”.

Cảnh báo này vừa được Kaspersky cảnh báo sau khi đơn vị này thực hiện và công bố nghiên cứu về các vụ tấn công mạng có yếu tố liên quan đến sự phát triển của trí tuệ nhân tạo (AI).

Cụ thể, các tổ chức phải đối mặt với các vụ tấn công mạng đã tăng gần gấp đôi trong 12 tháng qua. Mối đe dọa phổ biến nhất đến từ các vụ lừa đảo phishing (tấn công giả mạo). Đặc biệt, gần 50% đơn vị, cá nhân tham gia khảo sát dự đoán số lượng các vụ tấn công lừa đảo sẽ tăng đáng kể, trong bối cảnh tội phạm mạng ngày càng lợi dụng AI nhiều hơn.

Tốc độ tấn công nhanh, phương thức tinh vi hơn

Theo các chuyên gia của Kaspersky, trước đây, các vụ tấn công lừa đảo chủ yếu dựa vào việc phát tán những tin nhắn rập khuôn đến hàng ngàn người nhằm dụ dỗ một số người “sập bẫy”. Đến nay, với việc lợi dụng AI, hình thức lừa đảo đã thay đổi khi những email lừa đảo được cá nhân hóa một cách tinh vi trên quy mô lớn.

ai.jpg
Lợi dụng AI khiến các cuộc tấn công mạng ngày càng phức tạp, tinh vi và khó xử lý

Các công cụ tích hợp AI có thể sử dụng thông tin công khai của cá nhân trên mạng xã hội, trang tuyển dụng hoặc website của các công ty, từ đó tạo ra những email được thiết kế riêng, đúng vai trò, sở thích và phong cách giao tiếp của từng cá nhân.

Chẳng hạn, một CFO có thể nhận được email lừa đảo sao chép giọng điệu và phong cách tin nhắn từ CEO, thậm chí email còn đề cập đến các sự kiện gần đây của công ty một cách chính xác. Mức độ tùy chỉnh tinh vi này khiến nhân viên rất khó phân biệt giữa tin nhắn thực với tin nhắn lừa đảo.

Cùng với đó là công nghệ deepfake trong AI - vũ khí lợi hại được tội phạm mạng sử dụng để tạo ra các đoạn âm thanh và video giả mạo, mô phỏng giọng nói, ngoại hình của các nhà lãnh đạo, quản lý với mức độ chính xác đến kinh ngạc. Công nghệ deepfake ngày càng phát triển, các cuộc tấn công dưới hình thức này được dự đoán sẽ ngày một tràn lan và tinh vi hơn.

Với sự hỗ trợ của các công nghệ hiện đại trên, email lừa đảo tạo bằng AI có thể vượt qua vòng kiểm tra của phần mềm bảo mật. Các thuật toán học máy còn có thể kiểm tra và tinh chỉnh lừa đảo trong thời gian thực, nâng cao tỷ lệ “trót lọt” và biến chiêu thức lừa đảo ngày càng trở nên tinh vi.

Lá chắn” phòng thủ toàn diện

Mức độ chân thực và cá nhân hóa của các nội dung lừa đảo do AI tạo ra đôi khi lấn át sự hoài nghi, vốn là yếu tố giúp các chuyên gia giàu kinh nghiệm luôn thận trọng. Từ thực tế đó, chuyên gia của Kaspersky nhận định, không loại trừ những người có kinh nghiệm về an ninh mạng cũng có thể “mắc bẫy” lừa.

tan cong mang
Doanh nghiệp, tổ chức cần tạo “lá chắn” phòng thủ toàn diện bằng việc sử dụng nhiều biện pháp bảo vệ mạng

Để đối phó với những vụ tấn công lừa đảo sử dụng AI, khuyến cáo từ Kaspersky, các tổ chức, doanh nghiệp cần có cách tiếp cận chủ động và đa lớp, tập trung vào hệ thống an ninh mạng toàn diện. Quan trọng nhất là thường xuyên cập nhật, đào tạo nâng cao nhận thức về an ninh mạng cho nhân viên, trong đó chú trọng yếu tố AI để các nhân sự trong doanh nghiệp nhận diện các dấu hiệu lừa đảo tinh vi và các chiến thuật tấn công độc hại khác.

Song song, doanh nghiệp nên triển khai các công cụ bảo mật mạnh mẽ có khả năng phát hiện bất thường trong email, chẳng hạn như mẫu câu hay siêu dữ liệu đáng ngờ.

Đóng vai trò quan trọng trong việc giảm thiểu nguy cơ bị thiệt hại từ các vụ tấn công là áp dụng mô hình bảo mật “zero-trust” mạng và dữ liệu, mà ở đó tất cả người dùng và thiết bị đều được coi là không tin cậy mặc định.

Thông qua việc hạn chế quyền truy cập vào hệ thống và dữ liệu nhạy cảm, mô hình này đảm bảo kẻ tấn công không thể làm tổn hại toàn bộ mạng lưới ngay cả khi chúng đã vượt qua một lớp bảo mật. Khi hợp sức lại, các biện pháp này sẽ tạo thành “lá chắn” phòng thủ toàn diện, kết hợp công nghệ tiên tiến với sự giám sát chặt chẽ của con người.

Hạnh Lê