Các chuyên gia cảnh báo nguy cơ về làn sóng tấn công an ninh mới từ năm 2025, khi trí tuệ nhân tạo (AI) biến các vụ lừa đảo và deepfake trở nên nguy hiểm hơn.
Sự phát triển của trí tuệ nhân tạo biến các cuộc tấn công mạng, deepfake trở nên nguy hiểm và khó lường hơn bao giờ hết. Ảnh: Nhiên Đỗ
Báo cáo của tổ chức công nghệ Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra. Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ kết hợp giữa “deep learning” (máy học) và “fake” (giả).
Diễn đàn Kinh tế Thế giới (World Economic Forum) dự báo, đến năm 2026, có thể tới 90% nội dung trực tuyến sẽ được tạo ra bằng AI (trí tuệ nhân tạo). Thoạt nghe, nhiều người có thể cho rằng, mục tiêu chính của các cuộc tấn công deepfake và phishing AI là những người nổi tiếng hay các nhân vật có tiếng tăm.
Tuy nhiên, mục tiêu và động cơ chính vẫn không khác gì so với các vụ lừa đảo từ trước tới nay đó là nhóm người dùng phổ thông với thông tin cá nhân, ngân hàng, thanh toán và các doanh nghiệp - nơi lưu giữ dữ liệu và tài sản có giá trị.
Các cách AI đang được sử dụng để đánh cắp dữ liệu của bạn
Các chuyên gia an ninh mạng của Kaspersky đã chỉ ra phising (tấn công giả mạo) đang ngày càng tinh vi, các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục, với ngữ pháp chính xác, cấu trúc logic, và các đoạn văn mượt mà.
Ngày nay, khi phishing trở thành mối đe dọa toàn cầu, những kẻ tấn công còn có thể nhắm đến các cá nhân sử dụng ngôn ngữ mà chúng không thành thạo, nhờ vào khả năng sáng tạo nội dung của AI. Thêm vào đó, chúng có thể sao chép phong cách viết của cá nhân - chẳng hạn như đối tác kinh doanh hay đồng nghiệp - bằng cách phân tích bài đăng mạng xã hội hoặc các nội dung khác liên quan đến cá nhân đó.
Bên cạnh đó, deepfake âm thanh và video ngày càng khó nhận biết hơn với sự phát triển của AI. Kẻ tấn công có thể lợi dụng giọng nói và video giả mạo của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.
Nhiều nạn nhân mới
Mới đây, một nạn nhân đã “rơi vào bẫy” sau khi nhận được thông báo rằng họ được Elon Musk chọn để đầu tư vào một dự án mới và được mời tham gia một cuộc họp trực tuyến. Đến giờ hẹn, một deepfake của Elon Musk đã trình bày chi tiết về dự án với một nhóm người tham dự, sau đó kêu gọi đóng góp tài chính - từ đó gây thiệt hại lớn cho nạn nhân.
Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video.
Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay. Gần đây, một nhóm hơn hai chục người liên quan đến các vụ lừa đảo kiểu này đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Đài Loan (Trung Quốc), Singapore, và Ấn Độ.
NGUYỄN ĐĂNG
Bình luận (1)





