Trong khi các trợ lý AI như Google Gemini và ChatGPT của OpenAI mang lại nhiều lợi ích vượt trội, chúng cũng đang trở thành công cụ nguy hiểm trong tay tội phạm mạng, bao gồm cả các nhóm hacker được nhà nước hậu thuẫn.
AI, Vũ Khí Mới Trong Tay Hacker
Báo cáo mới nhất từ Google tiết lộ rằng nhiều nhóm tấn công mạng có tổ chức (APT) đến từ Iran, Trung Quốc, Triều Tiên và Nga đã bắt đầu thử nghiệm và khai thác Gemini để tinh gọn hoạt động tấn công mạng của họ.
Cụ thể, các nhóm này sử dụng AI để:
- Thu thập thông tin mục tiêu (reconnaissance)
- Nghiên cứu lỗ hổng bảo mật
- Viết mã độc và kịch bản tấn công
- Tăng cường khả năng tấn công mạng một cách tinh vi và quy mô hơn
Trước đó, vào tháng 10/2024, OpenAI cũng xác nhận có các hành vi tương tự liên quan đến việc lạm dụng các công cụ AI sinh bởi các thực thể có liên kết với chính phủ.
AI Không Có Kiểm Soát: Mối Đe Dọa Càng Lớn
Mối lo ngại không chỉ đến từ các mô hình AI hàng đầu, mà còn từ các nền tảng AI mã nguồn mở hoặc thiếu rào chắn bảo mật nghiêm ngặt.
Ví dụ, một số mô hình như DeepSeek được cho là có cơ chế bảo vệ yếu, dễ bị “jailbreak” hoặc thao túng bởi hacker.
Điều này tạo ra một môi trường lý tưởng cho tội phạm mạng sử dụng AI để:
- Lừa đảo qua email, tin nhắn, gọi điện bằng giọng nói deepfake
- Tự động hóa viết mã độc, kịch bản tấn công
- Tìm kiếm lỗ hổng bảo mật trong hạ tầng công cộng
- Phát hiện điểm yếu trong hệ thống mà không cần đến kỹ thuật thủ công
Hacker Đang Khai Thác AI Như Thế Nào?
1. Tăng tốc thu thập thông tin cá nhân
Hacker dùng AI để quét mạng xã hội, hồ sơ công khai, cơ sở dữ liệu bị rò rỉ… nhằm xây dựng hồ sơ mục tiêu cho các cuộc tấn công lừa đảo (phishing) hoặc đánh cắp danh tính.
2. Phishing & tấn công xã hội ngày càng tinh vi
AI có thể tạo ra email, tin nhắn, hoặc cuộc gọi deepfake có nội dung tự nhiên, đánh lừa cả người dùng cẩn trọng nhất. Hệ thống spam truyền thống khó nhận diện được những nội dung này.
3. Tự động hóa phát triển mã độc
Kẻ tấn công dùng AI để viết, tối ưu và thử nghiệm mã độc với hiệu quả cao hơn nhiều so với cách làm thủ công truyền thống.
4. Khai thác lỗ hổng hệ thống
Bằng cách yêu cầu AI giải thích kỹ thuật, hacker có thể tìm hiểu các chiến lược khai thác bảo mật, hoặc tấn công phần mềm chưa được vá lỗi.
5. Vượt qua cơ chế bảo mật AI
Các chuyên gia an ninh mạng đã chứng minh rằng các mô hình AI phổ biến rất dễ bị phá vỡ rào chắn bảo mật bằng kỹ thuật “jailbreak”, mở ra khả năng sử dụng AI cho các mục đích độc hại.
Làm Gì Để Bảo Vệ Bản Thân Trước Các Mối Đe Dọa Từ AI?
Dù bạn không phải là tổ chức lớn, vẫn có nguy cơ bị nhắm đến bởi các hình thức tấn công mới sử dụng AI. Dưới đây là một số bước cần thực hiện:
1. Cảnh giác với email và cuộc gọi đáng ngờ
- Không cung cấp thông tin cá nhân qua email/tin nhắn bất ngờ
- Luôn xác minh thông tin qua kênh chính thức
2. Kiểm soát thông tin cá nhân trên mạng
- Hạn chế chia sẻ quá nhiều thông tin lên mạng xã hội
- Kiểm tra và cập nhật cài đặt quyền riêng tư định kỳ
3. Luôn cập nhật phần mềm và hệ điều hành
- Kẻ tấn công AI thường khai thác các lỗ hổng đã được biết đến
- Đảm bảo thiết bị luôn cài đặt bản vá mới nhất
4. Bảo vệ tài khoản số
- Dùng mật khẩu mạnh và khác nhau cho từng tài khoản
- Kích hoạt xác thực hai yếu tố (MFA)
- Sử dụng trình quản lý mật khẩu uy tín
5. Theo dõi xu hướng an ninh mạng và AI
- Đọc tin tức, theo dõi các cảnh báo từ cơ quan an ninh mạng
- Tự trang bị kiến thức để nhận diện các nguy cơ mới từ AI
Kết Luận
Trí tuệ nhân tạo đang thay đổi cách thức tấn công mạng một cách sâu sắc. Trong khi các mô hình AI như Gemini hay ChatGPT mang lại nhiều lợi ích cho người dùng, chúng cũng đang bị lợi dụng để tinh vi hóa các chiến thuật của hacker và tội phạm mạng.
Để sống an toàn trong thời đại AI, cả cá nhân lẫn tổ chức cần nâng cao cảnh giác, chủ động phòng ngừa và thường xuyên cập nhật kiến thức về bảo mật.
Tìm hiểu thêm tại: https://chatgpt.com/