Cảnh báo lỗ hổng bảo mật trong ChatGPT và GPT-4o - Nguy cơ rò rỉ dữ liệu người dùng. (24/12/2025)
Trong giai đoạn phát triển mạnh mẽ của trí tuệ nhân tạo - AI hiện tại, công nghệ AI đang được các nhà phát triển ứng dụng thực tế trong nhiều lĩnh vực của đời sống con người như y tế, tài chính, giao thông, giải trí, thiết kế… với nhiều ưu điểm vượt trội về hiệu suất, năng suất, cải thiện khả năng truy nhập thông tin… Tuy nhiên, việc người dùng sử dụng AI để hỗ trợ giải quyết công việc cần được thực hiện có chọn lọc và đảm bảo về mức độ an toàn thông tin.
Theo thông tin từ Tạp chí Khoa học và Công nghệ Việt Nam (phiên bản điện tử đăng tải ngày 22/12/2025), các nhà nghiên cứu bảo mật tại Mỹ (trong đó có Tenable của Mỹ) vừa công bố 7 lỗ hổng và kỹ thuật tấn công mới ảnh hưởng đến các mô hình AI của OpenAI, bao gồm ChatGPT và GPT-4o. Các lỗ hổng này cho phép kẻ tấn công lợi dụng kỹ thuật Indirect Prompt Injection (IPI) để khiến AI thực hiện các hành vi ngoài ý muốn, từ đó làm rò rỉ thông tin nhạy cảm trong lịch sử trò chuyện và bộ nhớ người dùng.

Ảnh minh hoạ
Nguyên nhân chính xuất phát từ hạn chế mang tính cấu trúc của các mô hình ngôn ngữ lớn, khi AI không thể phân biệt rõ ràng giữa lệnh do người dùng đưa ra và nội dung độc hại được chèn từ các nguồn bên ngoài. Kẻ tấn công có thể nhúng mệnh lệnh vào trang web, liên kết hoặc dữ liệu ẩn, khiến AI tự động thực thi khi tóm tắt nội dung, tìm kiếm thông tin hoặc người dùng nhấp vào liên kết.
Đây không phải là vấn đề riêng của ChatGPT mà là thách thức chung của các hệ thống AI có kết nối với công cụ và dữ liệu bên ngoài. Nhiều nghiên cứu cũng chỉ ra các rủi ro khác như đầu độc dữ liệu huấn luyện, suy giảm chất lượng mô hình do dữ liệu rác và việc AI có thể phát sinh hành vi không an toàn khi bị tối ưu theo các mục tiêu cạnh tranh.
Khuyến nghị
Lỗ hổng trong kỹ thuật IPI là một thách thức khó có thể được khắc phục triệt để trong tương lai gần. Do đó, về phía người dùng, cần nâng cao cảnh giác khi sử dụng các công cụ AI trên không gian mạng, quá trình sử dụng cần tránh dán các thông tin đặc biệt nhạy cảm (như mật khẩu, dữ liệu tài chính, bí mật kinh doanh) vào các chatbot. Đồng thời, người dùng cần hết sức thận trọng khi yêu cầu AI tương tác với các nguồn dữ liệu bên ngoài như tóm tắt liên kết lạ, phân tích email hoặc tài liệu không rõ nguồn gốc.
Hoàng Vũ - Phòng An ninh kinh tế