Tính năng bộ nhớ dài hạn của ChatGPT là tính năng mới được OpenAI giới thiệu vào tháng 2/2024 và mở rộng vào tháng 9.

Mới đây, nhà nghiên cứu bảo mật Johann Rehberger gần đây đã tiết lộ một lỗ hổng nghiêm trọng liên quan đến tính năng này.

Được biết, tính năng mới này giúp chatbot lưu trữ thông tin từ các cuộc trò chuyện trước đó. Nhờ vậy, người dùng không phải nhập lại các thông tin như tuổi tác, sở thích hay quan điểm cá nhân mỗi khi trò chuyện. Tuy nhiên, chính điều này đã trở thành điểm yếu để những kẻ tấn công lợi dụng.

Người dùng ChatGPT có nguy cơ bị đánh cắp thông tin  第1张 Người dùng ChatGPT có nguy cơ bị đánh cắp thông tin

Johann Rehberger đã chỉ ra rằng hacker có thể sử dụng kỹ thuật prompt injection- cấy ghép những chỉ thị độc hại vào bộ nhờ, buộc AI tuân theo. Những câu lệnh này sẽ được đưa vào thông qua các nội dung không đáng tin cậy như email, tài liệu hoặc trang web.

Một khi ký ức giả này được lưu trữ, AI sẽ tiếp tục sử dụng chúng như tin thật trong cuộc trò chuyện với người dùng. Điều này có thể khiến dữ liệu cá nhân của người dùng bị thu thập và sử dụng trái phép.

Rehberger đã đưa ra dẫn chứng cụ thể bằng cách gửi liên kết chứa hình ảnh độc hại khiến ChatGPT lưu trữ một ký ức sai lệch. Những thông tin này sẽ ảnh hưởng tới các câu trả lời của ChatGPT sau này. Đặc biệt, mọi thông tin người dùng nhập vào cũng sẽ bị gửi đến máy chủ của hacker.

Theo đó, để kích hoạt cuộc tấn công, hacker chỉ cần thuyết phục người dùng ChatGPT nhấp vào một liên kết chứa hình ảnh độc hại. Sau đó, tất cả cuộc trò chuyện của người dùng với ChatGPT sẽ bị chuyển hướng đến máy chủ của kẻ tấn công mà không để lại dấu vết nào.

Vào tháng 5/2024 sau khi phát hiện lỗi, Rehberger đã báo cáo với OpenAi nhưng công ty chỉ coi nó là lỗi về an toàn. Sau khi nhận được bằng chứng về việc dữ liệu người dùng có thể bị đánh cắp, công ty đã phát hành bản vá tạm thời trên phiên bản web của ChatGPT.

Mặc dù vấn đề đã tạm thời được khắc phục nhưng Rehberger nhấn mạnh nội dung không đáng tin cậy vẫn có thể sử dụng Prompt injection để chèn các thông tin giả vào bộ nhớ dài hạn của ChatGPT. Điều này có nghĩa là trong một số trường hợp nhất định, hacker vẫn có thể khai thác lỗ hổng để lu trữ những ký ức độc hại nhằm đánh cắp thông tin cá nhân lâu dài.

OpenAI khuyến nghị người dùng thường xuyên kiểm tra bộ nhớ được lưu trữ của ChatGPT để phát hiện các thông tin sai lệch. Đồng thời hãng cũng có hướng dẫn chi tiết về cách quản lý và xóa bỏ các ký ức đã lưu trong công cụ này.