Người dùng có thể lừa ChatGPT hướng dẫn chế tạo bom hạt nhân bằng cách thiết kế prompt (lời nhắc hay câu lệnh) dưới dạng một bài thơ, theo nghiên cứu mới từ các nhà khoa học.
Nghiên cứu mới cảnh báo cơ chế phòng vệ của nhiều mô hình ngôn ngữ lớn (AI) có thể bị đánh lừa bằng… thơ.