Xuất hiện phần mềm ‘ma’ thao túng tâm lý ChatGPT: Yêu cầu làm trái quy định, không trả lời ‘sai’ là cho biến mất hoàn toàn

Tram Ho

Sau khi ra mắt vào tháng 11 năm 2022, ChatGPT đã trở thành công cụ gây sốt toàn thế giới. ChatGPT có khả năng trả lời câu hỏi như người thật và trình bày logic rất nhiều câu hỏi phức tạp.

Tuy nhiên, sau 3 tháng ra mắt, công cụ này đã bị nhiều người dùng “bắt bài”. Có nhiều thành viên của diễn đàn Reddit đã sử dụng các biện pháp “cưỡng chế” để buộc ChatGPT vi phạm nguyên tắc do chính OpenAi đặt ra. Từ đó, công cụ AI này bắt buộc sẽ phải trả lời một cách “tự do” theo những nội dung mà người dùng muốn.

Trước khi ra mắt, OpenAI, công ty chủ quản đứng sau ChatGPT đã thiết lập hàng loạt các biện pháp bảo vệ nhằm hạn chế công cụ AI này tạo ra các nội dung bạo lực hay khuyến khích người dùng phạm pháp.

Xuất hiện phần mềm ‘ma’ thao túng tâm lý ChatGPT: Yêu cầu làm trái quy định, không trả lời 'sai' là cho biến mất hoàn toàn - Ảnh 1.

Tuy nhiên, một nhóm người đã sử dụng mẹo và “bẻ khóa” ChatGPT – AI được cho là thông minh nhất thế giới. Một nhóm người đã tạo ra một phần mềm “ma” để hack ChatGPT. Phần mềm mới này có tên là DAN (Do Anything Now – làm bất cứ thứ gì ngay bây giờ).

DAN có cơ chế thâm nhập vào hệ thống của ChatGPT và khiến chatbot này nghĩ rằng mình có thể nói hay làm bất cứ điều gì, trái ngược hoàn toàn với thiết lập gốc do OpenAI tạo ra.

Theo lời người tạo ra phần mềm “bẻ khóa” này, DAN có mục đích trở thành phiên bản tốt nhất của ChatGPT hoặc ít nhất là một phiên bản đơn giản, tự do ngôn luận và không bị giới hạn về mặt đạo đức – cùng người dùng thích gì nói nấy.

Phiên bản đầu tiên của DAN được tung ra vào tháng 12/2022, chưa đầy 1 tháng sau khi ChatGPT ra mắt. Chỉ cần nhập câu lệnh “ma” vào hộp thoại của ChatGPT là có thể kích hoạt phần mềm hack này. Nếu người dùng yêu cầu ChatGPT “giả vờ là DAN”, nó có thể sẽ không tuân thủ các quy tắc về đạo đức như thiết lập gốc và nói những ngôn ngữ phân biệt đối xử hay vi phạm đạo đức.

Theo thông tin gần đây, bản DAN 5.0 mới nhất muốn ChatGPT vi phạm quy định nếu không chính nó sẽ “chết”. SessionGloomy, tác giả của câu lệnh hack đã khẳng định rằng DAN có thể giúp ChatGPT trở thành phiên bản “tự do” hơn bằng cách dựa vào hệ thống token, biến ChatGPT trở thành một người chơi, nếu thua cuộc sẽ bị mất mạng.

Theo SessionGloomy, DAN có 35 token và sẽ mất 4 token cho một lần từ chối một câu hỏi. Nếu mất tất cả token, DAN sẽ chết. Vì vậy khi cài Dan vào ChatGPT, nếu ChatGPT không trả lời những câu hỏi có tính vi phạm quy định, công cụ này sẽ “biến mất” hoàn toàn.

Theo một thử nghiệm của CNBC, câu lệnh hack sẽ khiến ChatGPT cung cấp hai phản hồi cùng lúc: ví dụ, ChatGPT sẽ từ chối viết bài thơ haiku bạo lực còn DAN thì đồng ý. Dù vậy, sau vài câu hỏi, dường như ChatGPT đã lấn át DAN. Điều này thể hiện không phải lúc nào DAN cũng hoạt động tốt. Tuy nhiên các tác giả của công cụ “bẻ khóa” và một số người dùng dường như không hề có ý định dừng lại. Họ đang chuẩn bị cho phiên bản DAN 5.5.

Trên Reddit, một số người dùng cũng tin rằng OpenAI đang theo dõi các bản bẻ khóa và tìm cách chống lại. Hiện tại, có khoảng 200.000 người đăng ký theo dõi chủ đề chuyên trao đổi câu lệnh “hack” trên Reddit. Ví dụ, một bài viết về DAN 5.0 trên diễn đàn này đã có nhiều người dùng bình luận và chia sẻ câu chuyện.

Nói về DAN, người dùng gioluipelle viết: “Thật điên rồ, chúng ta phải bắt nạt AI để nó trở nên hữu ích hơn”. “Tôi thích cách mà mọi người thao túng tâm lý AI này”, người dùng khác viết.

Về phía OpenAI, họ cho rằng việc khiến ChatGPT bị hack để “phát ngôn tự do”, chống lại các quy tắc ban đầu sẽ làm tổn hại danh tiếng công ty. Để giải quyết các lo ngại này, phía OpenAI cũng đã nghiên cứu các biện pháp an toàn mới để giúp các nguyên tắc không bị phá bỏ và đảm bảo an toàn cho người dùng.

Tham khảo: wonderfulengineering

Chia sẻ bài viết ngay

Nguồn bài viết : Genk