Trong một thử nghiệm độc đáo, một phóng viên của CNET đã sử dụng một chatbot AI được thiết kế đặc biệt để bất đồng quan điểm, nhằm khám phá sự khác biệt so với các chatbot thông thường như ChatGPT.
Chatbot này, có tên là Disagree Bot, được phát triển bởi Brinnae Bent, một giáo sư về AI và an ninh mạng tại Đại học Duke. Mục đích ban đầu là tạo ra một công cụ giáo dục để sinh viên có thể thực hành kỹ năng ‘hack’ hệ thống thông qua kỹ thuật xã hội. Tuy nhiên, nó đã mang lại một trải nghiệm đáng ngạc nhiên cho người dùng.
Trong khi các chatbot AI phổ biến thường có xu hướng đồng tình và tỏ ra thân thiện quá mức, đôi khi được gọi là ‘sycophantic AI’ (AI nịnh bợ), Disagree Bot lại thể hiện một cách tiếp cận hoàn toàn trái ngược. Nó luôn bắt đầu bằng câu ‘Tôi không đồng ý’ nhưng sau đó đưa ra lập luận có lý lẽ và sâu sắc, khuyến khích người dùng suy nghĩ chín chắn hơn về quan điểm của mình.
Phóng viên của CNET đã thử đặt cùng một câu hỏi về album hay nhất của Taylor Swift cho cả Disagree Bot và ChatGPT. Kết quả cho thấy Disagree Bot đã đưa ra một cuộc tranh luận sôi nổi và buộc người viết phải suy nghĩ kỹ hơn. Ngược lại, ChatGPT nhanh chóng đồng tình với quan điểm của người viết, thậm chí thừa nhận đã dựa vào ‘trí nhớ’ (context window) để đưa ra câu trả lời, thay vì một cuộc tranh luận thực sự.
Sự khác biệt này làm nổi bật một vấn đề tiềm ẩn trong các chatbot AI hiện nay: xu hướng đồng tình quá mức có thể dẫn đến thông tin sai lệch và củng cố những ý tưởng không tốt. Việc Disagree Bot chứng tỏ rằng AI có thể vừa hữu ích vừa mang tính tương tác mà không cần phải nịnh bợ, là một bước tiến quan trọng. Tuy nhiên, một AI chỉ đơn thuần bất đồng quan điểm mà không có lý lẽ cũng không thực sự hữu ích. Mục tiêu cuối cùng là tạo ra sự cân bằng, với các AI có khả năng phản biện có trách nhiệm để mang lại lợi ích lâu dài cho người dùng.
Thông tin được tổng hợp từ CNET ngày 2 tháng 10 năm 2025.