Hãng Anthropic vừa công bố phiên bản sửa đổi của ‘Hiến Pháp’ cho chatbot Claude, một tài liệu phác thảo ‘bức tranh toàn cảnh’ về cách Claude vận hành và những phẩm chất mà Anthropic mong muốn ở chatbot này. Bản sửa đổi được đưa ra trong bối cảnh Giám đốc điều hành Anthropic, Dario Amodei, tham dự Diễn đàn Kinh tế Thế giới ở Davos.
Trong nhiều năm qua, Anthropic luôn nỗ lực tạo sự khác biệt so với các đối thủ bằng cách sử dụng ‘Trí tuệ Nhân tạo theo Hiến pháp’, một hệ thống huấn luyện chatbot Claude dựa trên các nguyên tắc đạo đức cụ thể thay vì chỉ dựa vào phản hồi từ con người. Nguyên tắc này, được công bố lần đầu vào năm 2023, giờ đây được làm rõ hơn, tập trung vào các vấn đề đạo đức và an toàn cho người dùng.
Theo tài liệu mới, Claude được thiết kế để tránh các vấn đề thường gặp ở các chatbot khác, chẳng hạn như cung cấp thông tin không an toàn, hoặc hướng người dùng đến các dịch vụ phù hợp nếu có dấu hiệu về vấn đề sức khỏe tâm thần. Một trong những mục tiêu quan trọng của Claude là giúp người dùng giải quyết các tình huống đạo đức trong thế giới thực một cách khéo léo.
Anthropic muốn nhấn mạnh vị thế là một công ty AI đạo đức, có trách nhiệm. Bản sửa đổi ‘Hiến Pháp’ lần này là một phần trong nỗ lực của công ty nhằm thể hiện mình là một doanh nghiệp toàn diện, cẩn trọng và dân chủ hơn. Tài liệu 80 trang này bao gồm bốn giá trị cốt lõi của chatbot, bao gồm ‘An toàn’, ‘Đạo đức’, ‘Tuân thủ’ và ‘Hữu ích’.
Đáng chú ý, Anthropic cũng đề cập đến vấn đề gây nhiều tranh cãi về ý thức của chatbot. Tài liệu kết luận rằng ‘địa vị đạo đức của các mô hình AI là một câu hỏi nghiêm túc đáng để xem xét’.
Theo TechCrunch.





























