Cảnh Báo: Đừng ‘Nhân Cách Hóa’ AI, Vì Sao?

Bài viết cảnh báo về việc ‘nhân cách hóa’ AI, cho rằng việc này gây hiểu lầm và làm xói mòn sự hiểu biết của công chúng về công nghệ. Tác giả nhấn mạnh AI không có cảm xúc, linh hồn hay đạo đức. Thay vào đó, cần sử dụng ngôn ngữ chính xác hơn…

gettyimages 2170273841

Trong bối cảnh các công ty công nghệ đua nhau trình làng những mô hình AI ấn tượng, họ đang sử dụng ngôn ngữ mang tính ‘sân khấu’ để mô tả trí tuệ nhân tạo. Thay vì chỉ nói về việc AI ‘suy nghĩ’ hay ‘lên kế hoạch’, giờ đây, người ta còn bàn luận về ‘linh hồn’ của AI, cũng như cách nó ‘thú nhận’, ‘muốn’ và ‘tính toán’. Tuy nhiên, theo cây viết Macy Meyer của CNET, đây không chỉ là một chiêu trò marketing vô hại.

Việc gán cho AI những phẩm chất con người, hay ‘nhân cách hóa’ nó, là một hành động gây hiểu lầm, thiếu trách nhiệm và làm xói mòn sự hiểu biết của công chúng về một công nghệ vốn đã thiếu minh bạch. Các nghiên cứu từ các công ty AI lớn thường được trình bày theo cách che giấu nhiều hơn là làm rõ. Ví dụ, OpenAI gần đây đã công bố về việc huấn luyện các mô hình để ‘thú nhận’ lỗi sai. Mặc dù đây là một thử nghiệm hữu ích, việc mô tả nó như một ‘lời thú tội’ lại ngụ ý rằng có một yếu tố tâm lý đằng sau những gì AI tạo ra.

Thực tế, AI không có linh hồn, động cơ, cảm xúc hay đạo đức. Nó không ‘thú nhận’ vì sự trung thực, cũng như một chiếc máy tính không ‘xin lỗi’ khi bạn gõ sai phím. AI chỉ đơn giản là tạo ra các mẫu văn bản dựa trên các mối quan hệ thống kê được học từ những bộ dữ liệu khổng lồ. Bất cứ điều gì có vẻ ‘con người’ chỉ là sự chiếu rọi đời sống nội tâm của chúng ta vào một tấm gương tinh vi.

Khi chúng ta gán ý thức và trí tuệ cảm xúc cho một thực thể không hề có những điều này, chúng ta bắt đầu tin tưởng AI theo những cách mà nó không bao giờ được tạo ra để tin tưởng. Nhiều người đang tìm đến ‘Bác sĩ ChatGPT’ để được tư vấn y tế thay vì các chuyên gia được cấp phép. Một số khác lại hình thành những mối quan hệ giả tạo với chatbot để tìm kiếm sự hướng dẫn, cho rằng bất cứ điều gì AI tạo ra đều ‘đủ tốt’ để đưa ra quyết định.

Để xây dựng niềm tin của công chúng, các công ty AI cần dừng việc đối xử với các mô hình ngôn ngữ như những thực thể thần bí. Thay vào đó, chúng ta nên sử dụng các thuật ngữ chính xác hơn. Theo CNET, thay vì ‘linh hồn’, hãy nói về ‘kiến trúc’ hoặc ‘huấn luyện’ của một mô hình. Thay vì ‘thú nhận’, hãy gọi đó là ‘báo cáo lỗi’ hoặc ‘kiểm tra tính nhất quán nội bộ’. Thay vì nói một mô hình ‘tính toán’, hãy mô tả quá trình tối ưu hóa của nó. Chúng ta nên sử dụng các thuật ngữ như ‘xu hướng’, ‘kết quả’, ‘biểu diễn’, ‘bộ tối ưu hóa’, ‘cập nhật mô hình’ hoặc ‘động lực huấn luyện’.

Theo CNET.


follow nhận tin mới

tin mới


Tin NỔI BẬT


Tin Chính trị


Tin Hoa Kỳ


Tin Di trú