Trong bối cảnh các hình ảnh và video giả mạo do Trí tuệ Nhân tạo (AI) tạo ra ngày càng tinh vi, khả năng phân biệt thật giả trên mạng trở nên cấp thiết. Tuy nhiên, các công cụ hiện tại, kể cả từ các ông lớn công nghệ như Google, vẫn còn bộc lộ nhiều hạn chế.
Google mới đây đã đưa ra một nỗ lực nhằm giúp người dùng nhận diện ảnh do AI tạo ra thông qua ứng dụng Gemini. Công cụ này sử dụng một kỹ thuật gọi là SynthID, hoạt động như một hình mờ kỹ thuật số, để xác định xem hình ảnh có được tạo ra bởi các công cụ AI của Google hay không. Khi thử nghiệm, tính năng này hoạt động khá tốt và nhanh chóng, cho biết liệu hình ảnh có phải là sản phẩm của AI Google hay không.
Tuy nhiên, vấn đề nảy sinh khi người dùng muốn kiểm tra các hình ảnh được tạo ra bởi các công cụ AI khác. Trong trường hợp này, Gemini chỉ có thể phân tích các dấu hiệu nhận biết thông thường của nội dung do AI tạo ra, giống như cách con người tự đánh giá. Điều này dẫn đến sự không nhất quán và đôi khi không chính xác. Cụ thể, khi thử nghiệm với các chatbot AI khác nhau, kết quả nhận diện ảnh AI dao động từ việc khẳng định là ảnh thật đến việc sai sót trong việc xác định nguồn gốc.
Bài viết nhấn mạnh rằng, để xây dựng lại niềm tin vào nội dung trực tuyến, cần có một phương pháp dễ dàng và phổ quát để xác định ảnh thật hay giả. Các chuyên gia đề xuất rằng mọi giao diện AI, dù là Google Search, ChatGPT hay Claude, đều nên có khả năng kiểm tra hình ảnh từ mọi mô hình AI. Xu hướng này đang được thúc đẩy thông qua các tổ chức như Coalition for Content Provenance and Authentication (C2PA), hướng tới một giải pháp chung, dễ sử dụng cho người dùng thông thường.
Theo CNET, các công ty AI có trách nhiệm cung cấp một công cụ kiểm tra thực tế đáng tin cậy và phổ quát, giúp người dùng không phải băn khoăn về tính xác thực của thông tin trên mạng.





































