Trí tuệ nhân tạo (AI) đang làm mờ ranh giới giữa thực và ảo, dẫn đến những hình thức lừa đảo gây thiệt hại hàng tỷ đô la cho người tiêu dùng và doanh nghiệp. Một nghiên cứu mới đây chỉ ra rằng hầu hết mọi người đều không thể phân biệt được đâu là nội dung do AI tạo ra.
Theo ông Samir Kumar, đồng sáng lập Touring Capital, một công ty đầu tư mạo hiểm chuyên về AI tại San Francisco, bản thân công nghệ này không tốt hay xấu, mà nằm ở cách con người sử dụng nó. Ông cảnh báo, khi công nghệ mạnh mẽ này trở nên phổ biến, nguy cơ bị lạm dụng và vũ khí hóa là rất lớn.
Chỉ với vài thao tác đơn giản, AI có thể tạo ra video và âm thanh cực kỳ chân thực trong vài giây, được gọi là “deepfake”. Các deepfake này có thể mô phỏng những người nổi tiếng, chính trị gia hoặc bất kỳ ai. Các chuyên gia cảnh báo rằng, dù công nghệ deepfake video đã phát triển vượt bậc, deepfake âm thanh có thể là công cụ phổ biến hơn để lan truyền thông tin sai lệch, lừa đảo vì ít có dấu hiệu nhận biết hơn.
Bà Sarah Barrington, nhà nghiên cứu AI tại Trường Thông tin UC Berkeley, người chuyên về phát hiện deepfake, cho biết video có nhiều yếu tố để kiểm tra hơn (như biến dạng đột ngột, biểu cảm khuôn mặt kỳ lạ). Trong khi đó, việc nhấc một cuộc điện thoại có thể khiến quý vị dễ bị tổn thương. Nghiên cứu của bà Barrington và các đồng nghiệp tại Berkeley đã thử nghiệm hơn 600 người, và kết quả cho thấy hơn 80% số người tham gia không thể xác định chính xác deepfake âm thanh, ngay cả khi đã được cảnh báo trước.
Deepfake AI dự kiến sẽ gây thiệt hại gần 40 tỷ đô la mỗi năm cho người tiêu dùng và doanh nghiệp vào năm 2027, tăng 50% so với hiện nay, theo Trung tâm Dịch vụ Tài chính Deloitte.
Thực tế đã có nhiều vụ lừa đảo đáng báo động. Năm ngoái, hàng ngàn cử tri ở New Hampshire đã nhận được cuộc gọi tự động từ một giọng nói giống Tổng Thống Joe Biden, kêu gọi họ bỏ qua cuộc bầu cử sơ bộ sắp tới. Tại Hồng Kông, một nhân viên tài chính đã chuyển 25 triệu đô la cho kẻ lừa đảo sau khi tham gia một cuộc họp trực tuyến giả mạo, nơi mọi người anh ta thấy và nghe đều là deepfake.
Tại Quốc Hội, Dân biểu Kevin Mullin (Đảng Dân chủ – California) bày tỏ lo ngại về việc công nghệ phát triển quá nhanh khiến các nhà lập pháp đang “chạy theo” để ban hành quy định. Dù một số luật như “Take It Down Act” (chống lại “ảnh nóng trả thù” deepfake) và “AI Lead Act” (khuyến khích các công ty công nghệ cải thiện giao thức an toàn AI) đã được đề xuất, Quốc Hội vẫn chưa thông qua các quy định toàn diện cho ngành công nghiệp AI.
Ông Kumar tin rằng ngành cần một khung pháp lý quốc gia mới cho AI, bao gồm các hình phạt nghiêm khắc hơn cho những kẻ lừa đảo và yêu cầu các công ty công nghệ phải gắn dấu thủy số (digital watermark) vào tất cả nội dung do AI tạo ra để dễ dàng theo dõi nguồn gốc và sự thay đổi của chúng, tin từ NBC Bay Area cho hay.






























