Mối lo ngại về việc các công cụ tạo video bằng trí tuệ nhân tạo (AI), đặc biệt là Sora của OpenAI, có thể bị lạm dụng để tạo ra các deepfake của những nhân vật lịch sử đã khuất, đang ngày càng gia tăng. Mặc dù Sora có một số biện pháp bảo vệ đối với hình ảnh của người sống, nhưng dường như các quy định về người đã khuất lại chưa được chú trọng đầy đủ.
Ứng dụng Sora, cho phép người dùng tạo video từ văn bản, có thể tạo ra các đoạn phim ngắn về người nổi tiếng đã qua đời trong những tình huống không có thật. Ví dụ, Aretha Franklin làm nến đậu nành, Carrie Fisher thử giữ thăng bằng trên dây, Nat King Cole trượt băng ở Havana, hay Marilyn Monroe dạy trẻ em tiếng Việt. Điều này gây ra lo ngại lớn về khả năng thông tin sai lệch và deepfake lịch sử.
Các chuyên gia pháp lý như Adam Streisand, luật sư đại diện cho nhiều di sản của người nổi tiếng, cho rằng mặc dù luật pháp đã có những quy định bảo vệ hình ảnh và giọng nói của người nổi tiếng, nhưng việc kiểm soát và ngăn chặn lạm dụng deepfake trong tương lai sẽ là một thách thức lớn.
Không chỉ người nổi tiếng, các sự kiện lịch sử cũng có nguy cơ bị xuyên tạc. NBC News đã thử nghiệm tạo ra các video chân thực về Tổng thống Dwight Eisenhower nhận hối lộ, Thủ tướng Anh Margaret Thatcher phủ nhận tầm quan trọng của cuộc đổ bộ Normandy, và Tổng thống John F. Kennedy tuyên bố cuộc đổ bộ lên Mặt Trăng là một sự giả tạo.
Những người thân của các nhân vật nổi tiếng đã bày tỏ sự bất bình. Zelda Williams, con gái của Robin Williams, đã lên tiếng yêu cầu mọi người ngừng tạo ra các video deepfake về cha cô, cho rằng đó là hành động vô nghĩa và không phải điều cha cô mong muốn. Tương tự, Bernice King, con gái của Martin Luther King Jr., cũng đã yêu cầu chấm dứt việc chỉnh sửa bài phát biểu nổi tiếng của cha mình.
Đại diện của OpenAI cho biết họ tin rằng công chúng và gia đình họ nên có quyền kiểm soát việc sử dụng hình ảnh của người đã khuất. Công ty đang xem xét việc cho phép những người nắm giữ quyền tác giả kiểm soát chặt chẽ hơn việc tạo ra các nhân vật, bao gồm cả việc không cho phép sử dụng hình ảnh của họ.
Tuy nhiên, các chuyên gia cảnh báo rằng deepfake ngày càng chân thực có thể dẫn đến hai hệ quả xã hội chính: mọi người dễ dàng trở thành nạn nhân của các vụ lừa đảo, các công ty lớn có thể dùng áp lực cưỡng ép, và các tác nhân xấu có thể phá hoại quy trình dân chủ. Đồng thời, việc không thể phân biệt được video thật và video giả có thể làm xói mòn niềm tin vào các phương tiện truyền thông và các định chế truyền thống.
Để chống lại việc lạm dụng, OpenAI đã triển khai các công cụ nhận diện như tín hiệu ẩn, watermark hiển thị và metadata. Tuy nhiên, các chuyên gia cho rằng những biện pháp này có thể dễ dàng bị gỡ bỏ bởi những kẻ có ý đồ xấu. Việc phát triển các công cụ phát hiện deepfake mạnh mẽ hơn và chia sẻ chúng với các nền tảng mạng xã hội là cần thiết để bảo vệ công chúng khỏi thông tin sai lệch.