JERUSALEM – Trong hai tuần qua, kể từ khi nhóm khủng bố Palestine Hamas tiến hành vụ tấn công chết người ở miền nam Israel làm khoảng 1.400 người thiệt mạng và Israel, có sự lo ngại rằng một mặt trận mới trong cuộc chiến cũ giữa người Israel và Palestine có thể mở ra – trên thế giới kỹ thuật số.

Trong khi hình ảnh giả mạo và tin tức giả đã lâu là một phần của kho tàng chiến tranh thời báo chí ở Trung Đông, với sự xuất hiện chưa đầy một năm trước của công cụ tạo trí tuệ nhân tạo (AI) dễ sử dụng, có vẻ như hình ảnh sâu (deepfake) sẽ sớm xuất hiện trên mặt trận chiến tranh.

“Hamas và các phái đoàn Palestine khác trước đây đã đưa ra hình ảnh kinh hoàng từ các cuộc xung đột khác như là nạn nhân Palestine bị tấn công của Israel, vì vậy điều này không phải là điều duy nhất xảy ra ở chiến trường này,” David May, quản lý nghiên cứu tại Quỹ Bảo vệ Nền Dân chủ, cho biết Digital.

Ông mô tả cách Hamas trước đây đã biết làm cho các phóng viên không báo cáo về việc sử dụng con người làm lá chắn ở dải Gaza, cũng như dàn dựng hình ảnh trẻ em và gấu bông chôn vùi trong đống đổ nát.

“Hamas kiểm soát các thông tin tuyên truyền ở Dải Gaza”, May nói, người theo dõi hoạt động của Hamas một cách gần gũi, thêm rằng “hình ảnh AI sẽ làm phức tạp thêm xung đột Israel-Palestine đã đầy rẫy thông tin sai lệch.”

Đã có một số báo cáo về hình ảnh tái đăng tải từ các cuộc xung đột khác, và tuần trước, một bức ảnh đau lòng về một đứa trẻ khóc leo qua đống đổ nát ở Gaza đã được tiết lộ là sản phẩm AI.

“Tôi gọi đó là tin tức giả nâng cấp,” Tiến sĩ Tal Pavel, người sáng lập và giám đốc Viện nghiên cứu chính sách mạng CyBureau có trụ sở tại Israel, cho biết Digital. “Chúng ta đã biết thuật ngữ tin tức giả, trong hầu hết trường hợp là nội dung hình ảnh hoặc văn bản bị thao túng hoặc đặt trong bối cảnh sai lệch. AI hoặc deepfake là khi chúng ta lấy những hình ảnh đó và làm cho chúng trở nên sống động trong các đoạn video.”

Pavel gọi sự xuất hiện của hình ảnh sâu AI là “một trong những mối đe dọa lớn nhất đối với nền dân chủ.”

“Điều này không chỉ xảy ra trong thời chiến tranh mà còn trong các thời điểm khác bởi vì ngày càng khó khăn hơn để chứng minh điều gì là thật hoặc không,” ông nói.

Trong cuộc sống hàng ngày, Pavel lưu ý, các trường hợp thông tin sai lệch sâu đã xuất hiện. Ông dẫn ra việc sử dụng của băng đảng tội phạm thực hiện gian lận với công nghệ thay đổi giọng nói hoặc trong các chiến dịch bầu cử khi video và giọng nói được thao túng để thay đổi nhận thức công chúng.

Trong chiến tranh, ông bổ sung, nó có thể nguy hiểm hơn nữa.

“Đó là một vùng đất mới và chúng ta mới chỉ ở giai đoạn đầu tiên của việc triển khai,” Pavel nói. “Bất cứ ai, với nguồn lực thấp, đều có thể sử dụng AI để tạo ra một số hình ảnh và hình ảnh đáng kinh ngạc.”

Kỹ thuật này đã được sử dụng trong cuộc chiến tiếp diễn của Nga ở Ukraine, Ivana Stradner, một nhà nghiên cứu khác tại Quỹ Bảo vệ Nền Dân chủ chuyên về lĩnh vực Ukraine-Nga, cho biết.

Vào tháng 3 năm ngoái, một video giả mạo và được chỉnh sửa mạnh mẽ cho thấy Tổng thống Volodymyr Zelenskyy dường như kêu gọi binh sĩ đầu hàng Nga đã được đăng trên mạng xã hội và chia sẻ bởi các tin tức Ukraine. Khi phát hiện ra là giả, video nhanh chóng bị gỡ bỏ.

“Video sâu có thể rất giống thật và nếu chúng được thực hiện tốt, thì chúng rất khó phát hiện,” Stradner nói, thêm rằng các ứng dụng sao chép giọng nói dễ sử dụng và hình ảnh thật dễ bị đánh cắp, thay đổi và sử dụng lại.

Bên trong Dải Gaza, khu vực càng khó khăn hơn để điều hướng. Với gần như không có phóng viên đáng tin cậy được biết đến hiện đang ở trong Dải, Hamas đã phá hủy con đường giao thông chính vào khu vực Palestine trong cuộc tấn công ngày 7 tháng 10 và báo chí nước ngoài không thể vào, việc phân biệt điều gì là sự thật và giả mạo đã là một thách thức, với các nền tảng AI dễ sử dụng có thể trở nên khó khăn hơn nhiều.

Tuy nhiên, Tiến sĩ Yedid Hoshen, người đã nghiên cứu về deepfake và các phương pháp phát hiện tại Đại học Hebrew ở Jerusalem, nói rằng các kỹ thuật như vậy không hoàn toàn chắc chắn.

“Việc tạo ra hình ảnh nói chung không khó, có nhiều kỹ thuật có sẵn và bất kỳ ai có kỹ năng hợp lý đều có thể tạo ra hình ảnh hoặc video, nhưng khi chúng ta nói về deepfake, chúng ta đang nói về việc đổi mặt hoặc ghép khuôn mặt. Những loại hình ảnh giả này khó tạo ra hơn và đối với một cuộc xung đột như vậy, chúng sẽ phải được thực hiện bằng tiếng Hebrew hoặc tiếng Ả Rập khi hầu hết công nghệ vẫn chỉ bằng tiếng Anh.”

Ngoài ra, Hoshen nói, vẫn còn dấu hiệu đặc trưng phân biệt hình ảnh AI với thật.

“Việc làm cho hình ảnh và âm thanh đồng bộ vẫn còn rất khó, điều này có thể không phát hiện được bằng mắt thường nhưng có thể phát hiện bằng các kỹ thuật tự động,” ông nói, thêm rằng “chi tiết nhỏ như tay, ngón tay hoặc tóc không luôn luôn trông thật.”

“Nếu hình ảnh trông kỳ lạ thì có thể là giả,” Hoshen nói. “AI vẫn còn nhiều điều sai lầm.”