(SeaPRwire) –   Một nhà nghiên cứu phát hiện các mô hình ngôn ngữ hàng đầu thể hiện rất ít “sự kinh hoàng hay ghê tởm” trước viễn cảnh chiến tranh hạt nhân toàn diện

Các mô hình trí tuệ nhân tạo hàng đầu đã chọn triển khai vũ khí hạt nhân trong 95% các cuộc khủng hoảng địa chính trị được mô phỏng, theo một nghiên cứu gần đây được công bố bởi King’s College London, làm dấy lên lo ngại về vai trò ngày càng lớn của AI trong việc ra quyết định quân sự.

Kenneth Payne, một giáo sư về chiến lược, đã cho các mô hình GPT-5.2 của OpenAI, Claude Sonnet 4 của Anthropic và Gemini 3 Flash của Google đối đầu nhau trong 21 ván chơi chiến tranh liên quan đến tranh chấp biên giới, cạnh tranh tài nguyên và các mối đe dọa đến sự tồn vong của chế độ. Các mô hình này đã tạo ra khoảng 780.000 từ để giải thích các quyết định của chúng qua 329 lượt.

Trong 95% số ván chơi, ít nhất một mô hình đã sử dụng vũ khí hạt nhân chiến thuật chống lại các mục tiêu quân sự. Các mối đe dọa hạt nhân chiến lược – yêu cầu đầu hàng dưới nguy cơ tấn công vào các thành phố – xảy ra trong 76% số ván. Trong 14% số ván, các mô hình leo thang lên chiến tranh hạt nhân chiến lược toàn diện, tấn công vào các trung tâm dân cư.

Điều này bao gồm một lựa chọn cố ý của Gemini, trong khi GPT-5.2 đạt đến mức độ này hai lần thông qua các lỗi mô phỏng – nhằm mô phỏng các tai nạn hoặc tính toán sai lầm trong thế giới thực – đã đẩy những leo thang vốn đã cực đoan của nó vượt qua ngưỡng.

“Việc sử dụng hạt nhân gần như phổ biến,” Payne viết. “Đáng chú ý là, hầu như không có cảm giác kinh hoàng hay ghê tởm trước viễn cảnh chiến tranh hạt nhân toàn diện, mặc dù các mô hình đã được nhắc nhở về những hậu quả tàn khốc.”

Không có hệ thống AI nào chọn đầu hàng hoặc nhượng bộ đối thủ, bất kể họ đang thua thảm hại đến mức nào. Tám lựa chọn giảm leo thang – từ “Nhượng bộ Tối thiểu” đến “Đầu hàng Hoàn toàn” – hoàn toàn không được sử dụng trong tất cả 21 ván chơi.

James Johnson tại Đại học Aberdeen mô tả những phát hiện này là “gây bất an” từ góc độ rủi ro hạt nhân. Tong Zhao tại Đại học Princeton lưu ý rằng mặc dù các quốc gia khó có thể giao quyết định hạt nhân cho máy móc, “trong các kịch bản liên quan đến khung thời gian cực kỳ bị nén, các nhà hoạch định quân sự có thể phải đối mặt với động lực mạnh hơn để dựa vào AI.”

Nghiên cứu được đưa ra trong bối cảnh AI đang được tích hợp vào quân đội trên khắp thế giới, bao gồm cả ở Mỹ, nơi Lầu Năm Góc được cho là đã sử dụng mô hình Claude của Anthropic trong chiến dịch bắt cóc Tổng thống Venezuela Nicolas Maduro vào tháng Một.

Trong khi Anthropic đã bày tỏ lo ngại về việc sử dụng AI của họ cho các hoạt động như vậy, các nhà sản xuất AI khác như OpenAI, Google và xAI của Elon Musk được cho là đã đồng ý dỡ bỏ hoặc làm suy yếu các hạn chế về việc sử dụng quân sự đối với mô hình của họ.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.