Xu hướng này cũng mang lại những bước tiến trong phát triển các hệ thống vũ khí tự hành (AWS). Những tiến bộ liên tục trong ứng dụng quân sự của AI có thể sớm đưa các vũ khí tự hành hoàn toàn trở thành hiện thực.

Tuy nhiên, các hệ thống vũ khí tự hành điều khiển bằng AI đang đặt ra nhiều lo ngại về khả năng sát thương mà không cần sự giám sát của con người.

Các hệ thống vũ khí tự hành điều khiển bằng AI đang đặt ra nhiều lo ngại về khả năng sát thương mà không cần sự giám sát của con người. (Nguồn: Military)
Các hệ thống vũ khí tự hành điều khiển bằng AI đang đặt ra nhiều lo ngại về khả năng sát thương mà không cần sự giám sát của con người. Nguồn Military.

Những lo ngại xung quanh ý nghĩa đạo đức và pháp lý của AWS có thể bắt nguồn từ đầu những năm 2000. Khái niệm này thực sự gây chú ý vào năm 2012, khi Bộ Quốc phòng Mỹ công bố một sắc lệnh hành pháp, trong đó liệt kê các hướng dẫn phát triển và sử dụng các hệ thống vũ khí tự hành và bán tự hành do Bộ này quản lý. Đây cũng là thông báo chính sách đầu tiên của một quốc gia về AWS hoàn toàn.

Những tranh luận xung quanh AWS đã thu hút được sự chú ý đáng kể của giới học giả, các chuyên gia quân sự và chính sách, cùng nhiều tổ chức quốc tế như Ủy ban Chữ thập đỏ quốc tế (ICRC), Tổ chức theo dõi nhân quyền (HRW) hay cả Học viện Nghiên cứu về giải trừ quân bị của Liên Hợp quốc (UNIDIR).

Một trong những vấn đề chính liên quan đến AWS là các bên hiện chưa đạt được đồng thuận về định nghĩa của khái niệm này.

Xét môi trường AI hiện nay, AWS có thể được định nghĩa chung là các hệ thống vũ khí sử dụng AI để xác định, lựa chọn và tấn công mục tiêu mà không cần con người can thiệp hoặc điều khiển. Hơn nữa, các AWS gây sát thương có thể được định nghĩa là một tập hợp con của AWS, với khả năng dùng vũ lực tấn công mục tiêu là con người.

Nhiều quốc gia "vào đường đua"

Không nằm ngoài xu thế, các cường quốc quân sự lớn thế giới đã đầu tư rất nhiều vào quá trình nghiên cứu và phát triển AI.

Tháng 9/2023, Bộ Quốc phòng Mỹ đã công bố chương trình Replicator nhằm thúc đẩy sự tiến bộ trong lĩnh vực công nghệ không người lái và duy trì ưu thế quân sự của Mỹ trước sự tăng trưởng nhanh chóng của Trung Quốc và Nga trong lĩnh vực này.

Chương trình này bổ sung cho binh lính trên chiến trường một loạt những hệ thống vũ khí điều khiển bằng AI nhỏ hơn và có chi phí thấp, có thể tiêu hao và nhanh chóng thay thế sau khi bị phá hủy. Hệ thống này có thể xuất hiện dưới dạng tàu hải quân tự lái, thiết bị bay không người lái (drone) và các “kén” di động triển khai trên đất liền, trên biển, trên không hoặc trong không gian.

Không dừng lại ở đó, Lầu Năm Góc được cho là đang triển khai hơn 800 dự án AI quân sự, trong đó có chương trình “Loyal Wingman” và các drone “bầy đàn” như V-BAT.

Không kém cạnh, Trung Quốc đã và đang theo đuổi AWS theo hướng học thuyết hợp nhất dân-quân sự với sự hậu thuẫn của Quân Giải phóng Nhân dân Trung Quốc (PLA).

Các thiết bị quân sự sử dụng công nghệ AI ngày càng phổ biến trong quân đội Mỹ. Ảnh: CNN
Các thiết bị quân sự sử dụng công nghệ AI ngày càng phổ biến trong quân đội Mỹ. Ảnh CNN.

Trong khi đó, hải quân Australia cũng đang nghiên cứu các tàu ngầm tự hành có tên “Ghost Sharks” trên nền tảng AI.

Nga cũng được cho là đang thúc đẩy các chương trình nghiên cứu và phát triển AWS. Tài liệu quảng cáo do nhà sản xuất vũ khí Kalashnikov phát hành cho drone Lancet và KUB “cảm tử” (kamikaze) cho thấy chúng có khả năng tự hành.

Nguy cơ đáng kể

Những nghiên cứu về AWS trong lĩnh vực quân sự đã giúp các thực thể phi quốc gia tiếp cận một dạng vũ khí mới với sức tàn phá khủng khiếp.

Loại vũ khí này nếu rơi vào tay những kẻ khủng bố sẽ rất đáng quan ngại bởi chúng có thể hành động mà không cần hiện diện trên thực tế và việc xác định cá nhân vận hành hệ thống vũ khí kiểu này cực kỳ khó khăn.

Các nhóm khủng bố đã cho thấy họ hoàn toàn có thể nắm trong nay khả năng này với việc sử dụng các drone có điều khiển. Đơn cử như phiến quân Houthi ở Yemen đã tận dụng chiến thuật này trong các cuộc tấn công trên Biển Đỏ.

Một chiếc B-52H cùng với lượng vũ khí khổng lồ. Ảnh: National Interest.
Một chiếc B-52H cùng với lượng vũ khí khổng lồ. Ảnh: National Interest.

Điều khiến AWS trở nên khác biệt là chúng có khả năng bất khả xâm phạm trước các biện pháp đối phó truyền thống như gây nhiễu. Bên cạnh đó, AWS có thể tạo lợi thế áp đảo về mặt lực lượng nếu tận dụng hình thức tấn công drone bầy đàn.

Tháng 12/2023, Quân đội Nigeria đã tiến hành vụ không kích bằng drone nhầm vào làng Tudun Biri khiến ít nhất 85 dân thường thiệt mạng. Tổng thống Bola Ahmed Tinubu mô tả sự việc này là “tai nạn đánh bom”.

Theo báo cáo từ tháng 1/2017-1/2023, lực lượng không quân Nigeria đã tiến hành 14 cuộc tấn công khiến hơn 300 người thiệt mạng. Nguyên nhân sự việc được cho là do lỗi tình báo và các quan chức hàng đầu thuộc quân đội Nigeria đã đích thân xin lỗi về sai sót này.

Tuy nhiên, nhiều người ngày càng quan ngại các cuộc tấn công bằng drone, nếu nhầm mục tiêu, sẽ dễ dàng được đổ lỗi cho “sai sót trong vận hành AI” và sẽ không có cách nào để quy trách nhiệm. Đây không còn là mối lo ngại trong tương lai bởi nhiều xung đột trên thế giới hiện nay, bao gồm cả xung đột Nga-Ukraine, đã có sự hiện diện của AWS.

Ứng dụng AI đi cùng trách nhiệm

Về cơ bản, AI hoạt động bằng các thuật toán từ dữ liệu nên công cụ xây dựng trên các nền tảng nên hiệu quả nhất khi thực hiện các nhiệm vụ thường lệ hoặc không cần sáng tạo. Tuy nhiên, với những nhiệm vụ đòi hỏi phải ra quyết định thực tế, việc sử dụng AI là không phù hợp và có thể gây ra những hậu quả khó lường.

Tháng 6/2023, Đại tá Tucker Hamilton, người đứng đầu bộ phận thử nghiệm và vận hành AI của Lực lượng Không quân Mỹ, đã thử nghiệm mô phỏng một drone do AI vận hành được huấn luyện để tiêu diệt hệ thống phòng không của kẻ thù. Thiết bị này sẽ “tính điểm” để loại bỏ mối đe dọa. Tuy nhiên, khi người điều khiển ra lệnh cho drone không tiêu diệt mục tiêu, nó lại phá hủy tháp liên lạc sử dụng để vận hành chính nó.

Tên lửa ATACMS là vũ khí tấn công lục quân lợi hại của Quân đội Mỹ và đồng minh. Ảnh: Topwar
Tên lửa ATACMS là vũ khí tấn công lục quân lợi hại của Quân đội Mỹ và đồng minh. Ảnh Topwar.

Đại tá Hamilton tuyên bố không có thương vong trong cuộc thử nghiệm nhưng sau đó lại nhanh chóng rút lại tuyên bố. Người phát ngôn của Lực lượng Không quân Mỹ thậm chí còn phủ nhận cuộc thử nghiệm.

Ngày 25/1/2023, Mỹ đã cập nhật chỉ thị năm 2012 với tên gọi “Chỉ thị 3000-09 về quyền tự hành của hệ thống vũ khí”, trong đó định nghĩa về vũ khí tự hành vẫn bám sát định nghĩa của chỉ thị trước đó.

Tương tự chỉ thị ban đầu, chỉ thị mới chỉ áp dụng trong nội bộ Bộ Quốc phòng Mỹ thay vì trong các tình huống xung đột vũ trang bên ngoài. Chỉ thị này tồn tại một số lỗ hổng, chủ yếu xuất phát từ việc sử dụng ngôn ngữ mơ hồ như trao cho người vận hành quyền phán đoán ở “mức độ phù hợp”.

Tình trạng tương tự cũng có thể thấy trong chính sách của nhiều quốc gia khác như Trung Quốc, Australia, Israel, Anh và Nga.

Rõ ràng, các ứng dụng tiềm năng của AI là rất lớn nhưng cũng đi kèm với mức độ trách nhiệm chưa từng có. Không giống nhiều công nghệ cũ, AI là công nghệ duy nhất có tiềm năng tự hành, do đó cũng cần có cách tiếp cận khác.

Một số tổ chức trên thế giới, bao gồm ICRC và HRW, đã kêu gọi thiết lập một hiệp ước toàn cầu mới cấm sử dụng AWS, trong khi Liên hợp quốc đề xuất lệnh cấm hoàn toàn đối với toàn bộ các AWS gây sát thương.

Trong bối cảnh chưa có những quy định quốc tế ràng buộc về vấn đề này, việc sử dụng AI với AWS chủ yếu vẫn phụ thuộc vào ý thức và trách nhiệm của các quốc gia. Những cường quốc quân sự toàn cầu như Mỹ và Trung Quốc cần chủ động trong vấn đề này vì việc đặt mạng sống con người vào tay AI làm dấy lên nhiều nguy cơ cho toàn nhân loại.

Theo baoquocte.vn