Vũ khí AI từ cuộc chiến ở Ukraine, đã tự hành chưa từng có trên drone

Binh sĩ Ukraine chuẩn bị một drone mang theo lựu đạn cho một đợt tấn công hồi tháng 3-2023 – Ảnh: AFP

Với khả năng “nhìn” và “hiểu”, vũ khí AI (trí tuệ nhân tạo) hiện nay có thể phân tích, xác định, lựa chọn mục tiêu, tiến hành đợt tấn công mà không cần đến sự điều khiển của con người và kết nối tín hiệu vệ tinh.

Vũ khí AI thông minh đến mức nào?

Vụ máy bay không người lái (drone) cảm tử của Ukraine đâm vào Nhà máy lọc dầu Niznekamsk ở Nga hôm 2-4 cho thấy khả năng tự hành và độ “thông minh” của vũ khí AI.

Đài CNN dẫn lời một nguồn tin ở Ukraine tiết lộ nhờ vào AI, drone có thể tấn công chính xác mục tiêu nhà máy lọc dầu lớn thứ 3 của Nga ở vùng Tatarstan, cách biên giới hơn 1.100km.

Thuật toán AI điều khiển những bộ cảm biến, giúp drone “nhìn thấy” mục tiêu tấn công, mà không cần đến con người. 

“Đây gọi là thị giác máy (machine vision) – một dạng AI trang bị khả năng ‘nhìn’ và ‘hiểu’ hình ảnh cho máy tính và hệ thống tự động” – ông Noah Sylvia, chuyên gia của tổ chức Royal United Services Institute (Anh), nói với CNN.

Để sở hữu “thị giác máy”, AI được huấn luyện xác định vị trí địa lý và mục tiêu tấn công trên mô hình máy học. Khi được triển khai, vũ khí AI có thể tự xác định vị trí mà không cần kết nối tín hiệu với vệ tinh và hoàn toàn tự hành, nên có thể vượt qua các thiết bị gây nhiễu của đối phương, theo ông Sylvia.

Ông Chris Lincoln-Jones – cựu sĩ quan quân đội Anh, chuyên gia về drone và AI – nhận định “mức độ thông minh” kể trên vẫn còn rất thấp. “Tuy nhiên, khả năng tự hành như thế này là chưa từng có ở drone” – ông Lincoln-Jones lưu ý.

“Lạnh lùng” lên danh sách giết chóc

Đàn drone quân sự của Hàn Quốc - Ảnh: AFP

Đàn drone quân sự của Hàn Quốc – Ảnh: AFP

Hiện Mỹ và một số quốc gia khác như Trung Quốc… đang phát triển công nghệ drone swarm (bầy đàn drone). Về cơ bản, bầy đàn drone có thể được triển khai để phối hợp với máy bay có người lái, thực hiện nhiệm vụ bảo vệ, trinh sát, thu thập thông tin tình báo… dưới sự chỉ thị của con người.

Trong bài viết trên trang InkStick, chuyên gia quân sự Mỹ Michael Klare cảnh báo quân đội Mỹ, Trung Quốc, Nga và một số cường quốc khác “sớm muộn gì” cũng có thể triển khai bầy đàn drone AI tự liên lạc với nhau và cùng lựa chọn chiến thuật tác chiến.

Mỗi drone trong bầy đàn sẽ được giao một mục tiêu hay nhiệm vụ (chẳng hạn tìm kiếm và tiêu diệt tất cả radar và khẩu đội tên lửa phòng không của đối phương) nhưng không cần con người hướng dẫn cách thực hiện.

Việc dựa dẫm hay giao phó cho AI tự quyết định là vấn đề khiến các chuyên gia lo ngại. Tạp chí +972 Magazine and Local Call (trụ sở ở Israel) ngày 3-4 dẫn lời các nguồn tin tình báo cho rằng lực lượng quân sự Israel đã sử dụng hệ thống AI mang tên Lavender để giúp chọn mục tiêu ném bom ở Gaza.

Trong “danh sách giết chóc”, hệ thống này “lạnh lùng” liệt kê 37.000 người đàn ông Palestine bị AI xác định có liên quan đến lực lượng Hamas, theo +972 Magazine and Local Call. Lực lượng quân sự Israel được cho là chỉ dựa vào danh sách này để tiến hành những đợt ném bom mà không cần phải thẩm định đúng sai.

Một nguồn tin tình báo Israel cho rằng Lavender có độ chính xác lên đến 90%. Như vậy độ sai sót 10%, đồng nghĩa hàng ngàn thường dân thiệt mạng vì AI xác định nhầm họ là thành viên lực lượng Hamas. 

Chính phủ Mỹ tuyên bố sẽ xem xét thông tin này bất kể Israel đã lên tiếng bác bỏ, theo Hãng tin Reuters.

“Rốt cuộc ai sẽ chịu trách nhiệm nếu vũ khí AI mắc sai lầm? Người chỉ huy? Người vận hành vũ khí AI? Nhà phát triển AI?” – bà Mirjana Spoljaric Egger, chủ tịch Ủy ban Chữ thập đỏ quốc tế, đặt vấn đề ở hội nghị về vũ khí tự động hồi cuối tháng 4 tại thủ đô Vienna (Áo).

Hội nghị Vienna (ngày 29 và 30-4) do Áo chủ trì đã thu hút 1.000 người tham dự (gồm các lãnh đạo, ngoại trưởng, chuyên gia từ 140 quốc gia).

Trong hội nghị, các chuyên gia và nhà ngoại giao cảnh báo dù hầu hết vũ khí AI vẫn còn là ý tưởng hoặc đang trong giai đoạn thử nghiệm, nhưng đã được sử dụng trên chiến trường như kể trên, theo Hãng tin AFP.

Vì thế, Ngoại trưởng Áo Alexander Schallenberg kêu gọi thế giới sớm thống nhất các quy tắc quốc tế nhằm đảm bảo con người phải kiểm soát vũ khí AI để tránh “thảm họa cho nhân loại”.

Thử nghiệm thành công F-16 do AI điều khiển

Truyền thông Mỹ ngày 4-5 đưa tin một chiến đấu cơ F-16 do AI điều khiển vừa thực hiện thành công chuyến bay thử nghiệm trong tuần này.

Quá trình bay thử được tiến hành trên căn cứ không quân Edwards, với chính Bộ trưởng Không quân Frank Kendall ngồi trong buồng lái.

Động thái này diễn ra trong bối cảnh quân đội Mỹ đặt mục tiêu đến năm 2028 sẽ có 1.000 máy bay quân sự không người lái.

Vũ khí AI có phân biệt được dân thường với chiến binh?Vũ khí AI có phân biệt được dân thường với chiến binh?

Liệu vũ khí AI có thể giảm thiểu thiệt hại cho dân thường? Liệu nó có biết rút lui nếu con người không can thiệp? Vũ khí AI chính là cho phép máy móc đưa ra quyết định giết người, bằng cách thu nhỏ con người thành dữ liệu?

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *