Israel sử dụng AI trong xác định mục tiêu ở Gaza
Theo báo cáo vừa được tạp chí +972 (do các nhà báo Israel và Palestine điều hành) công bố, quân đội Israel đã sử dụng hệ thống trí tuệ nhân tạo mới để xác định hàng chục nghìn mục tiêu là con người trong vụ không kích nhằm vào Dải Gaza.
Báo cáo này trích dẫn các cuộc phỏng vấn với 6 nguồn tin giấu tên thuộc lực lượng tình báo Israel cho biết, hệ thống trí tuệ nhân tạo (AI) có tên Lavender được sử dụng cùng với các công cụ AI khác để xác định và tiêu diệt các tay súng bị nghi thuộc Hamas, nhưng cũng gây ra thương vong cho nhiều dân thường.
Cũng theo một báo cáo khác, 1 sĩ quan tình báo Israel cho hay, hệ thống này giúp thực hiện các vụ không kích dễ dàng hơn. Tuy nhiên, lực lượng Phòng thủ Israel (IDF) lại phủ nhận nhiều thông tin trong các báo cáo này. IDF nói rằng luôn tuân thủ luật pháp quốc tế và lực lượng này không dùng AI trong các chiến dịch chống khủng bố và cho rằng Lavender không phải là AI mà “chỉ đơn giản là hệ thống dữ liệu dùng để kiểm tra chéo các nguồn tin tình báo”. “Đối với mỗi mục tiêu, IDF luôn có quy trình đánh giá riêng về thuận lợi cũng như dự báo thiệt hại”, đại diện IDF cho hay.
Các tòa nhà ở miền bắc Dải Gaza bị phá hủy trong các đợt không kích của Israel. Ảnh: Reuters. Đồ họa: India Today
Những cái chết do thuật toán
Trước đó, năm 2021, tờ Jerusalem Post dẫn lời 1 quan chức tình báo cho biết, Israel từng chiến thắng trong “cuộc chiến AI” đầu tiên trong 1 đợt giao tranh với Hamas, bằng cách sử dụng hệ thống máy học để sàng lọc và nhận diện mục tiêu. Năm ngoái, một báo cáo khác của +972 tiết lộ, Israel cũng sử dụng hệ thống AI có tên Habsora để xác định các cơ sở và tòa nhà có các tay súng ẩn nấp. Hệ thống này được mô tả như là “nhà máy ám sát hàng loạt”.
Một số quốc gia hiện tận dụng thuật toán trong lĩnh vực quân sự. Chẳng hạn, dự án AI Maven của quân đội Mỹ được sử dụng ở Trung Đông và Ukraine, hay Trung Quốc cũng nhanh chóng phát triển công nghệ AI để phân tích dữ liệu, lựa chọn mục tiêu và hỗ trợ ra quyết định. Những người ủng hộ việc dùng AI trong quân sự cho rằng công nghệ này giúp đưa ra quyết định nhanh hơn, có độ chính xác cao hơn và giảm thương vong trên chiến trường.
Về độ chính xác, báo cáo của +972 cho hay, Lavender được lập trình tự động xác định và kiểm tra chéo để đảm bảo mục tiêu tiềm tàng là nhân vật cấp cao của Hamas. Tuy nhiên, hệ thống này lại được hạ các tiêu chuẩn để gộp cả các tay súng cấp thấp và cho phép tỷ lệ sai sót 10%.
Cần có quy định về sử dụng AI trong quân sự?
Khi mà ứng dụng AI trong quân sự ngày càng phổ biến, vấn đề về đạo đức và pháp lý mới được đặt ra. Cho đến nay, vẫn chưa có những quy định rõ ràng và mang tính pháp lý về vấn đề này trên toàn cầu. LHQ thảo luận về “hệ thống vũ khí sát thương tự động” trong hơn 10 năm qua. Đây là những công cụ có thể xác định mục tiêu và khai hỏa mà không có sự can thiệp của con người.
Đại hội đồng LHQ từng thông qua dự thảo nghị quyết mới về đảm bảo các thuật toán “không được toàn quyền quyết định” trong hoạt động liên quan đến chết chóc. Tháng 10.2023, Mỹ cũng ra tuyên bố về sử dụng AI và công nghệ tự động có trách nhiệm trong hoạt động quân sự. Ngoài ra, năm ngoái, Hà Lan và Hàn Quốc đồng tổ chức Hội nghị thượng đỉnh đầu tiên về sử dụng AI trong quân sự có trách nhiệm.
Các quy định quốc tế về vấn đề này vẫn phải “chạy theo” để bắt kịp tốc độ ứng dụng AI trên chiến trường. Trước mắt, việc thế giới phản ứng như thế nào với việc sử dụng AI trong quân sự, như tình hình ở Gaza hiện nay, có thể tạo tiền đề cho sự phát triển và ứng dụng công nghệ này trong tương lai.
LÊ QUẢNG (Theo The Conversation)