355-2016 - page 14

14
THỨSÁU
30-12-2016
Phóng sự - Chuyên đề
Một hội nghị về vũ khí của LHQ tại Geneva trong tháng
12-2016cũngbànvềvấnđề robot sát thủnhưngvẫnchưa
kêugọi quốc tế đưa ra bất kỳ lệnh cấmnào. Tại hội nghị,
cácquốcgia, trongđó cóMỹvàTrungQuốcđãnhất trí lập
ramột nhóm chuyêngiađểnghiên cứu, bất chấp sựphản
đối từNga.Nhóm sẽphân tích, xemxét cácgiá trịmàcông
nghệnàyđem lại cho lĩnhvựcquânsự, các rủi rovàcácvấn
đềnhânđạo.ChuyêngiaRoffđếntừtổchứcphântíchchính
sáchcôngNewAmerica(Mỹ)chobiếtchínhquyềnôngTrump
khiếnbànghingờ liệuMỹsẽđẩymạnhcác tiến triểnnày tại
LHQhaykhông, đặcbiệt với thái độkhá thân thiệnmàông
TrumpdànhchoTổng thốngNgaPutin.
BẢOANH
T
ương tự hàng loạt thiết bị không người lái có vũ trang
được lập trìnhkiểu “súngđạnvô tình”hay các lá chắn
tên lửa hoàn toàn tự động, công nghệ “robot sát thủ”
cũng có thểđược thiết kếđểnhậndạngvà loại bỏ cácnghi
phạm khủng bố ngay tại hiện trường.
“Robot sát thủ”đangđếngần
Trongmột thời giandài, nhữngý tưởngnày tưởngchừng
nhưchỉ có trongkhoahọcviễn tưởng, trongnhữngbộphim
kiểunhư loạtphimđìnhđám
Kẻhủydiệt
củangôi saoArnold
Schwarzenegger. Thế nhưng những cỗmáy sát thủ này là
kết quảkhôngquábất ngờ saunhiều thậpniêncác tậpđoàn
công nghệ quốc phòng cho phát triển vũ khí thôngminh.
Mặc dùviệc triểnkhai các vũkhí này có thể cònmất nhiều
thậpniênđểđưavào thực chiếnnhưng cácnguyênbản của
những thiết bị với khả năng tự đưa ra quyết định khi tác
chiếnnhư vậy đã được sản xuất.
Một ví dụ của loại hình nghiên cứu này là tên lửa chống
hạm tầmxa (LRASM) củaTậpđoànquốcphòngLockheed
Martin, cókhả năngbayhàng trăm cây sốvà tựđộng tránh
radarđốiphương.Tương tự,Vănphòngnghiêncứuhảiquân
(ONR) thuộc BộQuốc phòngMỹ tháng 12-2016 cũng đã
công bốmột loại tàu không người lái, có khả năng tự xác
định các tàu không rõ lai lịch là “bạn hay thù”. Bộ Quốc
phòngMỹcũngđãcho thửnghiệmcác thiết bị khôngngười
lái được trang bị công nghệ nhận diện gươngmặt và, về lý
thuyết, có thể xác định đâu là khủng bố rồi tự đưa ra quyết
định tiêudiệt đối tượng.
Một kỷnguyênmới củanhững cỗmáyđangđượcmở ra.
Máymóc sẽ có khả năng được trao quyền quyết định giữa
sự sốngvàcái chết.Cácnghiêncứuvề trí tuệnhân tạođang
ngày càng đạt được những bước tiếnmới. Và chính Tổng
thống đắc cửMỹDonaldTrump sẽ phải giải quyết câu hỏi
liệu quân đội Mỹ sẽ theo đuổi loại công nghệ này hay để
những nước khác vượtmặt và phát triển trướcMỹ.
Bài toán choDonald Trump
Các nhóm nhân quyền lo ngại cảnh báomột “cuộc chạy
đua robot vũ trang” có thể sẽdiễn ra.Theohọ, tương tự các
máybayđiềukhiển từxamàMỹđã triểnkhai tại các điểm
nóngchính trị nhưYemenvàAfghanistan, làn sóngápdụng
những vũ khí tự hành này vào chiến tranh sẽ không thể bị
ngăn cảnmột khi chúng được các nước sử dụng rộng rãi,
đặc biệt làMỹ - quốc gia xuất khẩu vũ khí lớn nhất năm
2016, theo đánh giá củaViệnNghiên cứu hòa bình quốc tế
(SIPRI) tại Stockholm.
Trongmột lá thư trình lênNgoại trưởngMỹ JohnKerry
vàBộ trưởngQuốcphòngAshtonCarter vào tháng12năm
nay, có chín nghị sĩ đảngDân chủ tại Hạ viện đã cảnh báo
robot giết người “sẽkhông chỉ đơn thuần làmột loại vũkhí
mới trong kho vũ khí của thế giới mà còn tạo ramột cách
thứcchiến tranhmới”.Cácnghị sĩ nàykêugọiMỹbanhành
một lệnh cấm “phủ đầu” để ngăn ngừa sự phát triển cũng
như sử dụng loại công nghệ khó lường này.
Thế nhưng Steven Groves, thành viênmảng ngoại giao
đội chuyểngiaoquyền lực củaôngTrump, lại cho rằngMỹ
không nên phản đối lệnh cấm đối với các vũ khí nàymà
ngược lại cònphải đi đầu trongviệc phát triển chúng: “Mỹ
khôngnhất thiếtphải chịu tráchnhiệm trướcbấtkỳnghịđịnh
thưnào tạiGenevanhằmcấmcácvũkhí chúng tađangphát
triển. Tại saoMỹphải làmđiềuđókhimà các đối thủ cạnh
tranh củaMỹ đang nghiên cứu các loại vũ khí tương tự”.
Trongmột bài viết choquỹHeritageFoundationnăm2015,
ôngGroves nói rằng phát triển các vũ khí tự hành là “cách
duynhất đểcác lực lượngvũ trangMỹcó thểduy trì lợi thế
chiến thuật và chiến lược sovới kẻ thù trong các cuộcxung
đột trong tương lai”.
Chođếnnay chínhquyềnôngObamavẫngiữ lập trường
trung lậpvề vấnđề này. Tuynhiên, NhàTrắnghiệnđã tiến
hành rà soát các vấnđề về pháp lývà đạođức liênquan tới
trí tuệ nhân tạo dùng trong quân sự. Tuy nhiên, theo trang
Politico
, nhữngnghiêncứunàyvẫnsẽkhông thểhoàn thành
trướcngàynhậmchức tổng thốngcủaôngTrump.Vàonăm
2012, LầuNămGóc cũngđã ra chỉ thị hạn chế sửdụng “vũ
khíbán tựhành”, loạivũkhívẫncầnconngười raquyếtđịnh
cuối cùng, để thực hiện các nhiệmvụ tác chiến. Tuynhiên,
chỉ thị củaLầuNămGóc vẫn chophépnghiên cứuvà phát
triểncácvũkhí hoàn toàn tựhànhvới điềukiệnđược sựcho
phép từBộ tổng thammưu liênquânMỹ.
Ngoài ra, lệnhcấm triểnkhai vũkhí tựhànhcủaBộQuốc
phòngMỹcũngchỉcógiớihạn trongvòngnămnăm.Điềuđó
đồngnghĩavớiviệcchínhquyềnôngTrump trongnăm2017
sẽ có cơhội đưa ra các chính sáchmới liênquan tới nghiên
cứu trí tuệnhân tạo trongquân sự.Đối với giới chuyêngia,
các chính sáchnhưvậy sẽ giúpphác họa cụ thể đâu là ranh
giới những vấn đề được và không được chấp thuận trong
việc phát triển và cả áp dụng trên chiến trường loại công
nghệ khó lườngnày.
“Chính quyền kế nhiệm phải sớm quyết định khi nào và
nơi đâu họ sẽ triển khai những hệ thống này để chúng có
thể phùhợpvới các luật về chiến tranh” - bàHeatherRoff,
chuyêngiaanninhmạngđến từ tổchứcphân tíchchínhsách
côngNewAmerica tạiWashington, D.C. cho biết.
Tranh luậnđúng sai về tương lai thếgiới
Cũng như cuộc tranh luận trong thế kỷ 20 về việc phát
triểnvũkhínguyên tử, nhữngngườiủnghộcôngnghệ robot
sát thủ tranh luận rằng loại công nghệ này có thể giúp hạn
chế thương vong.Một số nhà hoạch định quân sự hy vọng
các robot sát thủ có thể chophép triểnkhai thực hiệnnhiều
nhiệmvụphức tạpvànguyhiểmhơnmàkhông làm tổnhại
đến tínhmạngvà sức khỏe của quânnhân.
Trong khi đó, những người phản đối cho rằng bằng cách
giảmbớt những rủi ro trongchiếnđấu, vũkhí tựhành sẽgỡ
bỏđi nhiều ràngbuộcvàcânnhắc thiệt hại củacácquốcgia
trong việc phát động chiến tranh, khiến xung đột vũ trang
dễ xảy ra hơn. Theo họ, các cỗmáy này cũng sẽ thiếu khả
năngđưa raphánquyết của conngười, đánhmất đi cácyếu
tố nhân đạo. Tổ chức Ân xá
Quốc tế (AI) lập luận những
robot tự hành này sẽ “không
thể không tuân lệnh”, không
giống các binh sĩ Ai Cập đã
từ chối bắn vào người biểu
tình trong lànsóngcáchmạng
“Mùa xuân ẢRập” bắt đầu
hồi năm2010.
Cùng với đó là hàng loạt
câu hỏi nằm tại trung tâm cuộc tranh luận: Ai chịu trách
nhiệmmột khi vũkhí robot gây thươngvongdân sự?Điều
gì xảy ra nếumột lỗi lập trình gây nên sự cố “quân ta bắn
quânmình”? Làm thế nào chính phủ có thể đảm bảo rằng
cácvũkhí tựhành tôn trọngnhânquyềnvà luật chiến tranh?
JamieMetzl, thànhviên cao cấpvề côngnghệvà anninh
quốcgia tạiHội đồngĐạiTâyDương, tổchứcchuyênphân
tíchvềquanhệquốc tế có trụ sở tạiWashington,D.C. cảnh
báo cuộc tranh luận về robot có khả năng giết người sẽ có
tácđộng to lớnđối với tương lai thếgiới.Ông cho rằng các
quốcgiacầnphải cẩn trọng: “Nhân loại sẽphải cựckỳ thận
trọngvềcác robot tựhànhcóvũ trang.Chúng sẽkhôngcần
xinphép cho tất cả nhữnggì chúngmuốn làm”.■
“Robotsát thủ”đang
chờTrumpphánquyết
Ảnh1:
Mộtrobotgiả
đượcđặttạiLondontrong
chiếndịchphảnđốichế
tạo“robotgiếtngười”vào
tháng4-2013.Ảnh:GETTY
Ảnh2:
CâuhỏiDonald
Trumpsẽrachínhsáchgì
với“robotgiếtngười”trên
đấtMỹvẫncònbỏngỏ.
Ảnh:GETTY
Ảnh3:
Ảnhmộtrobotcóvũ
trangtiêntiếnMARSđuợc
chụptạiBộQuốcphòng
Mỹvàongày14-5-2015.
Ảnh:GETTY
ÔngTrumpsẽphảiquyếtđịnhliệunướcMỹcónênđểchonhữngcỗmáy
racácquyếtđịnhsốngcònhaykhông.
“Chúngtađangđứngở
ngưỡngcửacủatương
laixungđộttrongthếkỷ
21”-AugustCole,chuyên
giaanninhvànghiêncứu
viêncấpcaotạiHộiđồng
ĐạiTâyDương,nói.
1
2
3
1...,4,5,6,7,8,9,10,11,12,13 15,16
Powered by FlippingBook