นโยบายปรับปรุงของเพนตากอนเกี่ยวกับหุ่นยนต์นักฆ่าคืออะไร?

เพนตากอนได้ออก อัปเดตเป็น Directive 3000.09ซึ่งครอบคลุมสิ่งที่พวกเขาเรียกว่า เอกราชในระบบอาวุธ และคนอื่นๆ เรียก 'หุ่นยนต์นักฆ่า.' โดรนปัจจุบันเช่นกองทัพอากาศและซีไอเอ MQ-9 ยมทูต ควบคุมด้วยรีโมทคอนโทรล: มนุษย์ นั่งอยู่หน้าจอวิดีโอ ระบุเป้าหมายบนพื้นดินที่อยู่ห่างออกไปหลายพันไมล์ วางไว้ในเป้าเล็งและปล่อย ขีปนาวุธเฮลล์ไฟร์ หรืออาวุธอื่นๆ อาวุธอิสระนั้นแตกต่าง: พวกมันเลือกเป้าหมายเองโดยไม่มีการแทรกแซงของมนุษย์ จำเป็นต้องมีกฎที่ชัดเจนว่าจะใช้เมื่อใดและอย่างไร และคำสั่งใหม่จะเข้าใกล้กฎเหล่านี้ไปอีกขั้น

เมื่อสิบปีที่แล้วเมื่อเวอร์ชันแรกของ 3000.09 เปิดตัว อาวุธอิสระดูเหมือนนิยายวิทยาศาสตร์ ตอนนี้พวกเขาเป็นจริงมาก สหประชาชาติอ้างว่า โดรนที่จัดหาโดยตุรกีโจมตีเป้าหมายอย่างอิสระ ในลิเบียในปี 2020 และรัสเซียกำลังติดตั้งอาวุธยุทโธปกรณ์ในยูเครนด้วย ความสามารถอิสระ

นักเคลื่อนไหวหลายคนเช่น แคมเปญหยุดยั้งหุ่นยนต์นักฆ่าต้องการให้มีการห้ามใช้อาวุธอิสระโดยสิ้นเชิง ยืนยันว่าอาวุธระยะไกลใดๆ ยังคงอยู่ การควบคุมของมนุษย์ที่มีความหมาย ตลอดเวลา. สหประชาชาติกำลังถกเถียงกันว่าจะทำอย่างไร ควบคุมอาวุธดังกล่าวเป็นเวลาหลายปี.

อย่างไรก็ตาม เนื่องจากคำสั่งใหม่มีความชัดเจน เพนตากอนจึงยึดมั่นในแนวทางที่ต่างออกไป

“กระทรวงกลาโหมได้คัดค้านมาตรฐานนโยบายของ 'การควบคุมโดยมนุษย์ที่มีความหมาย' อย่างต่อเนื่อง เมื่อพูดถึงทั้งระบบอัตโนมัติและระบบ AI” เกรกอรี่อัลเลนผู้อำนวยการโครงการด้าน AI Governance ที่ สอศ ศูนย์ศึกษายุทธศาสตร์และการศึกษานานาชาติ, บอกฉัน. “ศัพท์ศิลปะของ DoD ที่ต้องการคือ 'ระดับที่เหมาะสมของการตัดสินของมนุษย์' ซึ่งสะท้อนข้อเท็จจริงที่ว่าในบางกรณี เช่น เครื่องบินตรวจการณ์อัตโนมัติและอาวุธไซเบอร์อัตโนมัติบางชนิด ระดับการควบคุมที่เหมาะสมของมนุษย์อาจน้อยมากหรือไม่มีเลย ”

อาวุธอิสระประเภทใดที่จะได้รับอนุญาตภายใต้สถานการณ์ใดบ้าง อัลเลนเชื่อว่าคำสั่งเวอร์ชันก่อนหน้านี้ไม่ชัดเจนจนทำให้การพัฒนาใดๆ ในพื้นที่นี้หมดกำลังใจ

“ความสับสนแพร่ระบาดอย่างมาก – รวมถึงผู้นำระดับสูงของกระทรวงกลาโหมบางคน – ที่เจ้าหน้าที่ละเว้นจากการพัฒนาระบบบางอย่างที่ไม่เพียงได้รับอนุญาตจากนโยบายเท่านั้น แต่ยังได้รับการยกเว้นอย่างชัดแจ้งจากข้อกำหนดการตรวจสอบอาวุโส” อัลเลนกล่าว

ไม่มีอาวุธใดถูกส่งเข้าสู่กระบวนการตรวจสอบสำหรับอาวุธอิสระที่วางไว้ใน 3000.09 ดั้งเดิมในช่วงสิบปีนับตั้งแต่เผยแพร่

อัลเลนเขียน เรียงความเกี่ยวกับเรื่องนี้ สำหรับ CSIS เมื่อปีที่แล้ว โดยอธิบายถึง XNUMX ประเด็นที่ต้องดำเนินการ ได้แก่ การกำหนดระบบอาวุธอัตโนมัติอย่างเป็นทางการ ระบุว่า "AI-enabled" หมายถึงอะไรสำหรับนโยบาย กระบวนการตรวจสอบจะจัดการกับโมเดลแมชชีนเลิร์นนิงอย่างไร และชี้แจงว่าอาวุธประเภทใดที่ต้องใช้ ผ่านกระบวนการตรวจสอบที่ยากลำบาก

“กระทรวงได้ดำเนินการทั้งหมดแล้ว” อัลเลนกล่าว

ตามหลักการแล้ว สิ่งนี้ควรทำให้แน่ใจได้ว่าคำว่า DoD “มีความมุ่งมั่นอย่างแรงกล้าและต่อเนื่องในการเป็นผู้นำระดับโลกที่โปร่งใสในการกำหนดนโยบายที่มีความรับผิดชอบเกี่ยวกับการใช้ระบบปกครองตนเองทางทหาร”

อย่างไรก็ตาม มีการเพิ่มเติมบางอย่างที่อาจถูกมองว่าเป็นช่องโหว่ เช่น การยกเว้นจากการตรวจสอบระดับอาวุโสสำหรับโดรนป้องกันอาวุธอัตโนมัติซึ่งไม่ได้กำหนดเป้าหมายไปที่ผู้คน ('อาวุธต่อต้านวัตถุ') และอนุญาตให้กำหนดเป้าหมายขีปนาวุธได้ โดรนอื่นๆ และระบบอื่นๆ ที่เป็นไปได้

“คำว่า 'ป้องกัน' กำลังทำผลงานได้มากมาย” แซค คัลเลนบอร์นเพื่อนด้านนโยบายที่ Schar School of Policy and Government ที่ George Mason University บอกฉัน “หากโดรนปฏิบัติการในพื้นที่ของศัตรู อาวุธเกือบทุกชนิดสามารถตีความได้ว่าเป็น 'การป้องกัน' แพลตฟอร์ม”

Kallenborn ยังตั้งข้อสังเกตว่าแม้อาวุธอิสระอย่างมีประสิทธิภาพอย่างกับกับระเบิดจะถูกใช้มานานกว่าศตวรรษ แต่ภูมิทัศน์กำลังเปลี่ยนแปลงอย่างรวดเร็วเนื่องจากความก้าวหน้าของ AI และการเรียนรู้ของเครื่องโดยเฉพาะ สิ่งเหล่านี้ทำให้เกิดระบบที่มีความสามารถมากแต่ เปราะในทางเทคนิค - เมื่อพวกเขาล้มเหลว พวกเขาล้มเหลวอย่างน่าทึ่งในแบบที่ไม่มีมนุษย์คนใดจะทำได้ เป็นต้น เข้าใจผิดว่าเต่าเป็นปืนไรเฟิล.

“ความเป็นอิสระผ่าน AI สมควรได้รับความกังวลมากขึ้นอย่างแน่นอน เนื่องจากแนวทางที่ครอบงำในปัจจุบันมีความเปราะบางและขาดความสามารถในการอธิบาย” Kallenborn กล่าว

การอัปเดตไม่ใช่เรื่องใหญ่ แต่มันแสดงให้เห็นถึงความมุ่งมั่นอย่างต่อเนื่องของเพนตากอนในการพัฒนาอาวุธอิสระที่มีประสิทธิภาพและความเชื่อที่พวกเขาสามารถปฏิบัติตามได้ กฎหมายมนุษยธรรมระหว่างประเทศ — แยกแยะพลเรือนออกจากบุคลากรทางทหาร พยายามหลีกเลี่ยงการทำร้ายพลเรือน และใช้กำลังตามสัดส่วนและจำเป็นเท่านั้น

นักรณรงค์เชื่อว่า AI จะไม่มีความเข้าใจที่จำเป็นในการตัดสินทางศีลธรรมในช่วงสงคราม และมีความเสี่ยงที่จะทำให้เกิดโลกที่สงครามเป็นแบบอัตโนมัติและมนุษย์ไม่สามารถควบคุมได้อีกต่อไป คนอื่นเชื่อว่ากองทัพสหรัฐจะเป็น เอาชนะคู่ต่อสู้ด้วยอาวุธอัตโนมัติ เว้นแต่จะมีการรวม AI ไว้ในระดับยุทธวิธีและการมีส่วนร่วมของมนุษย์มากเกินไป ทำให้หุ่นยนต์ทหารทำงานช้าลง.

การโต้เถียงมีแนวโน้มที่จะดำเนินต่อไปแม้เมื่ออาวุธอิสระเริ่มปรากฏขึ้น และผลลัพธ์จะตามมาอย่างใกล้ชิด ไม่ว่าจะด้วยวิธีใด ดูเหมือนว่าหุ่นยนต์นักฆ่ากำลังจะมา

ที่มา: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/