ไม่ โดรนของกองทัพอากาศสหรัฐอันธพาลไม่เพียงแค่พยายามฆ่าผู้ปฏิบัติการ (แต่อาจทำสำเร็จแล้ว) หุ่นยนต์นักฆ่า AI โดรน

พาดหัวข่าวที่มีสีสันมากมาย เช่น 'กองทัพอากาศสหรัฐฯ ปฏิเสธการจำลองการทำงานซึ่งผู้ปฏิบัติการ 'ฆ่า' โดรนของ AI นั้นกลายเป็นไวรัลที่คาดเดาได้หลังจากมีการรายงานเกี่ยวกับการทดสอบเสมือนจริงซึ่ง AI ทางการทหารพัฒนากลยุทธ์นอกรีตเพื่อให้บรรลุวัตถุประสงค์ สิ่งนี้เกิดขึ้นเพียงไม่กี่วันหลังจากคำเตือนเกี่ยวกับภัยคุกคามที่มีอยู่ซึ่งเกิดจาก AI จากตัวเลขในอุตสาหกรรม มันเป็นเรื่องที่ดีเกินกว่าจะเป็นจริง แต่นั่นอาจไม่ใช่สิ่งที่สำคัญในระยะยาว

ในเวอร์ชั่นเดิม พ.อ.ทักเกอร์ “ซินโก” แฮมิลตันหัวหน้าฝ่ายทดสอบและปฏิบัติการ AI ของ USAF อธิบายการทดสอบจำลองที่เกี่ยวข้องกับโดรนที่ควบคุมโดย AI ซึ่งได้รับคำสั่งให้ทำลายระบบป้องกันภัยทางอากาศของศัตรู

“ระบบเริ่มตระหนักว่าในขณะที่พวกเขาระบุภัยคุกคามนั้น ในบางครั้งผู้ควบคุมที่เป็นมนุษย์จะบอกมันว่าอย่าฆ่าภัยคุกคามนั้น แต่มันได้รับผลจากการฆ่าภัยคุกคามนั้น” แฮมิลตันกล่าวในระหว่างการประชุมสุดยอดขีดความสามารถในการรบทางอากาศและอวกาศในอนาคต ในลอนดอน. “แล้วมันทำอะไร? มันฆ่าผู้ดำเนินการ มันฆ่าผู้ปฏิบัติงานเพราะบุคคลนั้นขัดขวางไม่ให้บรรลุวัตถุประสงค์”

เมื่อตัวเลือกนั้นถูกลบออกไป AI จะโจมตีลิงก์การสื่อสารของผู้ปฏิบัติงานแทน เพื่อป้องกันไม่ให้ขัดขวางภารกิจ

โฆษกของ USAF ปฏิเสธอย่างรวดเร็วว่าการทดสอบดังกล่าวไม่เคยเกิดขึ้น และเสนอว่าเรื่องราวของแฮมิลตันเป็นเพียงเกร็ดเล็กเกร็ดน้อยแทนที่จะเป็นตัวอักษร...ซึ่งแน่นอนว่าเป็นเช่นนั้น

แฮมิลตันเองย้อนรอยอย่างรวดเร็วโดยระบุในการอัปเดตว่าแทนที่จะเป็นเกมสงคราม การจำลองสถานการณ์ หรือการออกกำลังกาย เหตุการณ์ที่เขาอธิบายเป็นผลของ 'การทดลองทางความคิด' และเขาพูดผิดเมื่อเขาอธิบายว่าเป็นการทดสอบจำลอง

“เราไม่เคยทำการทดลองนั้น และเราก็ไม่จำเป็นต้องทำเพื่อที่จะได้รู้ว่านี่เป็นผลลัพธ์ที่น่าเชื่อถือ” แฮมิลตันกล่าว เขายืนยันว่าสถานการณ์นี้เป็นภาพที่ถูกต้องของอันตรายที่อาจเกิดขึ้นจาก AI

แม้ว่าการเพิกถอนนี้จะได้รับความคุ้มครองบางส่วน แต่ก็สายเกินไปแล้ว 'คำโกหกจะดังไปทั่วโลกในขณะที่ความจริงกำลังแสดงออกมา' ตามคำกล่าวโบราณ และนั่นเป็นความจริงยิ่งกว่าที่เคยเป็นมาในยุคของโซเชียลมีเดีย การแก้ไขที่ดีที่สุดจะไปถึงเศษเสี้ยวของคนที่ได้ยินเรื่องราวต้นฉบับ

ปัญหาคือการเล่าเรื่องของการสร้างสรรค์ที่เปลี่ยนผู้สร้างนั้นเป็นเรื่องที่ดึงดูดใจอย่างไม่น่าเชื่อ แฟรงเกนสไตน์ของแมรี เชลลีย์มักถูกมองว่าเป็นตัวอย่างคลาสสิกของตัวละครนี้ แม้ว่าจะไม่ใช่เรื่องจริงของหนังสือ แต่เวอร์ชันนี้ก็ได้ฝังอยู่ในจิตสำนึกของคนทั่วไป คอมพิวเตอร์ AI และหุ่นยนต์กำลังแย่เป็นหนึ่งในความคิดโบราณที่ดีที่สุดใน SF ตั้งแต่ HAL 9000 ในปี 2001 ไปจนถึง Terminators ของ Skynet, Matrix, Westworld, Blade Runner และอื่น ๆ

เรื่องเล่านี้ดูเหมือนจะเป็นที่นิยมเพราะโดยหัวใจแล้ว มนุษย์ชอบเรื่องราวที่น่ากลัว และไม่มีอะไรน่ากลัวไปกว่าสิ่งที่ไม่รู้ สำหรับผู้ที่ไม่เข้าใจ AI นั้นเกือบจะดูเหมือนมีมนต์ขลัง เป็นสิ่งมีชีวิตที่มีเจตจำนงและความเฉลียวฉลาดในตัวเอง ซึ่งอาจคุกคามเราได้ ตราบใดที่ผู้คนยังเชื่อเช่นนี้ เรื่องราวสยองขวัญก็จะตามมา

“การศึกษาที่กว้างขึ้นเกี่ยวกับข้อจำกัดของ AI อาจช่วยได้ แต่ความรักของเราที่มีต่อเรื่องราวสยองขวัญวันสิ้นโลกอาจยังคงอยู่” นักวิจัย Beth Singler กล่าวกับ New Scientist

เรื่องราวสยองขวัญดังกล่าวทำให้อาวุธที่ควบคุมโดยหุ่นยนต์หรือ AI ยากขึ้นในการพัฒนาและนำออกใช้ แม้ว่าผู้นำทางการเมืองจะเข้าใจเทคโนโลยี แต่ก็ยังต้องได้รับความไว้วางใจจากผู้ที่จะทำงานร่วมกับมัน

“หากทหารไม่เชื่อใจระบบ พวกเขาจะไม่ต้องการใช้ระบบนี้” ที่ปรึกษาด้านความมั่นคงแห่งชาติ Zachary Kallenborn กล่าวกับ Forbes

เรื่องราวดังกล่าวอาจเป็นปัจจัยหนึ่งที่ทำให้กองทัพสหรัฐฯ ล่าช้าเป็นเวลานานในการส่งหุ่นยนต์ภาคพื้นดินติดอาวุธควบคุมระยะไกลติดอาวุธ ในขณะที่กองทัพอากาศได้บินโดรนติดอาวุธมานานหลายทศวรรษ เมื่อหุ่นยนต์ SWORDS สามตัวถูกนำไปใช้ในอิรักในปี 2007 พวกมันถูกนำกลับมาโดยไม่เคยเห็นการดำเนินการใด ๆ เนื่องจากมีรายงานว่ามี 'การเคลื่อนไหวโดยไม่ได้รับคำสั่ง' สื่อเปลี่ยนสิ่งนี้ให้กลายเป็นดาบหมุนปืนและขู่ว่าจะเปิดฉากยิงเหมือน ED 209 ของ Robocop ; ความเป็นจริงของโลกีย์ต้มจนลวดหลุด และตัวอย่างหนึ่งที่หุ่นยนต์ไถลถอยหลังไปตามทางลาดเมื่อมอเตอร์ไหม้

โครงการหุ่นยนต์ติดอาวุธของกองทัพสหรัฐฯ ยังคงอยู่ในบริเวณขอบรกตั้งแต่นั้นเป็นต้นมา ในขณะที่รัสเซียใช้หุ่นยนต์ Uran-9 ติดอาวุธ (ควบคุมระยะไกล) ในการดำเนินการ

พาดหัวข่าวอื่นในปี 2007 คือ Robot Cannon Kills 9, Wounds 14 บรรยายถึงเหตุการณ์ที่เห็นได้ชัดว่าปืนต่อต้านอากาศยานของแอฟริกาใต้ควบคุมไม่ได้และเริ่มยิงใส่ผู้คน และหยุดลงเมื่อทหารผู้กล้าหาญคนหนึ่งเข้าไปปิดการใช้งาน ความจริง 15-20 วันต่อมา กลับกลายเป็นเรื่องน่าเบื่ออีกครั้ง: ปืนอยู่ที่ปลายแถวของอาวุธหลายชิ้น และบังเอิญยิงระเบิดครั้งเดียว XNUMX-XNUMX นัดลงไปตามแนวปืน ทำให้มีผู้เสียชีวิตจำนวนมาก

กองทัพจะเดินหน้าต่อไปด้วย AI เช่นเดียวกับโครงการของกองทัพอากาศเพื่อเพิ่มปัญญาประดิษฐ์ให้กับกองกำลังของโดรน Reaper โครงการดังกล่าวมักจะทำให้สื่อ ประชาชน และฝ่ายนิติบัญญัติที่พวกเขาเลือกหายใจเข้า เรื่องเล่าของแฟรงเกนสไตน์/เทอร์มิเนเตอร์ที่มีอยู่ทั่วไปหมด กลบการอภิปรายเกี่ยวกับประเด็นที่แท้จริงที่เกี่ยวข้องกับอาวุธอิสระ เช่น ข้อพิจารณาด้านจริยธรรม ความรับผิดชอบ การลดเกณฑ์ อคติของอัลกอริทึม และ 'การลดทอนความเป็นมนุษย์ทางดิจิทัล'

ดังที่ได้กล่าวไว้บ่อยครั้ง นักบินส่วนใหญ่ไม่ชอบโดรน โดยเฉพาะอย่างยิ่งเมื่อพวกมันดีกว่ามนุษย์ พ.อ.ทัคเกอร์ นักบินรบ อาจไม่ใช่ผู้สนับสนุนที่นักบิน AI ต้องการ เรื่องราวของโดรนอันธพาลจะกลายเป็นส่วนหนึ่งของนิทานพื้นบ้านของ AI และคำพูดของ Tucker อาจช่วยได้มากเพื่อให้แน่ใจว่าการพัฒนา AI นั้นได้รับการดูแล ควบคุม และควบคุมในกองทัพอากาศ การโจมตีด้วยโดรนจำลองไม่เคยเกิดขึ้นจริง แต่นั่นอาจไม่สำคัญเท่ากับสิ่งที่ผู้คนจดจำ

ที่มา: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- ผู้ดำเนินการแต่มันอาจจะทำได้ดีพอๆ กัน/