จรรยาบรรณของ AI ที่ต้องดิ้นรนต่อสู้กับระบบอาวุธอัตโนมัติที่ใช้ AI และการใช้ประโยชน์จากระบบขับเคลื่อนอัตโนมัติที่ขับเคลื่อนด้วย AI ที่มีอาวุธร้ายแรง

หุ่นยนต์สี่ขาที่เต้นได้อย่างน่าทึ่ง

ฉันแน่ใจว่าคุณคงเคยเห็นวิดีโอไวรัลของระบบหุ่นยนต์สี่ขาที่เต้นและเย่อหยิ่งในแบบที่ดูเหมือนน่ายินดีและเป็นที่รักของสุนัข ดูเหมือนเราจะชอบใจที่ได้เห็นหุ่นยนต์ที่ขับเคลื่อนด้วย AI เหล่านี้ขณะที่พวกมันปีนข้ามสิ่งกีดขวาง และดูเหมือนว่าจะได้รับการตั้งหลักที่ละเอียดอ่อนเมื่อเกาะอยู่บนกล่องหรือหลังจากวางบนตู้ที่บอบบางอย่างล่อแหลม บางครั้งผู้ดูแลที่เป็นมนุษย์ของพวกมันจะสะกิดหรือผลักหุ่นยนต์สี่ขาที่วิ่งเล่น ซึ่งดูเหมือนไม่ยุติธรรมอย่างโกรธเคืองและสามารถเพิ่มความเดือดดาลให้กับการกระทำที่ไร้ยางอายของเหล่ามนุษย์ผู้บงการเหล่านั้น

ฉันสงสัยว่าถ้าคุณเคยดูวิดีโอที่ไม่เกี่ยวกับไวรัสที่มีความสามารถที่แตกต่างไปจากเดิมอย่างสิ้นเชิง

เตรียมตัวให้พร้อม

มีวิดีโอที่โพสต์อย่างกว้างขวางซึ่งแสดงหุ่นยนต์สี่ขาประเภทเดียวกับที่ติดตั้งอาวุธที่เด่นชัดไม่ทางใดก็ทางหนึ่ง

ตัวอย่างเช่น ปืนกลหรืออาวุธปืนที่คล้ายกันถูกติดตั้งไว้บนหุ่นยนต์เต้นระบำเปลื้องผ้าที่คุ้นเคย มีการเชื่อมโยงทางอิเล็กทรอนิกส์ระหว่างหุ่นยนต์สี่ขากับกลไกการยิงของอาวุธ เครื่องควบคุมการเดินด้วยคอมพิวเตอร์ที่ติดอาวุธในขณะนี้แสดงให้เห็นการก้าวไปยังตำแหน่งเป้าเป้า และปืนกลถูกยิงเข้าที่เป้าหมายอย่างดุเดือด หลังจากที่โจมตีเป้าหมายที่ถูกทำลายบางส่วนในเวลาต่อมาได้สำเร็จ หุ่นยนต์สี่ขาจะเต้นและเดินไปรอบ ๆ สิ่งกีดขวางในบริเวณใกล้เคียงและเข้าแถวเพื่อทำซ้ำการกระทำเดิมซ้ำแล้วซ้ำอีกกับเป้าหมายใหม่อื่น ๆ

ไม่ใช่สิ่งที่คุณคาดหวังที่จะได้เห็น แน่นอนว่าสิ่งนี้ช่วยขจัดความเบิกบานใจและความปิติยินดีจากการเฝ้าดูหุ่นยนต์สี่ขาน่ากอดเหล่านั้นทำสิ่งต่างๆ อย่างตรงไปตรงมา ยินดีต้อนรับสู่ความจริงอันโหดร้ายของสิ่งที่ดูเหมือน ไม่มีพิษภัย ระบบอัตโนมัติถูกแปลงหรือแปลงเป็นอาวุธอย่างแหลมคม ด้วยความพยายามที่แทบไม่ต้องใช้ความพยายามมากนักในชั่วข้ามคืน คุณจะมีระบบอิสระที่ถือว่า "ไม่มีอาวุธ" ดัดแปลงเพื่อให้บรรจุอาวุธครบชุดในชั่วข้ามคืน

มันเกือบจะง่าย - peasy ในบางสถานการณ์

ฉันจะพูดถึงหัวข้อที่มีการโต้เถียงกันอย่างเผ็ดร้อนนี้ และครอบคลุมถึงปัญหาจริยธรรม AI ที่ค่อนข้างหนักหน่วงที่เกิดขึ้น เราจะเดินทางสู่ระบบอัตโนมัติ, AI, ยานยนต์อัตโนมัติ, การสร้างอาวุธ และปัญหาการต่อสู้ AI เชิงจริยธรรมที่เกี่ยวข้องจำนวนมาก สำหรับการครอบคลุมอย่างต่อเนื่องและกว้างขวางของฉันเกี่ยวกับจริยธรรม AI และ AI เชิงจริยธรรม โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

มาเริ่มกันที่คีย์สโตนพื้นฐานกันก่อน

เพื่อการอภิปราย ยอมรับว่ามีสองวิธีหลักในการจัดหมวดหมู่ระบบอิสระที่ติดอาวุธด้วยอาวุธ:

1) ระบบอาวุธอิสระ (โดยการออกแบบ)

2) ระบบอิสระที่เป็นอาวุธ (ตามความเป็นจริง)

มีความแตกต่างที่สำคัญระหว่างสองประเภท

ในตัวอย่างแรก เราจะนิยาม an ระบบอาวุธอัตโนมัติ เริ่มต้นจากการสร้างสรรค์ด้วยคอมพิวเตอร์ซึ่งมีจุดมุ่งหมายเพื่อเป็นอาวุธ นักพัฒนาคิดว่าพวกเขาต้องการประดิษฐ์อาวุธ ภารกิจที่ชัดเจนของพวกเขาคือการผลิตอาวุธ พวกเขารู้ว่าพวกเขาสามารถรวมอาวุธเข้ากับเทคโนโลยีระบบอัตโนมัติล่าสุดได้ นี่คืออาวุธที่ขี่บนคลื่นของเทคโนโลยีขั้นสูงที่บรรลุการเคลื่อนไหวที่เป็นอิสระและการกระทำที่เป็นอิสระ (ฉันจะอธิบายให้ละเอียดกว่านี้ในเร็วๆ นี้)

ในทางตรงกันข้าม ในตัวอย่างที่สอง เราจะพิจารณาเรื่องระบบอัตโนมัติที่ไม่มีความเอียงไปทางอาวุธเลย เหล่านี้เป็นระบบอิสระที่ได้รับการพัฒนาเพื่อวัตถุประสงค์อื่น ลองนึกภาพรถยนต์ไร้คนขับ เช่น รถยนต์ที่ขับเอง ซึ่งจะใช้เพื่อให้ทุกคนมีความคล่องตัวและช่วยลดการเสียชีวิตนับพันปีที่เกิดจากการขับรถโดยมนุษย์และรถยนต์ที่ควบคุมโดยมนุษย์ (ดูข้อมูลโดยละเอียดของฉัน) ที่ ลิงค์ที่นี่). ดูเหมือนว่าไม่มีอาวุธใดที่จะนำมาพิจารณาสำหรับผู้ที่มีความกระตือรือร้นในการส่งเสริมสังคมเพื่อขับไล่มนุษย์ออกจากหลังพวงมาลัยและนำ AI ไปไว้บนที่นั่งคนขับแทน

แต่ระบบปกครองตนเองที่ไร้พิษภัยเหล่านั้นสามารถติดอาวุธได้หากมนุษย์ต้องการทำเช่นนั้น

ฉันอ้างถึงหมวดหมู่ที่สองนี้แล้วเป็น ระบบอิสระที่เป็นอาวุธ. ระบบปกครองตนเองแต่เดิมถูกสร้างขึ้นมาอย่างมีศรัทธาเพื่อจุดประสงค์ที่ไม่ใช่อาวุธ แม้จะเป็นเช่นนั้น ความหวังที่เห็นแก่ผู้อื่นในความฝันก็กลับกลายเป็นจุดโทษโดยใครบางคนที่ไหนสักแห่งที่ได้รับแนวคิดที่สมรู้ร่วมคิดกันว่าสิ่งประดิษฐ์นี้สามารถติดอาวุธได้ ทันใดนั้น ระบบอัตโนมัติที่ดูเหมือนน่ากอดก็กลายเป็นอาวุธร้ายแรงโดยการติดแท็กความสามารถของอาวุธบางรูปแบบ (เช่น หุ่นยนต์คล้ายสุนัขสี่ขาที่กล่าวถึงก่อนหน้านี้ที่มีปืนกลหรืออาวุธปืนที่คล้ายกันเพิ่มเข้ามาในคุณสมบัติของพวกเขา) .

น่าเศร้าที่ทั้งสองประเภทจบลงที่เดียวกัน กล่าวคือ ให้ความสามารถในการใช้ระบบอัตโนมัติสำหรับอาวุธบนพื้นฐานที่อาจถึงตายได้

กระบวนการไปยังจุดสิ้นสุดนั้นน่าจะแตกต่างออกไป

สำหรับระบบอิสระที่ใช้อาวุธโดยสมบูรณ์ซึ่งถูกตรึงเป็นอาวุธ ลักษณะของอาวุธมักจะอยู่ด้านหน้าและตรงกลาง คุณอาจกล่าวได้ว่าแง่มุมต่างๆ ของระบบปกครองตนเองนั้นครอบคลุมถึงเสาหลักของอาวุธใดๆ ก็ตามที่กำลังพิจารณาอยู่ กระบวนการคิดของนักพัฒนาค่อนข้างสอดคล้องกับวิธีการที่อาวุธสามารถใช้ประโยชน์จากการกำเนิดของระบบอิสระได้

มุมมองอื่น ๆ มักจะไม่อยู่ที่ความคิดนั้นเลย นักพัฒนาต้องการสร้างระบบปกครองตนเองที่ล้ำสมัย ซึ่งอาจเป็นประโยชน์ต่อมนุษยชาติ นักพัฒนาเหล่านี้ใช้หัวใจและจิตวิญญาณที่จริงใจในการสร้างระบบปกครองตนเอง นี่คือแก่นของสิ่งประดิษฐ์ของพวกเขา พวกเขาอาจไม่คิดว่าจะมีใครแย่งชิงหรือทำลายอุปกรณ์ที่มีประโยชน์อย่างน่าอัศจรรย์ของพวกเขา พวกเขาหลงใหลในผลประโยชน์ทางสังคมที่เกี่ยวข้องกับระบบปกครองตนเองที่ถูกสร้างขึ้นและผลิตขึ้นอย่างมีความสุข

ในบางจุด สมมติว่าบุคคลที่สามตระหนักว่าระบบอัตโนมัติสามารถถูกสร้างใหม่ให้เป็นอาวุธได้ บางทีพวกเขาอาจหลอกลวงนักพัฒนาให้ปล่อยให้พวกเขามีระบบอัตโนมัติสำหรับสิ่งที่อ้างว่าเป็นจุดประสงค์อันสูงส่ง หลังประตูที่ปิดสนิท ผู้กระทำผิดเหล่านี้เลือกที่จะแอบเพิ่มความสามารถในการสร้างอาวุธให้กับระบบอิสระ Voila ความไร้เดียงสากลายเป็นอาวุธทันที

สิ่งต่าง ๆ ไม่ต้องดำเนินไปในลักษณะนั้น

บางทีนักพัฒนาอาจได้รับแจ้งว่าพวกเขากำลังพัฒนาระบบปกครองตนเองที่ไร้เดียงสา แต่การระดมทุนหรือการกำกับดูแลความพยายามนั้นมีเป้าหมายอื่นในใจ บางทีความพยายามของระบบอัตโนมัติอาจเริ่มต้นขึ้นอย่างไร้เดียงสา แต่เมื่อต้องชำระค่าใช้จ่าย ผู้นำได้ตัดข้อตกลงกับแหล่งเงินทุนที่ต้องการระบบอัตโนมัติด้วยเหตุผลที่ชั่วร้าย ความเป็นไปได้อีกประการหนึ่งคือนักพัฒนารู้ว่าการใช้ในภายหลังอาจเป็นอาวุธ แต่พวกเขาคิดว่าพวกเขาจะข้ามสะพานที่บาดใจนั้นเมื่อใดหรือถ้ามันเคยเกิดขึ้น เป็นต้น

มีเส้นทางที่แตกต่างกันมากมายเกี่ยวกับวิธีการเล่นทั้งหมดนี้

คุณอาจพบว่าน่าสนใจที่ฉันได้อธิบายไว้ในคอลัมน์ก่อนหน้านี้ว่ามีความตระหนักด้านจริยธรรม AI เพิ่มขึ้นเกี่ยวกับ ที่ใช้ได้สองทาง องค์ประกอบของ AI ร่วมสมัย ดู ลิงค์ที่นี่. ให้ฉันแนะนำคุณสั้น ๆ เกี่ยวกับความเร็ว

ระบบ AI ที่จินตนาการถึงความดีนั้นบางครั้งก็ใกล้จะแย่แล้ว บางทีอาจผ่านการเปลี่ยนแปลงที่ค่อนข้างง่ายบางอย่าง และในทำนองเดียวกันก็ถือได้ว่าเป็นลักษณะการใช้งานแบบสองทาง ในข่าวเมื่อเร็วๆ นี้ เป็นระบบ AI ที่สร้างขึ้นเพื่อค้นหาสารเคมีที่อาจเป็นฆาตกร ซึ่งนักพัฒนาต้องการให้แน่ใจว่าเราสามารถหลีกเลี่ยงหรือระวังสารเคมีที่คิดไม่ดีดังกล่าวได้ ปรากฎว่า AI สามารถปรับเปลี่ยนได้ค่อนข้างง่ายเพื่อเปิดเผยสารเคมีนักฆ่าเหล่านี้อย่างทุ่มเท และด้วยเหตุนี้จึงอาจทำให้คนร้ายรู้ว่าสารเคมีชนิดใดที่อาจปรุงขึ้นสำหรับแผนการชั่วร้ายสุดซึ้งของพวกเขา

ระบบที่เป็นอิสระสามารถพิสูจน์ได้อย่างชัดเจนในซองแบบใช้คู่นั้น

ในระดับหนึ่ง นั่นคือเหตุผลที่ AI Ethics และ Ethical AI เป็นหัวข้อที่สำคัญมาก ศีลของ AI Ethics ทำให้เราตื่นตัวอยู่เสมอ นักเทคโนโลยี AI ในบางครั้งอาจหมกมุ่นอยู่กับเทคโนโลยี โดยเฉพาะอย่างยิ่งการปรับให้เหมาะสมของเทคโนโลยีชั้นสูง พวกเขาไม่จำเป็นต้องพิจารณาถึงการแตกแขนงทางสังคมที่ใหญ่ขึ้น การมีกรอบความคิดด้าน AI Ethics และการทำเช่นนั้นร่วมกับการพัฒนาและการลงพื้นที่ของ AI เป็นสิ่งสำคัญสำหรับการผลิต AI ที่เหมาะสม ซึ่งรวมถึงการประเมินว่าบริษัทนำจริยธรรม AI ไปใช้อย่างไร

นอกจากการใช้หลักจรรยาบรรณของ AI โดยทั่วไปแล้ว ยังมีคำถามที่เกี่ยวข้องว่าเราควรมีกฎหมายเพื่อควบคุมการใช้ AI แบบต่างๆ หรือไม่ มีการบังคับใช้กฎหมายใหม่ในระดับสหพันธรัฐ รัฐ และระดับท้องถิ่นที่เกี่ยวข้องกับขอบเขตและลักษณะของวิธีการประดิษฐ์ AI ความพยายามในการร่างและตรากฎหมายดังกล่าวเป็นไปอย่างค่อยเป็นค่อยไป จรรยาบรรณของ AI ทำหน้าที่เป็นช่องว่างที่พิจารณา อย่างน้อยที่สุด และเกือบจะแน่นอนในระดับหนึ่งจะถูกรวมเข้ากับกฎหมายใหม่เหล่านั้นโดยตรง

พึงตระหนักว่ามีบางคนยืนกรานว่าเราไม่จำเป็นต้องมีกฎหมายใหม่ที่ครอบคลุม AI และกฎหมายที่มีอยู่ของเราก็เพียงพอแล้ว อันที่จริง พวกเขาเตือนล่วงหน้าว่าหากเราบังคับใช้กฎหมาย AI เหล่านี้ เราจะตัดราคาห่านทองคำโดยจำกัดความก้าวหน้าใน AI ที่ก่อให้เกิดประโยชน์ทางสังคมอย่างมหาศาล

เอกราชและอาวุธเป็นสองศีล

มีบทกลอนที่บางคนใช้เพื่อเตือนล่วงหน้าเกี่ยวกับระบบอิสระที่มีอาวุธทุกชนิดซึ่งได้รับการประกาศเกียรติคุณรวมเป็น หุ่นยนต์ฆ่าสัตว์.

สิ่งนี้ทำให้เกิดแง่มุมเพิ่มเติมที่เราควรครุ่นคิด

ระบบอาวุธอัตโนมัติและ/หรือระบบขับเคลื่อนอัตโนมัติที่ติดอาวุธต้องมีความเหนือกว่าหุ่นยนต์สังหารหรือสังหารหรือไม่?

บางคนก็เถียงว่าเราทำได้แน่ ไม่ตาย ระบบอัตโนมัติติดอาวุธด้วย ดังนั้น ในมุมมองนั้น มันดูไม่เหมาะสมอย่างยิ่งที่จะใช้ถ้อยคำ เช่น หุ่นยนต์ฆ่าสัตว์หรือหุ่นยนต์นักฆ่า ตัวแปรที่ไม่ร้ายแรงน่าจะสามารถปราบหรือแสดงอันตรายที่ไม่เป็นผลร้ายแรง ระบบดังกล่าวไม่ได้ฆ่า แต่มีความสามารถในการสร้างการบาดเจ็บน้อยกว่า อย่าพูดเกินความสามารถ พูดคนที่ยืนกรานว่าเราไม่ต้องหมกมุ่นอยู่กับการสังหารหมู่

ดังนั้น เราอาจมีสิ่งนี้:

  • ระบบอาวุธสังหารอัตโนมัติที่ร้ายแรง
  • ระบบปกครองตนเองที่อันตรายถึงตายที่ได้รับอาวุธ
  • ระบบอาวุธอิสระที่ไม่ทำลายล้าง
  • ระบบปกครองตนเองที่ไม่ร้ายแรงซึ่งถูกติดอาวุธ

แน่นอน ข้อโต้แย้งคือระบบอิสระใดๆ ที่ได้รับการติดตั้งอาวุธ ดูเหมือนจะมีศักยภาพที่จะเลื่อนเข้าไปในอาณาจักรแห่งความพินาศ แม้ว่าจะคาดคะเนได้เพียงว่าใช้งานบนพื้นฐานที่ไม่ก่อให้เกิดอันตรายเท่านั้น สองขั้นตอนที่เพิ่มขึ้นของการเปลี่ยนจากที่ไม่ร้ายแรงไปสู่การตายนั้นจะเกิดขึ้นอย่างรวดเร็วเมื่อคุณมีอาวุธอยู่ในมือแล้วท่ามกลางระบบอิสระ คุณคงถูกกดดันอย่างหนักที่จะให้การรับประกันที่รัดกุมว่าผู้ที่ไม่สังหารจะไม่เข้าสู่สมรภูมิแห่งความตาย (แม้ว่าบางคนจะพยายามทำเช่นนั้นในลักษณะทางคณิตศาสตร์)

ก่อนที่เราจะพูดถึงหัวข้อโดยรวมของระบบอิสระและการสร้างอาวุธให้มากขึ้น มันอาจจะสะดวกที่จะชี้ให้เห็นอย่างอื่นที่แม้สิ่งที่ชัดเจนอาจไม่จำเป็นต้องมองเห็นได้ชัดเจน

นี่มันคือ:

  • มีแง่มุมของ AI ที่เป็นส่วนหนึ่งของระบบปกครองตนเอง
  • มีด้านอาวุธที่เป็นด้านอาวุธของสมการนี้
  • AI อาจเชื่อมต่อกับอาวุธด้วย

แกะกล่องกันเลย

เราจะถือว่าระบบปกครองตนเองในปัจจุบันต้องการ AI เป็นวิธีการทางคอมพิวเตอร์พื้นฐานในการทำให้เกิดแง่มุมที่เป็นอิสระ ฉันพูดถึงเรื่องนี้เพราะคุณสามารถพยายามโต้แย้งว่าเราอาจใช้เทคโนโลยีและเทคนิคที่ไม่เกี่ยวข้องกับ AI เพื่อทำระบบอัตโนมัติ ซึ่งถึงแม้จะเป็นความจริง แต่ก็ดูมีโอกาสน้อยลงเรื่อยๆ โดยพื้นฐานแล้ว AI มีแนวโน้มที่จะอนุญาตให้มีอิสระในระดับที่สูงขึ้น และส่วนใหญ่ก็ใช้ประโยชน์จากเทคโนโลยีขั้นสูงของ AI ตามลำดับ

โอเค ดังนั้นเราจึงมีความสามารถแบบ AI ที่แทรกซึมเข้าไปในระบบอัตโนมัติและทำหน้าที่นำทางและควบคุมระบบอัตโนมัติ

เก็บไว้ที่ปลายนิ้วของคุณเป็นหลัก

เห็นได้ชัดว่าเราจำเป็นต้องมีอาวุธรูปแบบใดรูปแบบหนึ่งด้วย มิฉะนั้น เราจะมาพูดถึงเรื่องนี้ในหัวข้อระบบอิสระทำไม และ อาวุธ ใช่ เห็นได้ชัดว่ามีอาวุธอย่างใดอย่างหนึ่ง

ฉันจะไม่เจาะลึกประเภทของอาวุธที่อาจใช้ คุณสามารถเปลี่ยนอาวุธอะไรก็ได้ที่นึกออก อาจมีอาวุธประจำตัว อาจมีอาวุธทำลายล้างเชิงมวล อาจเป็นของบางอย่างที่มีกระสุนหรือโพรเจกไทล์ อาจเป็นของที่มีสารเคมีหรือส่วนประกอบที่ระเหยง่ายของอะตอม รายการไม่มีที่สิ้นสุด

การพิจารณาเพิ่มเติมคือว่า AI นั้นเชื่อมต่อกับอาวุธหรือไม่ AI อาจแค่ใช้อาวุธเพื่อขี่ ในกรณีของหุ่นยนต์สี่ขาที่กำลังยิงปืน บางทีปืนอาจกำลังถูกยิงโดยมนุษย์ที่มีรีโมทคอนโทรลเชื่อมต่อกับจุดกระตุ้นของอาวุธ หุ่นยนต์ที่เหมือนสุนัขนำทางไปยังฉากหนึ่ง และขึ้นอยู่กับมนุษย์ที่อยู่ห่างไกลเพื่อเหนี่ยวไก

ในทางกลับกัน AI อาจเป็นตัวเหนี่ยวไกเหมือนเดิม AI อาจถูกประดิษฐ์ขึ้นเพื่อนำทางและหลบหลีกเท่านั้น แต่ยังเปิดใช้งานอาวุธด้วย ในแง่นั้น AI ทำทุกอย่างตั้งแต่ A ถึง Z ไม่มีการพึ่งพามนุษย์ที่อยู่ห่างไกลเพื่อทำหน้าที่ด้านอาวุธของสิ่งต่างๆ AI ถูกตั้งโปรแกรมให้ทำเช่นนั้นแทน

เพื่อชี้แจงในกรณีการใช้งานเฉพาะของระบบอิสระที่มีอาวุธ เรามีความเป็นไปได้ประเภทนี้:

  • ระบบอัตโนมัติ: AI ขับเคลื่อนระบบอัตโนมัติทั้งหมดด้วยตัวมันเอง
  • ระบบอัตโนมัติ: AI ดำเนินการระบบอัตโนมัติ แต่มนุษย์ที่อยู่ในวงสามารถเข้าไปแทรกแซงได้
  • อาวุธยุทโธปกรณ์: มนุษย์ระยะไกลใช้อาวุธ (AI ไม่ทำ)
  • อาวุธยุทโธปกรณ์: AI ใช้อาวุธ แต่มนุษย์ที่อยู่ในวงก็สามารถเข้าไปแทรกแซงได้
  • อาวุธยุทโธปกรณ์: AI ควบคุมอาวุธทั้งหมดด้วยตัวมันเอง

ก่อนหน้านี้ ฉันได้กล่าวถึงรูปแบบต่างๆ ของการมีมนุษย์อยู่ในวงจรเกี่ยวกับระบบอัตโนมัติและยานยนต์อิสระ ดู ลิงค์ที่นี่.

เมื่อคุณดูวิดีโอที่เน้นความสนุกสนานของหุ่นยนต์สี่ขาที่เต้นและพล่าม พวกมันมักจะเป็นหุ่นยนต์ที่ AI นำทางได้เท่านั้น (นั่นคือประเพณีหรือถือว่าเป็นมารยาทที่เหมาะสมในหมู่ผู้ที่ลึกซึ้ง ในเรื่องเหล่านี้) นั่นคือสิ่งที่คุณอาจสมมติได้อย่างถูกต้อง แน่นอนว่าคุณไม่รู้แน่ชัด อาจเป็นไปได้ว่าเจ้าหน้าที่ควบคุมระยะไกลของมนุษย์กำลังนำทางหุ่นยนต์ นอกจากนี้ยังมีความเป็นไปได้ที่ AI จะเป็นส่วนหนึ่งของแนวทาง และผู้ควบคุมระยะไกลที่เป็นมนุษย์ก็ทำเช่นนั้นด้วย บางทีอาจช่วย AI หากหุ่นยนต์อยู่ในตำแหน่งที่ยากลำบากและไม่สามารถคำนวณวิธีการทำงานที่จะกระดิกตัวได้อย่างอิสระ

สาระสำคัญที่นี่คือมีหลายรสชาติที่ AI และระบบอิสระและอาวุธสามารถผสมกันได้ บางตัวมี AI ที่ขับเคลื่อนระบบอัตโนมัติแต่ไม่ได้ใช้อาวุธ มนุษย์อาจใช้อาวุธจากระยะไกล อีกมุมหนึ่งคืออาวุธอาจเปิดใช้งานล่วงหน้า และระบบอัตโนมัติส่งอาวุธที่เปิดใช้งาน ดังนั้น AI ไม่ได้เข้าร่วมโดยตรงในการกระตุ้นอาวุธต่อตนเองและทำหน้าที่เป็นยานพาหนะส่งแทน และอาจเป็นไปได้ว่า AI เป็นผู้ที่เก่งกาจในเรื่องการค้าขาย และทำขอบเขตทั้งหมดของระบบอิสระในด้านการใช้อาวุธด้วย

เลือกเลย

ในขณะเดียวกัน โปรดทราบว่าการที่คนในวงสนทนาเป็นปัจจัยสำคัญในการอภิปรายในหัวข้อนี้

เส้นแบ่งของบางคนคือถ้า AI ทำการกำหนดเป้าหมายและยิง (หรืออะไรก็ตามที่เกี่ยวข้องกับอาวุธ) จากนั้นทั้งชุดและ caboodle ได้ข้ามไปยังดินแดนที่ไม่มี ดูเหมือนว่าจะแตกต่างจากอาวุธยิงและลืมทั่วไปที่มีการเลือกเป้าหมายที่มนุษย์กำหนดไว้ล่วงหน้า เช่น โดรนลาดตระเวนที่มีขีปนาวุธพร้อมสำหรับการยิงไปยังเป้าหมายที่ แล้ว ถูกเลือกโดยมนุษย์

บางคนสงสัยว่าทำไมระบบอิสระที่ติดอาวุธจะไม่รวมถึงมนุษย์ที่อยู่ในวงตลอดกระบวนการของระบบอิสระที่อยู่ในสถานะกำลังดำเนินการอย่างแข็งขัน ดูเหมือนว่าเราอาจจะดีกว่าถ้าข้อกำหนดที่เข้มงวดคือระบบอิสระที่มีอาวุธดังกล่าวทั้งหมดต้องมีมนุษย์อยู่ในวงไม่ว่าจะทำเพื่อการทำงานของระบบอิสระหรือเพื่อใช้งานอาวุธ (หรือสำหรับทั้งสองอย่าง) . การคงไว้ซึ่งมือมนุษย์ที่แน่วแน่และมั่นคงในการผสมผสาน AI นี้อาจดูเหมือนฉลาดทีเดียว

เตรียมตัวให้พร้อมสำหรับเหตุผลยาวๆ ว่าทำไมสิ่งนี้ถึงไม่สามารถทำได้

พิจารณาปัญหาเหล่านี้:

  • มนุษย์ในวงอาจไม่เร็วพอที่จะตอบสนองได้ทันท่วงที
  • คนในวงอาจมีข้อมูลไม่เพียงพอที่จะตอบสนองตามหน้าที่
  • Human-in-the-loop อาจไม่พร้อมใช้งานในเวลาที่จำเป็น
  • มนุษย์ในวงอาจยังไม่ตัดสินใจและจะไม่ดำเนินการเมื่อจำเป็น
  • Human-in-the-loop อาจทำให้การตัดสินใจ "ผิด" (ค่อนข้าง)
  • ระบบอาจไม่สามารถเข้าถึง Human-in-the-loop ได้ในเวลาที่ต้องการ
  • คนในวงอาจสับสนและถูกครอบงำ
  • เป็นต้น

คุณไม่ต้องสงสัยเลยว่าจะดูรายการความอ่อนแอและข้อจำกัดของมนุษย์ จากนั้นจึงได้ข้อสรุปที่เคร่งขรึมว่าการคัดแยกมนุษย์ในวงออกนั้นสมเหตุสมผลและมักใช้ AI แทนเสมอ นี่อาจเป็นการยกเว้นของมนุษย์ในวงหรือบางที AI อาจสามารถแทนที่การออกแบบของมนุษย์ในวงที่ฝังแน่น ดูการวิเคราะห์ของฉันว่าความขัดแย้งระหว่าง AI และมนุษย์ในวงสามารถนำไปสู่สถานการณ์ที่ไม่ปลอดภัยได้อย่างไร ครอบคลุมที่ ลิงค์ที่นี่.

บ่อยครั้ง รายการที่ดูถูกเหยียดหยามของข้อเสียที่เน้นมนุษย์ในแบบเรียลไทม์ประเภทนี้ถูกทิ้งไว้ตามความเหมาะสมและทิ้งความประทับใจที่เอ้อระเหยว่า AI จะต้องก้าวกระโดดและเป็นทางเลือกที่ฉลาดกว่าการมีมนุษย์อยู่ในวง . อย่าตกอยู่ในกับดักที่ทรยศ มีการแลกเปลี่ยนที่มีสติที่เกี่ยวข้อง

พิจารณาการแตกสาขาของ AI:

  • AI อาจพบข้อผิดพลาดที่ทำให้หลงทาง
  • AI อาจถูกครอบงำและล็อคไม่ตอบสนอง
  • AI อาจมีข้อบกพร่องของนักพัฒนาที่ทำให้เกิดพฤติกรรมที่ไม่แน่นอน
  • AI อาจได้รับความเสียหายจากไวรัสผู้กระทำผิดที่ฝังไว้
  • AI อาจถูกแฮ็กเกอร์เข้าครอบครองในแบบเรียลไทม์
  • AI อาจถูกมองว่าคาดเดาไม่ได้เนื่องจากความซับซ้อน
  • AI อาจคำนวณการตัดสินใจที่ "ผิด" (ค่อนข้าง)
  • เป็นต้น

ฉันเชื่อว่าคุณจะเห็นได้ว่ามีข้อแลกเปลี่ยนระหว่างการใช้มนุษย์ในวงกว้างกับการพึ่งพา AI เพียงอย่างเดียว ในกรณีที่คุณอยากจะแนะนำว่าวิธีแก้ปัญหาที่พร้อมใช้งานคือใช้ทั้งสองอย่าง ฉันแค่ต้องการเน้นว่าคุณจะได้รับสิ่งที่ดีที่สุดจากทั้งสองโลก แต่คุณสามารถได้รับสิ่งที่เลวร้ายที่สุดของทั้งสองโลกได้เช่นกัน อย่าทึกทักเอาเองว่ามันจะเป็นสิ่งที่ดีที่สุดของทั้งสองโลกเสมอและแน่นอน

คุณอาจค่อนข้างแปลกใจกับข้อเสียข้อใดข้อหนึ่งข้างต้นเกี่ยวกับ AI โดยเฉพาะอย่างยิ่งที่ AI อาจเป็น ทายไม่ถูก. เราเคยเชื่อว่า AI ควรมีความสมเหตุสมผลและแม่นยำทางคณิตศาสตร์อย่างเคร่งครัด ดังนั้น คุณอาจคาดหวังว่า AI จะสามารถคาดเดาได้อย่างเต็มที่ เราควรจะรู้ว่าสิ่งที่ AI จะทำ ช่วงท้ายเรื่อง.

ขออภัยที่ทำให้ลูกโป่งแตก แต่มายาคติเรื่องการคาดเดานี้เป็นการเรียกชื่อผิด ขนาดและความซับซ้อนของ AI สมัยใหม่มักเป็นปัญหาที่ไม่อาจคาดเดาได้ สิ่งนี้เห็นได้จากความโกลาหลของ AI เชิงจริยธรรมเกี่ยวกับการใช้ Machine Learning (ML) และ Deep Learning (DL) ในปัจจุบัน ฉันจะอธิบายเพิ่มเติมอีกสักครู่

นอกจากนี้ คุณอาจต้องการดูการวิเคราะห์ล่าสุดของฉันเกี่ยวกับแนวโน้มที่จะเกิดขึ้นในการพยายามทำให้แน่ใจว่าระบบ AI ที่ตรวจสอบได้และถูกต้องทางคณิตศาสตร์ที่พิสูจน์ได้ผ่านระบบความปลอดภัย AI ล่าสุดที่ ลิงค์ที่นี่.

ใคร่ครวญกฎของถนน

ฉันได้กล่าวถึงแนวคิดของเป้าหมายและการกำหนดเป้าหมาย ซึ่งเป็นคำศัพท์ที่ค่อนข้างหนักหน่วงซึ่งสมควรได้รับความสนใจอย่างยิ่ง

เราสามารถไตร่ตรองสิ่งนี้:

  • เป้าหมายที่เป็นมนุษย์
  • เป้าหมายที่ไม่ใช่มนุษย์ แต่เป็นสิ่งมีชีวิต
  • เป้าหมายที่ตีความว่าเป็นทรัพย์สิน

สมมุติว่าเรามีระบบอิสระที่ได้รับอาวุธ AI ใช้เพื่อนำทางระบบอัตโนมัติและใช้สำหรับอาวุธ AI ทำทุกอย่างตั้งแต่ A ถึง Z ไม่มีข้อกำหนดสำหรับมนุษย์ที่อยู่ในวง ในแง่ของการกำหนดเป้าหมาย AI จะเลือกเป้าหมาย ไม่มีการกำหนดเป้าหมายล่วงหน้าที่มนุษย์กำหนดขึ้น แต่โดยทั่วไปแล้ว AI ได้รับการตั้งโปรแกรมให้ตรวจสอบได้ว่ามีมนุษย์ที่ต้องตกเป็นเป้าหมายหรือไม่ (อาจสแกนหาการกระทำที่เป็นปรปักษ์ เครื่องแบบบางประเภท และอื่นๆ)

กับฉันในเรื่องนี้เพื่อให้ห่างไกล?

สถานการณ์นี้ค่อนข้างเป็นเหตุการณ์ที่ทำให้เกิดเสียงโวยวายมากที่สุดเกี่ยวกับระบบอิสระที่มีอาวุธ

ข้อกังวลที่ระบุไว้คือ AI กำลังทำ (อย่างน้อย) สามสิ่งที่ไม่ควรได้รับอนุญาตให้ทำ:

  • กำหนดเป้าหมายมนุษย์เป็นเป้าหมาย
  • การกำหนดเป้าหมายโดยไม่ต้องใช้มนุษย์ในวง
  • ที่อาจกระทำการคาดเดาไม่ได้ly

ขอให้สังเกตว่ามีการกล่าวถึงความกังวลเกี่ยวกับ AI ที่ไม่สามารถคาดเดาได้ อาจเป็นไปได้ว่าแม้ว่า AI จะถูกตั้งโปรแกรมให้กำหนดเป้าหมายมนุษย์บางประเภท แต่การเขียนโปรแกรม AI ไม่ใช่สิ่งที่เราคิดว่ามันเป็น และ AI ก็ลงเอยด้วยการกำหนดเป้าหมาย "มิตร" นอกเหนือจากที่ AI ควรจะตีความว่าเป็น "ศัตรู" ” (หรืออาจจะแทน) ยิ่งไปกว่านั้น แม้ว่าเราเลือกที่จะรวมข้อกำหนดของมนุษย์ในวงไว้ แต่ความคาดเดาไม่ได้ของ AI อาจหมายความว่าเมื่อ AI ควรจะหารือกับมนุษย์ในวง มันไม่สามารถทำได้ และกระทำโดยปราศจากการแทรกแซงของมนุษย์

คุณอาจพบว่ามีความสนใจที่คณะกรรมการกาชาดระหว่างประเทศ (ICRC) ได้เสนอจุดยืนที่ครอบคลุมสามจุดเกี่ยวกับระบบอาวุธอิสระที่อธิบายรายละเอียดเกี่ยวกับข้อกังวลประเภทนี้ (ตามเว็บไซต์ของ ICRC):

1. “ระบบอาวุธอิสระที่คาดเดาไม่ได้ควรถูกปกครองโดยชัดแจ้ง ออกโดยเฉพาะอย่างยิ่งเนื่องจากผลกระทบตามอำเภอใจของพวกเขา สิ่งนี้ทำได้ดีที่สุดด้วยการห้ามระบบอาวุธอิสระที่ออกแบบหรือใช้งานในลักษณะที่เอฟเฟกต์ไม่สามารถเข้าใจ คาดการณ์ และอธิบายได้อย่างเพียงพอ”

2. “ในแง่ของการพิจารณาทางจริยธรรมในการปกป้องมนุษยชาติ และเพื่อรักษากฎของกฎหมายมนุษยธรรมระหว่างประเทศสำหรับการคุ้มครองพลเรือนและนักต่อสู้เพื่อการต่อสู้ การใช้ระบบอาวุธอิสระในการกำหนดเป้าหมายมนุษย์ควรถูกตัดออก. สิ่งนี้จะสำเร็จได้ดีที่สุดผ่านการห้ามระบบอาวุธอัตโนมัติที่ออกแบบหรือใช้บังคับกับบุคคล”

3. “เพื่อปกป้องพลเรือนและวัตถุของพลเรือน รักษากฎของกฎหมายมนุษยธรรมระหว่างประเทศและปกป้องมนุษยชาติ การออกแบบและการใช้ระบบอาวุธอัตโนมัติที่ไม่ถูกห้ามควรได้รับการควบคุม รวมถึงผ่านการรวมกันของ: จำกัดประเภทเป้าหมายเช่นการบังคับวัตถุที่มีวัตถุประสงค์ทางการทหารโดยธรรมชาติ การจำกัดระยะเวลา ขอบเขตทางภูมิศาสตร์ และขนาดการใช้งานรวมถึงเพื่อให้มนุษย์ใช้ดุลยพินิจและการควบคุมที่เกี่ยวข้องกับการโจมตีเฉพาะ ข้อ จำกัด เกี่ยวกับสถานการณ์การใช้งานเช่น การจำกัดพวกเขาให้อยู่ในสถานการณ์ที่ไม่มีพลเรือนหรือวัตถุพลเรือน rข้อกำหนดสำหรับปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักรโดยเฉพาะอย่างยิ่งเพื่อให้แน่ใจว่าการกำกับดูแลของมนุษย์มีประสิทธิผลและการแทรกแซงและการปิดใช้งานในเวลาที่เหมาะสม”

ในมุมมองที่เกี่ยวข้อง องค์การสหประชาชาติ (UN) ผ่านอนุสัญญาว่าด้วยอาวุธทั่วไป (CCW) ในเจนีวาได้กำหนดหลักปฏิบัติที่ไม่ผูกมัด XNUMX ประการเกี่ยวกับอาวุธทำลายล้างอิสระตามรายงานอย่างเป็นทางการที่โพสต์ออนไลน์ (ครอบคลุมการอ้างอิงถึงมนุษยธรรมระหว่างประเทศที่เกี่ยวข้อง กฎหมายหรือข้อกำหนดของ IHL):

(ก) กฎหมายมนุษยธรรมระหว่างประเทศยังคงมีผลบังคับใช้อย่างเต็มที่กับระบบอาวุธทั้งหมด ซึ่งรวมถึงการพัฒนาและการใช้ระบบอาวุธทำลายล้างอัตโนมัติที่อาจเกิดขึ้นได้

(b) ความรับผิดชอบของมนุษย์ในการตัดสินใจเกี่ยวกับการใช้ระบบอาวุธต้องคงไว้เนื่องจากความรับผิดชอบไม่สามารถถ่ายโอนไปยังเครื่องจักรได้ สิ่งนี้ควรพิจารณาตลอดวงจรชีวิตของระบบอาวุธ

(ค) ปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร ซึ่งอาจอยู่ในรูปแบบที่หลากหลายและถูกนำไปใช้ในขั้นตอนต่างๆ ของวงจรชีวิตของอาวุธ ควรตรวจสอบให้แน่ใจว่าการใช้ระบบอาวุธที่มีศักยภาพโดยอิงจากเทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัตินั้นอยู่ใน การปฏิบัติตามกฎหมายระหว่างประเทศที่เกี่ยวข้อง โดยเฉพาะ IHL ในการพิจารณาคุณภาพและขอบเขตของปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร ควรพิจารณาปัจจัยต่างๆ ซึ่งรวมถึงบริบทการปฏิบัติงาน และคุณลักษณะและความสามารถของระบบอาวุธโดยรวม

(ง) ความรับผิดชอบในการพัฒนา ปรับใช้ และการใช้ระบบอาวุธที่เกิดขึ้นใหม่ในกรอบการทำงานของ CCW จะต้องได้รับการประกันตามกฎหมายระหว่างประเทศที่บังคับใช้ รวมถึงผ่านการดำเนินงานของระบบดังกล่าวภายในสายการบังคับบัญชาและการควบคุมของมนุษย์ที่มีความรับผิดชอบ

(จ) ตามพันธกรณีของรัฐภายใต้กฎหมายระหว่างประเทศ ในการศึกษา การพัฒนา การได้มา หรือการนำอาวุธ วิธี หรือวิธีการทำสงครามใหม่มาใช้ ต้องมีการกำหนดว่าการจ้างงานจะ ในบางสถานการณ์หรือทั้งหมด ห้ามโดยกฎหมายระหว่างประเทศ

(f) เมื่อมีการพัฒนาหรือจัดหาระบบอาวุธใหม่โดยอาศัยเทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัติที่ร้ายแรง การรักษาความปลอดภัยทางกายภาพ การป้องกันที่ไม่ใช่ทางกายภาพที่เหมาะสม (รวมถึงการรักษาความปลอดภัยทางไซเบอร์จากการแฮ็กหรือการปลอมแปลงข้อมูล) ความเสี่ยงที่กลุ่มผู้ก่อการร้ายจะเข้าซื้อกิจการ และควรพิจารณาความเสี่ยงของการแพร่กระจาย

(g) การประเมินความเสี่ยงและมาตรการบรรเทาผลกระทบควรเป็นส่วนหนึ่งของการออกแบบ การพัฒนา การทดสอบ และวงจรการใช้งานของเทคโนโลยีที่เกิดขึ้นใหม่ในระบบอาวุธใดๆ

(h) ควรพิจารณาถึงการใช้เทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัติที่ร้ายแรง เพื่อรักษาการปฏิบัติตาม IHL และภาระผูกพันทางกฎหมายระหว่างประเทศอื่นๆ

(i) ในการจัดทำมาตรการทางนโยบายที่อาจเกิดขึ้น เทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธอิสระที่ร้ายแรงไม่ควรถูกดัดแปลงให้เป็นแบบมานุษยวิทยา

(j) การอภิปรายและมาตรการเชิงนโยบายใด ๆ ที่อาจเกิดขึ้นภายใต้บริบทของ CCW ไม่ควรขัดขวางความก้าวหน้าหรือการเข้าถึงการใช้งานอย่างสันติของเทคโนโลยีอัจฉริยะที่เป็นอิสระ

(ฎ) CCW เสนอกรอบการทำงานที่เหมาะสมเพื่อจัดการกับปัญหาของเทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัติภายในบริบทของวัตถุประสงค์และวัตถุประสงค์ของอนุสัญญา ซึ่งพยายามสร้างสมดุลระหว่างความจำเป็นทางทหารและการพิจารณาด้านมนุษยธรรม

ความลังเลใจที่เราพบในตัวเอง

กฎหมายสงคราม กฎหมายการขัดกันทางอาวุธ หรือ IHL (กฎหมายมนุษยธรรมระหว่างประเทศ) เหล่านี้เป็นแนวทางที่สำคัญและมีแนวโน้มว่าจะเป็นไปได้เสมอในการพิจารณาสิ่งที่เราอาจพยายามทำเกี่ยวกับการถือกำเนิดของระบบอิสระที่มีอาวุธ ไม่ว่าจะด้วยการออกแบบหลักสำคัญหรือ โดยวิธีการภายหลัง

เราหวังเป็นอย่างยิ่งว่าการห้ามระบบอัตโนมัติที่มีอาวุธร้ายแรงจะได้รับการปฏิบัติตามอย่างเคร่งครัดและเชื่อฟัง ปัญหาคือมีห้องเลื้อยจำนวนมากถูกพบอย่างมีเล่ห์เหลี่ยมในการแบนที่จริงใจที่สุด อย่างที่พวกเขาพูดกันว่ากฎมีขึ้นเพื่อทำลาย คุณสามารถเดิมพันได้ว่าในที่ที่อะไร ๆ หลวม ๆ ขนลุก riffraff จะคุ้ยเขี่ยช่องว่างและพยายามขยิบตาให้ผิดกฎ

ต่อไปนี้คือช่องโหว่ที่อาจเกิดขึ้นซึ่งควรค่าแก่การพิจารณา:

  • การเรียกร้องที่ไม่ร้ายแรง. ยี่ห้อ ไม่ตาย ระบบอาวุธอัตโนมัติ (ดูเหมือนจะไม่เป็นไรเพราะอยู่นอกขอบเขตการแบน) ซึ่งคุณสามารถเปลี่ยนค่าเล็กน้อยให้กลายเป็นอันตรายถึงชีวิตได้ (คุณจะอยู่นอกเหนือการแบนในนาทีสุดท้ายเท่านั้น)
  • การอ้างสิทธิ์ของระบบปกครองตนเองเท่านั้น. ยึดถือการห้ามโดยไม่ได้สร้างระบบอัตโนมัติที่เน้นอันตรายถึงตาย ในขณะเดียวกันก็สร้างความก้าวหน้าให้มากเท่าๆ กับการออกแบบระบบอัตโนมัติในชีวิตประจำวันที่ยังไม่ได้ (ยัง) ติดอาวุธ แต่คุณสามารถดัดแปลงเล็กน้อยเพื่อเป็นอาวุธได้
  • ข้อเรียกร้องของการไม่รวมกันเป็นหนึ่ง. ประดิษฐ์ระบบอัตโนมัติที่ไม่ได้เป็นอาวุธเลย และเมื่อถึงเวลานั้น การทำอาวุธแบบ piggyback นั้นคุณสามารถพยายามโต้แย้งอย่างฉุนเฉียวว่ามันเป็นสององค์ประกอบที่แยกจากกัน ดังนั้นจึงโต้แย้งว่าสิ่งเหล่านี้ไม่อยู่ในเกณฑ์การให้คะแนนของออล-อิน-วัน ระบบอาวุธอัตโนมัติหรือลูกพี่ลูกน้องของมัน
  • อ้างว่าไม่ใช่อิสระ. สร้างระบบอาวุธที่ดูเหมือนไม่มีความสามารถอิสระ ปล่อยให้มีที่ว่างในระบบที่สันนิษฐานว่าไม่ใช่ระบบปกครองตนเองนี้เพื่อปล่อยความเป็นอิสระจาก AI เมื่อจำเป็น ให้เสียบเอกราชและคุณก็พร้อมที่จะเริ่ม
  • อื่นๆ

มีปัญหาอื่นๆ มากมายในการพยายามแบนระบบอาวุธอัตโนมัติที่ร้ายแรง ฉันจะพูดถึงอีกสองสามเรื่อง

ผู้เชี่ยวชาญบางคนโต้แย้งว่าการห้ามไม่เป็นประโยชน์อย่างยิ่งและควรมีบทบัญญัติด้านกฎระเบียบแทน แนวคิดก็คือจะอนุญาตให้ใช้อุปกรณ์เหล่านี้ได้ แต่ต้องมีการเฝ้าระวังอย่างเข้มงวด มีการจัดวางบทกลอนของการใช้งานที่ชอบด้วยกฎหมาย พร้อมด้วยวิธีการกำหนดเป้าหมายที่ชอบด้วยกฎหมาย ประเภทความสามารถที่ชอบด้วยกฎหมาย สัดส่วนที่ถูกต้องตามกฎหมาย และอื่นๆ ในทำนองเดียวกัน

ในทัศนะของพวกเขา การแบนอย่างตรงไปตรงมาก็เหมือนกับการเอาหัวจุ่มทรายและแสร้งทำเป็นว่าช้างในห้องนั้นไม่มีอยู่จริง แม้ว่าการโต้เถียงนี้จะทำให้เลือดเดือดของผู้ที่โต้เถียงกับข้อโต้แย้งที่ว่าโดยการห้ามคุณสามารถลดการล่อใจอื่น ๆ เพื่อติดตามระบบประเภทนี้ได้อย่างมาก แน่นอนว่าบางคนจะอวดการแบน แต่อย่างน้อยก็หวังว่าคนส่วนใหญ่จะไม่ จากนั้นคุณสามารถเพ่งความสนใจไปที่คนที่อวดดีและไม่ต้องเสียความสนใจไปที่ทุกคน

รอบและรอบการอภิปรายเหล่านี้ไป

ข้อกังวลอีกประการหนึ่งที่มักสังเกตเห็นคือแม้ว่าความดีจะปฏิบัติตามคำสั่งห้าม คนชั่วจะไม่ทำอย่างนั้น นี้ทำให้ดีในท่าหมัด คนเลวจะมีระบบอาวุธอิสระประเภทนี้ และความดีจะไม่มี เมื่อสิ่งต่าง ๆ ถูกเปิดเผยว่าสิ่งเลวร้ายมีแล้ว มันจะสายเกินไปที่ความดีจะตามทัน กล่าวโดยย่อ สิ่งเดียวที่ควรทำคือเตรียมต่อสู้กับไฟด้วยไฟ

นอกจากนี้ยังมีการโต้แย้งแบบคลาสสิก หากทางเลือกที่ดีที่จะสร้างระบบอิสระที่มีอาวุธก็สามารถนำมาใช้เพื่อยับยั้งคนเลวจากการแสวงหาการแย่งชิง ไม่ว่าความดีจะติดอาวุธที่ดีกว่าและห้ามปรามคนชั่ว หรือความดีจะพร้อมเมื่อคนเลวอาจเปิดเผยว่าพวกเขาได้วางแผนระบบเหล่านั้นอย่างลับๆ ล่อๆ มาโดยตลอด

เคาน์เตอร์สำหรับเคาน์เตอร์เหล่านี้คือการสร้างระบบอัตโนมัติที่มีอาวุธ คุณกำลังแข่งขันด้านอาวุธ อีกฝ่ายก็จะพยายามหามาให้เหมือนกัน แม้ว่าเทคโนโลยีจะไม่สามารถสร้างระบบดังกล่าวขึ้นมาใหม่ได้ แต่ตอนนี้พวกเขาสามารถขโมยแผนของ "ดี" ย้อนกลับวิศวกรรมความกล้าของไฮเทคหรือเลียนแบบสิ่งที่พวกเขาเห็นว่าเป็นความพยายามและความจริง วิธีที่จะทำให้งานสำเร็จลุล่วง

อ่า เป็นการโต้กลับบ้าง ทั้งหมดนี้อาจนำไปสู่การลดความขัดแย้งลงได้ด้วยการดูถูกซึ่งกันและกัน หากฝ่าย ก รู้ว่าฝ่าย ข มีอาวุธระบบสังหารอัตโนมัติ และฝ่าย ข รู้ว่าฝ่าย ก มีอาวุธดังกล่าว พวกเขาก็อาจจะนั่งแน่นและไม่โดนโจมตี สิ่งนี้มีออร่าที่ชัดเจนของความรู้สึกทำลายล้างซึ่งกันและกัน (MAD)

เป็นต้น

AI ในเอกราช

ตรวจสอบให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่).

เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

โปรดใช้ความระมัดระวังในการปรับเปลี่ยน AI ในปัจจุบัน

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

ด้วยภูมิหลังพื้นฐานที่เพิ่มเข้ามานั้น เราจึงกลับมาที่ระบบอัตโนมัติและหัวข้อการสร้างอาวุธอีกครั้ง ก่อนหน้านี้เราเห็นว่า AI เข้าสู่องค์ประกอบระบบอัตโนมัติและยังสามารถเข้าสู่องค์ประกอบอาวุธได้ AI ของวันนี้ไม่มีความรู้สึก สิ่งนี้ควรค่าแก่การทำซ้ำและฉันจะเน้นสิ่งนี้เพื่อเพิ่มข้อมูลเชิงลึกในเรื่องเหล่านี้

ลองสำรวจบางสถานการณ์เพื่อดูว่านี่เป็นข้อพิจารณาที่สำคัญอย่างไร ฉันจะเปลี่ยนจากการปฐมนิเทศในช่วงสงครามในหัวข้อนี้สักครู่และแสดงให้เห็นว่าเรื่องนี้แทรกซึมเข้าไปในสภาพแวดล้อมทางสังคมอื่น ๆ ได้อย่างไร ให้ตัวเองมั่นคงตามนั้น

ระบบขับเคลื่อนอัตโนมัติแบบ AI เช่น ยานยนต์ไร้คนขับ ซึ่งเราจะบอกว่าไม่มีส่วนเกี่ยวข้องกับอาวุธแต่อย่างใด มนุษย์มาพร้อมเพื่อใช้ยานยนต์ที่เป็นอิสระ บุคคลนั้นติดอาวุธด้วยอาวุธลางสังหรณ์ สมมติว่าเพื่อประโยชน์ในการอภิปรายในสถานการณ์เฉพาะนี้ว่าบุคคลนั้นมีบางสิ่งที่ไม่ดีในใจ บุคคลนั้นเข้าไปในยานพาหนะที่เป็นอิสระ (ถืออาวุธของตนโดยซ่อนหรือไม่ปกปิดไม่ว่าด้วยวิธีใด)

รถยนต์ไร้คนขับจะไปยังจุดหมายปลายทางตามที่ผู้ขี่ร้องขอ ในกรณีนี้ AI จะขนส่งผู้โดยสารรายนี้โดยทางโปรแกรมจากจุดรับหนึ่งไปยังปลายทางที่กำหนด เช่นเดียวกับที่ดำเนินการมาหลายสิบหรือหลายร้อยเที่ยวในแต่ละวัน

หากนี่เป็นคนขับและยานพาหนะที่ขับเคลื่อนโดยมนุษย์ ก็น่าจะมีโอกาสที่คนขับที่เป็นมนุษย์จะรู้ว่าผู้โดยสารมีอาวุธและดูเหมือนจะมีเจตนาไม่ดี คนขับที่เป็นมนุษย์อาจปฏิเสธที่จะขับรถ หรือคนขับที่เป็นมนุษย์อาจขับรถไปที่สถานีตำรวจ หรือบางทีคนขับที่เป็นมนุษย์อาจพยายามปราบผู้โดยสารที่ติดอาวุธ (มีกรณีที่มีการรายงาน) หรือห้ามไม่ให้ผู้โดยสารใช้อาวุธ มันค่อนข้างซับซ้อนและสามารถมีได้หลายรูปแบบ คุณคงถูกกดดันอย่างหนักที่จะยืนยันว่ามีคำตอบที่ถูกต้องเพียงข้อเดียวเท่านั้นที่จะแก้ไขสถานการณ์ดังกล่าว น่าเศร้าที่สถานการณ์กำลังก่อกวนและอันตรายอย่างเห็นได้ชัด

AI ในกรณีนี้ไม่น่าจะได้รับการตั้งโปรแกรมสำหรับความเป็นไปได้ประเภทใดประเภทหนึ่ง กล่าวโดยสรุป ผู้โดยสารที่ติดอาวุธอาจใช้อาวุธของตนได้ โดยดำเนินการจากภายในยานพาหนะที่เป็นอิสระในระหว่างการเดินทาง ระบบขับเคลื่อน AI จะยังคงเดินทางต่อไป และรถยนต์ขับเคลื่อนอัตโนมัติจะมุ่งหน้าไปยังตำแหน่งที่ระบุของผู้โดยสาร (สมมติว่าปลายทางไม่ถือว่าอยู่นอกขอบเขต)

ระบบการขับขี่แบบ AI ในปัจจุบันส่วนใหญ่จะเน้นที่ถนนเป็นหลักเท่านั้น ไม่ได้เน้นที่ความพยายามของผู้ขับขี่

สิ่งต่าง ๆ อาจเลวร้ายกว่านี้

สมมติว่ามีคนต้องการขนส่งของชำจำนวนมากไปยังสถานที่ที่นำอาหารพิเศษมามอบให้คนขัดสน บุคคลนั้นร้องขอยานพาหนะที่เป็นอิสระและวางถุงของชำไว้ที่เบาะหลังของรถ พวกเขาจะไม่ร่วมเดินทางและเพียงใช้ยานพาหนะที่เป็นอิสระเพื่อส่งถุงอาหารให้พวกเขา

ดูเหมือนจะสมบูรณ์แบบ

ลองนึกภาพว่าคนขี้ขลาดเลือกที่จะวางอาวุธบางรูปแบบไว้ในรถยนต์ที่เป็นอิสระแทนที่จะใช้แนวคิดเรื่องถุงของชำที่สงบสุข ฉันคิดว่าคุณสามารถเดาได้ว่าจะเกิดอะไรขึ้น นี่เป็นข้อกังวลที่ฉันได้ตักเตือนซ้ำแล้วซ้ำเล่าในคอลัมน์ของฉันและเตือนล่วงหน้าว่าเราจำเป็นต้องรับมือไม่ช้าก็เร็ว

การตอบสนองที่เสนอต่อสถานการณ์ประเภทนี้คือบางทียานพาหนะที่เป็นอิสระทั้งหมดสามารถตั้งโปรแกรมให้ใช้ประโยชน์จากกล้องและเซ็นเซอร์อื่น ๆ เพื่อพยายามตรวจจับว่าผู้โดยสารที่มีศักยภาพมีอาวุธและมีเจตนาร้ายหรือไม่ บางที AI อาจถูกตั้งโปรแกรมให้ทำเช่นนี้ หรือ AI แบบอิเล็กทรอนิกส์และเงียบ ๆ เตือนพนักงานควบคุมระยะไกลที่มองเห็นผ่านกล้องและตรวจสอบและอาจโต้ตอบกับผู้โดยสาร ทั้งหมดนี้เป็นส่วนหนึ่งของเวิร์มที่ซับซ้อนและยากจะรักษาได้ ซึ่งทำให้เกิดปัญหาความเป็นส่วนตัวที่รุนแรง และความกังวลด้านจริยธรรมด้านจริยธรรมอื่นๆ ที่อาจเกิดขึ้นอีกมากมาย ดูความคุ้มครองของฉันที่ ลิงค์ที่นี่.

อีกทางเลือกหนึ่งที่ค่อนข้างคล้ายคลึงกันคือ AI มีการเขียนโปรแกรมจริยธรรมแบบฝังบางประเภทที่พยายามทำให้ AI สามารถตัดสินตามหลักจริยธรรมหรือศีลธรรมซึ่งปกติแล้วจะสงวนไว้สำหรับผู้มีอำนาจตัดสินใจของมนุษย์ ฉันได้ตรวจสอบประเภทการต้มเบียร์เหล่านี้ของผู้พยากรณ์จรรยาบรรณการคำนวณที่ฝังด้วย AI แล้วดู ลิงค์ที่นี่ และ ลิงค์ที่นี่.

ย้อนกลับไปที่สถานการณ์สมรภูมิในสนามรบ ลองนึกภาพว่าระบบอาวุธอัตโนมัติร้ายแรงกำลังแล่นอยู่เหนือเขตต่อสู้ AI กำลังดำเนินการระบบอัตโนมัติ AI กำลังปฏิบัติการอาวุธบนเครื่องบิน ก่อนหน้านี้เรามีความนึกคิดถึงความเป็นไปได้ที่ AI อาจถูกตั้งโปรแกรมให้สแกนหาการเคลื่อนไหวที่ดูเหมือนเป็นปฏิปักษ์หรือตัวบ่งชี้อื่นๆ ของเป้าหมายมนุษย์ซึ่งถือว่าเป็นการสู้รบที่ถูกต้อง

AI แบบเดียวกันนี้ควรมีองค์ประกอบเชิงจริยธรรมบางประเภทที่พยายามคำนวณด้วยการคำนวณว่ามนุษย์ในวงจะทำอะไรได้บ้าง ทำหน้าที่แทนการมีมนุษย์อยู่ในวง?

บ้างก็ว่าใช่ เรามาติดตามกัน บางคนหดตัวด้วยความสยดสยองและกล่าวว่าเป็นไปไม่ได้หรือละเมิดความศักดิ์สิทธิ์ของมนุษยชาติ

หนอนอีกกระป๋องหนึ่ง

สรุป

สำหรับผู้ที่สนใจในหัวข้อนี้ มีอะไรอีกมากที่จะพูดคุย

ฉันจะให้คุณลองชิมปริศนาที่จู้จี้อย่างรวดเร็ว

โดยปกติเราคาดหวังว่ามนุษย์จะต้องรับผิดชอบต่อสิ่งที่เกิดขึ้นในช่วงสงครามในที่สุด หาก AI กำลังควบคุมระบบอาวุธอัตโนมัติหรือควบคุมระบบอิสระที่มีโอกาสถูกติดอาวุธ และระบบนี้ทำอะไรบางอย่างในสนามรบที่เชื่อว่าไร้เหตุผล จะโทษใครหรือใครในเรื่องนี้

คุณอาจโต้แย้งว่า AI ควรรับผิดชอบ แต่ถ้าเป็นเช่นนั้น มันหมายความว่าอย่างไรกันแน่? เรายังไม่ถือว่า AI ในปัจจุบันเป็นศูนย์รวมของความเป็นนิติบุคคล ดูคำอธิบายของฉันที่ ลิงค์ที่นี่. ไม่มีการปักหางบนลาในกรณีของ AI บางทีถ้าวันหนึ่ง AI มีสติสัมปชัญญะ คุณก็ลองทำดู จนกว่าจะถึงตอนนั้น นี้ค่อนข้างจะเข้าถึงได้ (บวกกับบทลงโทษหรือผลสะท้อนที่ AI จะได้รับ ดูการวิเคราะห์ของฉันที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่, ตัวอย่างเช่น).

หาก AI ไม่ใช่ผู้ต้องสงสัยที่รับผิดชอบ เราอาจกล่าวโดยธรรมชาติว่าสิ่งที่มนุษย์หรือมนุษย์ประดิษฐ์ขึ้น AI นั้นควรรับผิดชอบ คุณสามารถทำสิ่งนี้ได้หรือไม่ถ้า AI ใช้งานระบบอิสระและมนุษย์บางคนมาพร้อมกับอาวุธ? คุณติดตามนักพัฒนา AI หรือไม่? หรือผู้ที่ปรับใช้ AI? หรือเพียงแค่นักแสดงติดอาวุธ?

ฉันเชื่อว่าคุณคงเข้าใจว่าฉันเพิ่งแตะยอดภูเขาน้ำแข็งในการสนทนาอันอบอุ่น

สำหรับตอนนี้ ไปข้างหน้าและสรุปวาทกรรมนี้ คุณอาจจำได้ว่า John Lyly ใน Euphues: กายวิภาคของวิทย์ ในปี ค.ศ. 1578 ได้กล่าวไว้อย่างน่าจดจำว่าทุกอย่างยุติธรรมในความรักและสงคราม

เขาจะนึกถึงการเกิดขึ้นของระบบอาวุธอัตโนมัติและการถือกำเนิดของระบบอิสระที่ติดอาวุธเช่นเดียวกันหรือไม่?

แน่นอนเราต้องใส่สิ่งนี้ไว้ในใจของเราทันที

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- อาวุธ-ระบบ-และ-การ-เอารัดเอาเปรียบ-ai-driven-autonomous-systems-ที่-มี-มาร-อาวุธ/