จริยธรรมของ AI และกฎหมาย AI ถามคำถามยาก ๆ เกี่ยวกับคำมั่นสัญญาใหม่นั้นโดยผู้ผลิตหุ่นยนต์เต้นบอกว่าพวกเขาจะหลีกเลี่ยงการใช้อาวุธ AI

คุณอาจเคยเห็นในข่าวเมื่อสัปดาห์ที่แล้วหรือสังเกตเห็นในโซเชียลมีเดียเกี่ยวกับคำมั่นสัญญาที่ประกาศโดยผู้ผลิตหุ่นยนต์บางคนเกี่ยวกับจุดมุ่งหมายที่พวกเขาอ้างว่าเป็นอาวุธเพื่อหลีกเลี่ยงการสร้างอาวุธ AI ของหุ่นยนต์เอนกประสงค์ ฉันจะอธิบายรายละเอียดให้คุณทราบในอีกสักครู่ ดังนั้นอย่ากังวลหากคุณไม่เข้าใจเรื่องนี้

ปฏิกิริยาต่อถ้อยแถลงนี้เป็นไปอย่างรวดเร็ว และบางทีตามปกติในสังคมที่มีการแบ่งขั้วของเรา มีทั้งคำชมเชยและบางครั้งก็เยาะเย้ยวิพากษ์วิจารณ์หรือสงสัยอย่างน่ารังเกียจอย่างจริงจัง

เป็นเรื่องของสองโลก

ในโลกใบหนึ่ง บางคนบอกว่านี่คือสิ่งที่เราต้องการจริงๆ รับผิดชอบ นักพัฒนาหุ่นยนต์ AI ประกาศ

ขอบคุณพระเจ้าที่อยู่ด้านขวาของปัญหาที่จะค่อยๆ มองเห็นได้ชัดเจนขึ้นและน่าเป็นห่วงมากขึ้น หุ่นยนต์เต้นน่ารักเหล่านี้เป็นปัญหาเพราะมันค่อนข้างง่ายที่จะเรียกพวกมันใหม่เพื่อพกพาอาวุธและนำไปใช้ในทางที่เลวร้ายที่สุด (คุณสามารถตรวจสอบสิ่งนี้ได้ด้วยตัวเองโดยไปที่โซเชียลมีเดียและมีวิดีโอมากมายที่นำเสนอหุ่นยนต์เต้นติดอาวุธด้วยปืนกลและ ยุทโธปกรณ์อื่นๆ)

อีกด้านหนึ่งของเหรียญนี้บอกว่าสิ่งที่เรียกว่าคำมั่นสัญญานั้นไม่มีอะไรมากไปกว่ากลอุบายทางการตลาดหรือการประชาสัมพันธ์ อย่างไรก็ตาม ผู้สงสัยก็แนะนำว่านี่คือสัญญาณคุณธรรมที่ควบคุมไม่ได้ในบริบทของหุ่นยนต์เต้น คุณเห็นไหมว่าการคร่ำครวญถึงความจริงที่ว่าหุ่นยนต์เอนกประสงค์สามารถติดอาวุธได้นั้นเป็นการพิจารณาที่คุ้มค่าและเอาจริงเอาจัง แม้ว่าเพียงแค่อ้างว่าผู้ผลิตจะไม่ทำเช่นนั้นก็มีแนวโน้มว่าจะเป็นคำมั่นสัญญาที่ไร้สาระ บางคนยืนยัน

โดยรวมแล้ว ประเด็นทั้งหมดทำให้เกิดข้อพิจารณาด้านจริยธรรม AI และกฎหมาย AI ที่ค่อนข้างหนัก เราจะแกะหัวข้ออย่างพิถีพิถันและดูว่านี่เป็นคำสาปแช่งของ AI ที่มีจริยธรรมและถูกกฎหมายได้อย่างไร สำหรับการรายงานข่าวเกี่ยวกับจริยธรรม AI และกฎหมาย AI อย่างต่อเนื่องและกว้างขวางของฉัน โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ฉันจะอ้างอิงตลอดการสนทนานี้ถึงการวิเคราะห์ก่อนหน้าของฉันเกี่ยวกับอันตรายของการใช้อาวุธ AI เช่น การประเมินเชิงลึกของฉันที่ ลิงค์ที่นี่. คุณอาจต้องการดูวาทกรรมนั้นสำหรับรายละเอียดเพิ่มเติมเบื้องหลัง

จดหมายเปิดผนึกที่เปิดหนอนกระป๋อง

มาเริ่มการวิเคราะห์นี้โดยทำการสำรวจจดหมายเปิดผนึกอย่างละเอียดทีละขั้นตอน ซึ่งเพิ่งได้รับการตีพิมพ์โดยผู้ผลิตหุ่นยนต์ขั้นสูงที่มีชื่อเสียง XNUMX ราย ได้แก่ Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics และ Unitree โดยทั่วไปแล้ว ฉันเดาว่าคุณคงเคยเห็นหุ่นยนต์ของ Boston Dynamics เป็นหลัก เช่น หุ่นยนต์ที่เดินเตร่ไปมาทั้งสี่ พวกเขาดูราวกับว่าพวกเขาเหมือนสุนัขและเราเพลิดเพลินใจที่ได้เห็นพวกเขาวิ่งไปรอบ ๆ

ดังที่ฉันได้เตือนไปแล้วก่อนหน้านี้และซ้ำแล้วซ้ำเล่า การใช้หุ่นยนต์ "เต้น" ดังกล่าวเพื่อโน้มน้าวให้สาธารณชนทั่วไปเชื่อว่าหุ่นยนต์เหล่านี้น่ารักและน่ารักทำให้เข้าใจผิดอย่างน่าเศร้า เราเริ่มนึกถึงชิ้นส่วนโลหะและพลาสติกที่ชุบแข็งเหล่านี้ ราวกับว่าพวกมันเทียบเท่ากับสุนัขที่จงรักภักดีที่น่ากอด ความเต็มใจของเราที่จะยอมรับหุ่นยนต์เหล่านี้เกิดขึ้นจากความรู้สึกผิดๆ ในเรื่องความปลอดภัยและความมั่นใจ แน่นอนว่าคุณต้องเสียเงินและโอกาสในการทำเช่นนั้นจะเพิ่มขึ้นโดยการเดินขบวนไปรอบ ๆ หุ่นยนต์เต้น แต่น่าเสียดายที่ละเว้นหรือดูเหมือนจะซ่อนความจริงว่าหุ่นยนต์เหล่านี้เป็นหุ่นยนต์และ AI ที่ควบคุมหุ่นยนต์สามารถประดิษฐ์ขึ้นได้อย่างผิดพลาด หรือไปผิดทาง

พิจารณาการแตกแขนงของ AI เหล่านี้ (คัดลอกมาจากบทความของฉันเกี่ยวกับการสร้างอาวุธ AI พบที่ ลิงค์ที่นี่):

  • AI อาจพบข้อผิดพลาดที่ทำให้หลงทาง
  • AI อาจถูกครอบงำและล็อคไม่ตอบสนอง
  • AI อาจมีข้อบกพร่องของนักพัฒนาที่ทำให้เกิดพฤติกรรมที่ไม่แน่นอน
  • AI อาจได้รับความเสียหายจากไวรัสผู้กระทำผิดที่ฝังไว้
  • AI อาจถูกแฮ็กเกอร์เข้าครอบครองในแบบเรียลไทม์
  • AI อาจถูกมองว่าคาดเดาไม่ได้เนื่องจากความซับซ้อน
  • AI อาจคำนวณการตัดสินใจที่ "ผิด" (ค่อนข้าง)
  • เป็นต้น

สิ่งเหล่านี้คือประเด็นเกี่ยวกับ AI ที่เป็นประเภทที่ออกแบบมาอย่างแท้จริงตั้งแต่เริ่มต้นเพื่อทำสิ่งที่ถูกต้อง

เหนือสิ่งอื่นใด คุณต้องรวมระบบ AI ที่สร้างขึ้นมาตั้งแต่ต้นเพื่อทำสิ่งเลวร้าย คุณสามารถมี AI ที่ทำขึ้นเพื่อวัตถุประสงค์ที่เป็นประโยชน์ซึ่งมักเรียกกันว่า AI เพื่อความดี. คุณยังสามารถมี AI ที่ทำขึ้นโดยเจตนาเพื่อจุดประสงค์ที่ไม่ดีหรือที่เรียกว่า AI สำหรับไม่ดี. นอกจากนี้คุณยังสามารถมี AI เพื่อความดี ที่เสียหายหรือกลับกลายเป็น AI สำหรับไม่ดี.

อย่างไรก็ตาม สิ่งนี้ไม่เกี่ยวอะไรกับการที่ AI จะมีสติ ซึ่งฉันพูดถึงเพราะบางคนบ่นว่า AI ในปัจจุบันนั้นทั้งมีความรู้สึกหรือใกล้จะมีสติ ไม่อย่างนั้น ฉันแยกตำนานเหล่านั้นออกจากการวิเคราะห์ของฉันที่ ลิงค์ที่นี่.

มาทำให้แน่ใจแล้วว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ AI ที่มีความรู้สึก การสนทนานี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ ความคุ้มครองที่นี่).

ฉันขอแนะนำอย่างยิ่งว่าเราควรเก็บสิ่งต่าง ๆ ลงบนพื้นโลกและพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

โปรดใช้ความระมัดระวังในการปรับเปลี่ยน AI ในปัจจุบัน

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

ทั้งหมดนี้มีนัยยะสำคัญอย่างเด่นชัดของจริยธรรม AI และให้หน้าต่างที่มีประโยชน์ในบทเรียนที่ได้เรียนรู้ (แม้กระทั่งก่อนที่บทเรียนทั้งหมดจะเกิดขึ้น) เมื่อพูดถึงการพยายามออกกฎหมาย AI

นอกจากการใช้หลักจรรยาบรรณของ AI โดยทั่วไปแล้ว ยังมีคำถามที่เกี่ยวข้องว่าเราควรมีกฎหมายเพื่อควบคุมการใช้ AI แบบต่างๆ หรือไม่ มีการบังคับใช้กฎหมายใหม่ในระดับสหพันธรัฐ รัฐ และระดับท้องถิ่นที่เกี่ยวข้องกับขอบเขตและลักษณะของวิธีการประดิษฐ์ AI ความพยายามในการร่างและตรากฎหมายดังกล่าวเป็นไปอย่างค่อยเป็นค่อยไป จรรยาบรรณของ AI ทำหน้าที่เป็นช่องว่างที่พิจารณา อย่างน้อยที่สุด และเกือบจะแน่นอนในระดับหนึ่งจะถูกรวมเข้ากับกฎหมายใหม่เหล่านั้นโดยตรง

พึงตระหนักว่ามีบางคนยืนกรานว่าเราไม่จำเป็นต้องมีกฎหมายใหม่ที่ครอบคลุม AI และกฎหมายที่มีอยู่ของเราก็เพียงพอแล้ว พวกเขาเตือนล่วงหน้าว่าหากเราบังคับใช้กฎหมาย AI เหล่านี้ เราจะฆ่าห่านทองคำโดยการจำกัดความก้าวหน้าของ AI ที่ก่อให้เกิดประโยชน์ทางสังคมอย่างมหาศาล

ในคอลัมน์ก่อนหน้านี้ ฉันได้กล่าวถึงความพยายามระดับชาติและระดับนานาชาติในการสร้างและออกกฎหมายควบคุม AI ดู ลิงค์ที่นี่, ตัวอย่างเช่น. ข้าพเจ้ายังได้กล่าวถึงหลักจรรยาบรรณ AI ต่างๆ ที่นานาประเทศได้ระบุและนำไปใช้ เช่น ความพยายามขององค์การสหประชาชาติ เช่น ชุดจริยธรรม AI ของยูเนสโกที่รับรองเกือบ 200 ประเทศ ดู ลิงค์ที่นี่.

ต่อไปนี้คือรายการหลักที่เป็นประโยชน์ของเกณฑ์หรือคุณลักษณะด้านจริยธรรมของ AI เกี่ยวกับระบบ AI ที่ฉันเคยสำรวจมาก่อนหน้านี้อย่างใกล้ชิด:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

หลักการด้านจริยธรรมของ AI เหล่านี้ควรนำไปใช้อย่างจริงจังโดยนักพัฒนา AI ควบคู่ไปกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด

ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นจุดเด่นที่สำคัญเนื่องจากข้อสันนิษฐานตามปกติคือ "ผู้เขียนโค้ดเท่านั้น" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ได้เน้นย้ำในที่นี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ตอนนี้ฉันได้วางรากฐานที่เป็นประโยชน์สำหรับการเข้าสู่จดหมายเปิดผนึกแล้ว เราก็พร้อมที่จะดำดิ่งลงไป

หัวเรื่องอย่างเป็นทางการของจดหมายเปิดผนึกคือ:

  • "จดหมายเปิดผนึกถึงอุตสาหกรรมหุ่นยนต์และชุมชนของเรา หุ่นยนต์เอนกประสงค์ไม่ควรมีอาวุธ” (ตามที่โพสต์ออนไลน์).

จนถึงตอนนี้ดีมาก

ชื่อเกือบจะดูเหมือนไอศกรีมและพายแอปเปิ้ล ทุกคนสามารถโต้แย้งสิ่งนี้ได้อย่างไรในสมัยก่อนเพื่อหลีกเลี่ยงการใช้อาวุธหุ่นยนต์ AI?

อ่านต่อเพื่อดู

ประการแรกเพื่อเป็นข้อมูลสำหรับการพิจารณา ต่อไปนี้คือย่อหน้าเปิดอย่างเป็นทางการของจดหมายเปิดผนึก:

  • “เราเป็นบริษัทชั้นนำของโลกบางแห่งที่อุทิศตนเพื่อแนะนำหุ่นยนต์เคลื่อนที่ขั้นสูงรุ่นใหม่สู่สังคม หุ่นยนต์รุ่นใหม่เหล่านี้เข้าถึงได้ง่ายกว่า ใช้งานง่ายกว่า มีอิสระมากกว่า ราคาไม่แพง และปรับเปลี่ยนได้กว่ารุ่นก่อน และสามารถนำทางไปยังสถานที่ซึ่งก่อนหน้านี้ไม่สามารถเข้าถึงเทคโนโลยีอัตโนมัติหรือควบคุมจากระยะไกลได้ เราเชื่อว่าหุ่นยนต์เคลื่อนที่ขั้นสูงจะเป็นประโยชน์อย่างยิ่งต่อสังคมในฐานะเพื่อนร่วมงานในอุตสาหกรรมและเพื่อนร่วมงานในบ้านเรา” (ตามโพสต์ออนไลน์)

ด้านที่สดใสของการถือกำเนิดของหุ่นยนต์ประเภทนี้คือเราสามารถคาดหวังประโยชน์มากมายที่จะเกิดขึ้น ไม่ต้องสงสัยเลย คุณอาจมีหุ่นยนต์ในบ้านที่สามารถทำกิจกรรมที่คล้ายกับ Jetson ได้ เช่น ทำความสะอาดบ้าน ล้างจาน และงานบ้านอื่นๆ เราจะมีหุ่นยนต์ขั้นสูงสำหรับใช้ในโรงงานและโรงงานผลิต หุ่นยนต์อาจคลานหรือเคลื่อนตัวเข้าไปในพื้นที่แคบได้ เช่น เมื่ออาคารถล่มและชีวิตมนุษย์ตกอยู่ในอันตราย และอื่นๆ.

ในทางกลับกัน คุณอาจสนใจการรายงานข่าวที่มีความสำคัญต่อสายตาของฉันเกี่ยวกับงาน Tesla AI Day ซึ่ง Elon Musk มองว่าหุ่นยนต์เดินได้บางประเภทเป็นอนาคตของ Tesla และสังคม ดู ลิงค์ที่นี่.

กลับมาที่เรื่องใกล้ตัว เมื่อพูดถึงหุ่นยนต์เต้นหรือหุ่นยนต์เดินอย่างจริงจัง เราต้องคำนึงถึงการแลกเปลี่ยนหรือ ROI ทั้งหมด (ผลตอบแทนจากการลงทุน) ของการใช้ AI นี้อย่างรอบคอบ เราไม่ควรปล่อยให้ตัวเองหลงใหลในผลประโยชน์มากเกินไปเมื่อต้องพิจารณาต้นทุนด้วย

ของเล่นชิ้นใหม่ที่เป็นมันเงาสามารถมีขอบที่ค่อนข้างแหลมคมได้

ทั้งหมดนี้กระตุ้นประเด็นสำคัญแต่ค่อนข้างเงียบว่าสาเหตุส่วนหนึ่งที่ปัญหาการใช้อาวุธ AI เกิดขึ้นในขณะนี้เกิดจากความก้าวหน้าของ AI ไปสู่กิจกรรมอิสระ ปกติแล้วเราคาดว่าอาวุธมักจะดำเนินการโดยมนุษย์ มนุษย์เป็นผู้ตัดสินใจว่าจะยิงหรือจับอาวุธ เราอาจถือได้ว่ามนุษย์ต้องรับผิดชอบต่อการกระทำของพวกเขา

AI ที่ออกแบบมาให้ทำงานด้วยตนเองหรือถูกหลอกให้ทำเช่นนั้น ดูเหมือนว่าจะเอามนุษย์ออกจากวงจร จากนั้น AI จะทำการตัดสินใจด้วยอัลกอริธึมในเชิงคำนวณ ซึ่งอาจจบลงด้วยการฆ่าหรือทำร้ายมนุษย์ นอกจากความกังวลที่ชัดเจนเกี่ยวกับการขาดการควบคุม AI แล้ว คุณยังมีความมั่นใจว่าเราอาจมีเวลาที่ยากลำบากในการรับผิดชอบเกี่ยวกับการกระทำของ AI เราไม่มีมนุษย์ที่เป็นตัวกระตุ้นที่ชัดเจนของเรา

ฉันตระหนักดีว่าบางคนเชื่อว่าเราควรให้ AI รับผิดชอบต่อการกระทำของตนอย่างตรงไปตรงมาและตรงไปตรงมา ราวกับว่า AI ได้รับความรู้สึกหรือได้รับสถานะนิติบุคคล ลิงค์ที่นี่). ที่จะไม่ทำงานสำหรับตอนนี้ เราจะต้องแกะรอย AI กับมนุษย์ที่คิดค้นหรือประดิษฐ์มันขึ้นมา พวกเขาจะพยายามหลบเลี่ยงความรับผิดชอบอย่างไม่ต้องสงสัยโดยพยายามโต้แย้งว่า AI ไปไกลกว่าที่พวกเขาคิดไว้ นี่เป็นข้อโต้แย้งที่เพิ่มขึ้นซึ่งเราต้องจัดการ (ดูงานเขียนกฎหมาย AI ของฉันสำหรับข้อมูลเชิงลึกเกี่ยวกับประเด็นที่ถกเถียงกันที่เกี่ยวข้อง)

องค์การสหประชาชาติ (UN) ผ่านอนุสัญญาว่าด้วยอาวุธทั่วไป (CCW) ในเจนีวาได้กำหนดหลักการชี้นำที่ไม่ผูกมัด XNUMX ประการเกี่ยวกับอาวุธทำลายล้างอิสระตามรายงานอย่างเป็นทางการที่โพสต์ออนไลน์ (ครอบคลุมการอ้างอิงถึงกฎหมายมนุษยธรรมระหว่างประเทศที่เกี่ยวข้องหรือข้อกำหนดของ IHL) , รวมทั้ง:

(ก) กฎหมายมนุษยธรรมระหว่างประเทศยังคงมีผลบังคับใช้อย่างเต็มที่กับระบบอาวุธทั้งหมด ซึ่งรวมถึงการพัฒนาและการใช้ระบบอาวุธทำลายล้างอัตโนมัติที่อาจเกิดขึ้นได้

(b) ความรับผิดชอบของมนุษย์ในการตัดสินใจเกี่ยวกับการใช้ระบบอาวุธต้องคงไว้เนื่องจากความรับผิดชอบไม่สามารถถ่ายโอนไปยังเครื่องจักรได้ สิ่งนี้ควรพิจารณาตลอดวงจรชีวิตของระบบอาวุธ

(ค) ปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร ซึ่งอาจอยู่ในรูปแบบที่หลากหลายและถูกนำไปใช้ในขั้นตอนต่างๆ ของวงจรชีวิตของอาวุธ ควรตรวจสอบให้แน่ใจว่าการใช้ระบบอาวุธที่มีศักยภาพโดยอิงจากเทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัตินั้นอยู่ใน การปฏิบัติตามกฎหมายระหว่างประเทศที่เกี่ยวข้อง โดยเฉพาะ IHL ในการพิจารณาคุณภาพและขอบเขตของปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร ควรพิจารณาปัจจัยต่างๆ ซึ่งรวมถึงบริบทการปฏิบัติงาน และคุณลักษณะและความสามารถของระบบอาวุธโดยรวม

(ง) ความรับผิดชอบในการพัฒนา ปรับใช้ และการใช้ระบบอาวุธที่เกิดขึ้นใหม่ในกรอบการทำงานของ CCW จะต้องได้รับการประกันตามกฎหมายระหว่างประเทศที่บังคับใช้ รวมถึงผ่านการดำเนินงานของระบบดังกล่าวภายในสายการบังคับบัญชาและการควบคุมของมนุษย์ที่มีความรับผิดชอบ

(จ) ตามพันธกรณีของรัฐภายใต้กฎหมายระหว่างประเทศ ในการศึกษา การพัฒนา การได้มา หรือการนำอาวุธ วิธี หรือวิธีการทำสงครามใหม่มาใช้ ต้องมีการกำหนดว่าการจ้างงานจะ ในบางสถานการณ์หรือทั้งหมด ห้ามโดยกฎหมายระหว่างประเทศ

(f) เมื่อมีการพัฒนาหรือจัดหาระบบอาวุธใหม่โดยอาศัยเทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัติที่ร้ายแรง การรักษาความปลอดภัยทางกายภาพ การป้องกันที่ไม่ใช่ทางกายภาพที่เหมาะสม (รวมถึงการรักษาความปลอดภัยทางไซเบอร์จากการแฮ็กหรือการปลอมแปลงข้อมูล) ความเสี่ยงที่กลุ่มผู้ก่อการร้ายจะเข้าซื้อกิจการ และควรพิจารณาความเสี่ยงของการแพร่กระจาย

(g) การประเมินความเสี่ยงและมาตรการบรรเทาผลกระทบควรเป็นส่วนหนึ่งของการออกแบบ การพัฒนา การทดสอบ และวงจรการใช้งานของเทคโนโลยีที่เกิดขึ้นใหม่ในระบบอาวุธใดๆ

(h) ควรพิจารณาถึงการใช้เทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัติที่ร้ายแรง เพื่อรักษาการปฏิบัติตาม IHL และภาระผูกพันทางกฎหมายระหว่างประเทศอื่นๆ

(i) ในการจัดทำมาตรการทางนโยบายที่อาจเกิดขึ้น เทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธอิสระที่ร้ายแรงไม่ควรถูกดัดแปลงให้เป็นแบบมานุษยวิทยา

(j) การอภิปรายและมาตรการเชิงนโยบายใด ๆ ที่อาจเกิดขึ้นภายใต้บริบทของ CCW ไม่ควรขัดขวางความก้าวหน้าหรือการเข้าถึงการใช้งานอย่างสันติของเทคโนโลยีอัจฉริยะที่เป็นอิสระ

(ฎ) CCW เสนอกรอบการทำงานที่เหมาะสมเพื่อจัดการกับปัญหาของเทคโนโลยีที่เกิดขึ้นใหม่ในด้านระบบอาวุธสังหารอัตโนมัติภายในบริบทของวัตถุประสงค์และวัตถุประสงค์ของอนุสัญญา ซึ่งพยายามสร้างสมดุลระหว่างความจำเป็นทางทหารและการพิจารณาด้านมนุษยธรรม

กฎหมายสงครามเหล่านี้และกฎหมายอื่น ๆ และกฎหมายการขัดกันทางอาวุธ หรือ IHL (กฎหมายมนุษยธรรมระหว่างประเทศ) ทำหน้าที่เป็นแนวทางที่สำคัญและมีแนวโน้มที่ดีเสมอในการพิจารณาสิ่งที่เราอาจพยายามทำเกี่ยวกับการถือกำเนิดของระบบปกครองตนเองที่มีอาวุธ ไม่ว่าจะด้วยคีย์สโตน การออกแบบหรือโดยวิธีการภายหลัง

บางคนบอกว่าเราควรห้ามระบบ AI อัตโนมัติที่ติดอาวุธได้ ถูกต้อง โลกควรวางเท้าลงและเรียกร้องอย่างจริงจังว่าระบบ AI อัตโนมัติจะไม่มีวันติดอาวุธ จะมีการสั่งห้ามทั้งหมด ตอนจบของเรื่อง. หยุดเต็มระยะเวลา

เราหวังเป็นอย่างยิ่งว่าการห้ามระบบอัตโนมัติที่มีอาวุธร้ายแรงจะได้รับการปฏิบัติตามอย่างเคร่งครัดและเชื่อฟัง ปัญหาคือมีห้องเลื้อยจำนวนมากถูกพบอย่างมีเล่ห์เหลี่ยมในการแบนที่จริงใจที่สุด อย่างที่พวกเขาพูดกันว่ากฎมีขึ้นเพื่อทำลาย คุณสามารถเดิมพันได้ว่าในที่ที่อะไร ๆ หลวม ๆ ขนลุก riffraff จะคุ้ยเขี่ยช่องว่างและพยายามขยิบตาให้ผิดกฎ

ต่อไปนี้คือช่องโหว่ที่อาจเกิดขึ้นซึ่งควรค่าแก่การพิจารณา:

  • การเรียกร้องที่ไม่ร้ายแรง. สร้างระบบอาวุธอัตโนมัติที่ไม่ร้ายแรง (ดูเหมือนจะไม่เป็นไรเพราะอยู่นอกขอบเขตการแบน) ซึ่งคุณสามารถเปลี่ยนค่าเล็กน้อยให้กลายเป็นอาวุธร้ายแรงได้ (คุณจะอยู่นอกเหนือการแบนในนาทีสุดท้ายเท่านั้น)
  • การอ้างสิทธิ์ของระบบปกครองตนเองเท่านั้น. ยึดถือการห้ามโดยไม่ได้สร้างระบบอัตโนมัติที่เน้นอันตรายถึงตาย ในขณะเดียวกันก็สร้างความก้าวหน้าให้มากเท่าๆ กับการออกแบบระบบอัตโนมัติในชีวิตประจำวันที่ยังไม่ได้ (ยัง) ติดอาวุธ แต่คุณสามารถดัดแปลงเล็กน้อยเพื่อเป็นอาวุธได้
  • อ้างว่าไม่ได้บูรณาการเป็นหนึ่ง ประดิษฐ์ระบบอัตโนมัติที่ไม่ได้เป็นอาวุธเลย และเมื่อถึงเวลานั้น การใช้อาวุธแบบ piggyback นั้นคุณสามารถพยายามโต้แย้งอย่างฉุนเฉียวว่ามันเป็นสององค์ประกอบที่แยกจากกัน ดังนั้นจึงโต้แย้งว่าพวกมันไม่อยู่ในเกณฑ์การให้คะแนนของออล-อิน-วัน ระบบอาวุธอัตโนมัติหรือลูกพี่ลูกน้องของมัน
  • อ้างว่าไม่เป็นอิสระ สร้างระบบอาวุธที่ดูเหมือนไม่มีความสามารถอิสระ ปล่อยให้มีที่ว่างในระบบที่สันนิษฐานว่าไม่ใช่ระบบปกครองตนเองนี้เพื่อปล่อยความเป็นอิสระจาก AI เมื่อจำเป็น ให้เสียบเอกราชและคุณก็พร้อมที่จะเริ่ม
  • อื่นๆ

มีปัญหาอื่นๆ มากมายในการพยายามแบนระบบอาวุธอัตโนมัติที่ร้ายแรง ฉันจะพูดถึงอีกสองสามเรื่อง

ผู้เชี่ยวชาญบางคนโต้แย้งว่าการห้ามไม่เป็นประโยชน์อย่างยิ่งและควรมีบทบัญญัติด้านกฎระเบียบแทน แนวคิดก็คือจะอนุญาตให้ใช้อุปกรณ์เหล่านี้ได้ แต่ต้องมีการเฝ้าระวังอย่างเข้มงวด มีการจัดวางบทกลอนของการใช้งานที่ชอบด้วยกฎหมาย พร้อมด้วยวิธีการกำหนดเป้าหมายที่ชอบด้วยกฎหมาย ประเภทความสามารถที่ชอบด้วยกฎหมาย สัดส่วนที่ถูกต้องตามกฎหมาย และอื่นๆ ในทำนองเดียวกัน

ในทัศนะของพวกเขา การแบนอย่างตรงไปตรงมาก็เหมือนกับการเอาหัวจุ่มทรายและแสร้งทำเป็นว่าช้างในห้องนั้นไม่มีอยู่จริง แม้ว่าการโต้เถียงนี้จะทำให้เลือดเดือดของผู้ที่โต้เถียงกับข้อโต้แย้งที่ว่าโดยการห้ามคุณสามารถลดการล่อใจอื่น ๆ เพื่อติดตามระบบประเภทนี้ได้อย่างมาก แน่นอนว่าบางคนจะอวดการแบน แต่อย่างน้อยก็หวังว่าคนส่วนใหญ่จะไม่ จากนั้นคุณสามารถเพ่งความสนใจไปที่คนที่อวดดีและไม่ต้องเสียความสนใจไปที่ทุกคน

รอบและรอบการอภิปรายเหล่านี้ไป

ข้อกังวลอีกประการหนึ่งที่มักสังเกตเห็นคือแม้ว่าความดีจะปฏิบัติตามคำสั่งห้าม คนชั่วจะไม่ทำอย่างนั้น นี้ทำให้ดีในท่าหมัด คนเลวจะมีระบบอาวุธอิสระประเภทนี้ และความดีจะไม่มี เมื่อสิ่งต่าง ๆ ถูกเปิดเผยว่าสิ่งเลวร้ายมีแล้ว มันจะสายเกินไปที่ความดีจะตามทัน กล่าวโดยย่อ สิ่งเดียวที่ควรทำคือเตรียมต่อสู้กับไฟด้วยไฟ

นอกจากนี้ยังมีการโต้แย้งแบบคลาสสิก หากทางเลือกที่ดีที่จะสร้างระบบอิสระที่มีอาวุธก็สามารถนำมาใช้เพื่อยับยั้งคนเลวจากการแสวงหาการแย่งชิง ความดีจะติดอาวุธที่ดีกว่าและห้ามปรามคนชั่ว หรือความดีจะพร้อมเมื่อคนเลวอาจเปิดเผยว่าพวกเขาแอบคิดระบบเหล่านี้มาโดยตลอด

เคาน์เตอร์สำหรับเคาน์เตอร์เหล่านี้คือการสร้างระบบอัตโนมัติที่มีอาวุธ คุณกำลังแข่งขันด้านอาวุธ อีกฝ่ายก็จะพยายามหามาให้เหมือนกัน แม้ว่าเทคโนโลยีจะไม่สามารถสร้างระบบดังกล่าวขึ้นมาใหม่ได้ แต่ตอนนี้พวกเขาสามารถขโมยแผนของ "ดี" ย้อนกลับวิศวกรรมความกล้าของไฮเทคหรือเลียนแบบสิ่งที่พวกเขาเห็นว่าเป็นความพยายามและความจริง วิธีที่จะทำให้งานสำเร็จลุล่วง

อ่า เป็นการโต้กลับบ้าง ทั้งหมดนี้อาจนำไปสู่การลดความขัดแย้งลงได้ด้วยการดูถูกซึ่งกันและกัน หากฝ่าย A รู้ว่าฝ่าย B มีอาวุธร้ายแรงจากระบบอัตโนมัติ และฝ่าย B รู้ว่าด้าน A มีอาวุธดังกล่าวอยู่ พวกเขาอาจนั่งแน่นและไม่โดนโจมตี สิ่งนี้มีออร่าที่ชัดเจนของความรู้สึกทำลายล้างซึ่งกันและกัน (MAD)

เป็นต้น

มองใกล้ย่อหน้าที่สอง

เราได้กล่าวถึงประเด็นต่างๆ มากมายในที่นี้ และจนถึงขณะนี้ได้พิจารณาเพียงย่อหน้าแรกหรือย่อหน้าแรกของจดหมายเปิดผนึก (มีทั้งหมดสี่ย่อหน้า)

ถึงเวลาดูย่อหน้าที่สองแล้ว:

  • “เช่นเดียวกับเทคโนโลยีใหม่ๆ ที่นำเสนอความสามารถใหม่ๆ การเกิดขึ้นของหุ่นยนต์เคลื่อนที่ขั้นสูงนั้นมีความเป็นไปได้ในการใช้งานในทางที่ผิด คนที่ไม่น่าไว้วางใจสามารถใช้พวกเขาเพื่อบุกรุกสิทธิพลเมืองหรือเพื่อข่มขู่ทำร้ายหรือข่มขู่ผู้อื่น ประเด็นหนึ่งที่น่ากังวลเป็นพิเศษคือการสร้างอาวุธ เราเชื่อว่าการเพิ่มอาวุธให้กับหุ่นยนต์ที่ดำเนินการจากระยะไกลหรือทำงานด้วยตนเอง เข้าถึงได้ทั่วไปในวงกว้าง และสามารถนำทางไปยังสถานที่ที่ผู้คนอาศัยอยู่และทำงานซึ่งไม่สามารถเข้าถึงได้ก่อนหน้านี้ ทำให้เกิดความเสี่ยงใหม่ๆ ต่ออันตรายและประเด็นด้านจริยธรรมที่ร้ายแรง การใช้อาวุธของหุ่นยนต์ที่มีความสามารถใหม่เหล่านี้จะทำลายความไว้วางใจของสาธารณชนในเทคโนโลยีในลักษณะที่สร้างความเสียหายอย่างมากต่อผลประโยชน์ที่พวกเขาจะนำมาสู่สังคม ด้วยเหตุผลเหล่านี้ เราไม่สนับสนุนการสร้างอาวุธให้กับหุ่นยนต์เอนกประสงค์ที่เคลื่อนที่ได้ขั้นสูงของเรา สำหรับพวกเราที่เคยพูดเกี่ยวกับประเด็นนี้ในอดีตและผู้ที่มีส่วนร่วมเป็นครั้งแรก ตอนนี้เรารู้สึกเร่งด่วนขึ้นอีกครั้งเนื่องจากความกังวลของสาธารณชนที่เพิ่มขึ้นในช่วงไม่กี่เดือนที่ผ่านมาซึ่งเกิดจากคนจำนวนน้อยที่เผยแพร่ข้อมูลชั่วคราวอย่างเห็นได้ชัด ความพยายามในการสร้างอาวุธให้กับหุ่นยนต์ที่มีขายทั่วไป” (ตามที่โพสต์ออนไลน์)

เมื่ออ่านย่อหน้าที่สองนั้น ฉันหวังว่าคุณจะเห็นว่าวาทกรรมก่อนหน้าของฉันในที่นี้เกี่ยวกับการใช้อาวุธ AI มาถึงส่วนหน้าอย่างไร

ลองตรวจสอบจุดเพิ่มเติมสองสามข้อ

ความไม่มั่นใจในแง่มุมหนึ่งของการใช้ถ้อยคำที่ทำให้โกรธขึ้นโดยบางคนคือการเล่าเรื่องที่เน้นย้ำว่า "คนที่ไม่น่าไว้วางใจ" อาจใช้หุ่นยนต์ AI เหล่านี้ในทางที่ผิด ใช่ แท้จริงแล้ว อาจเป็นคนเลวหรือผู้กระทำความผิดที่ก่อให้เกิดการกระทำที่ขี้ขลาดซึ่งจะ "ใช้" หุ่นยนต์ AI ในทางที่ผิด

ในเวลาเดียวกัน ดังที่ได้กล่าวไว้ในตอนต้นของการสนทนานี้ เราจำเป็นต้องทำให้ชัดเจนด้วยว่า AI เองอาจผิดพลาดได้ อาจเป็นเพราะบั๊กฝังตัวหรือข้อผิดพลาด และความซับซ้อนอื่นๆ ความกังวลที่แสดงออกมาคือเน้นเฉพาะโอกาสของ คนไม่น่าไว้ใจ คือดูเหมือนว่าจะเพิกเฉยต่อความเป็นไปได้ที่ไม่พึงประสงค์อื่นๆ แม้ว่าบริษัทและผู้จำหน่าย AI ส่วนใหญ่จะไม่ยอมรับ แต่ก็มีปัญหามากมายเกี่ยวกับระบบ AI ที่สามารถตัดราคาความปลอดภัยและความน่าเชื่อถือของระบบอัตโนมัติได้ เพื่อความครอบคลุมของฉันเกี่ยวกับความปลอดภัยของ AI และความจำเป็นในการป้องกันที่เข้มงวดและสามารถพิสูจน์ได้ โปรดดูที่ ลิงค์ที่นี่ยกตัวอย่างเช่น

ประเด็นเด่นอีกประการหนึ่งที่เกิดขึ้นในหมู่ผู้ที่ได้ตรวจสอบจดหมายเปิดผนึกนั้นเกี่ยวข้องกับการยืนยันที่รวมอยู่ด้วยว่าอาจจบลงด้วยการตัดราคาความไว้วางใจสาธารณะที่เกี่ยวข้องกับหุ่นยนต์ AI

ในแง่หนึ่งนี่เป็นการยืนยันที่ถูกต้อง หากใช้หุ่นยนต์ AI ในการเสนอราคาที่ชั่วร้าย คุณสามารถเดิมพันได้ว่าประชาชนจะค่อนข้างเดือดดาล เมื่อประชาชนถูกนึ่ง คุณสามารถเดิมพันได้ว่าฝ่ายนิติบัญญัติจะกระโดดเข้าสู่การโจมตีและพยายามออกกฎหมายที่ควบคุมหุ่นยนต์ AI และผู้ผลิตหุ่นยนต์ AI ในทางกลับกัน อาจทำลายอุตสาหกรรมหุ่นยนต์ AI หากกฎหมายครอบคลุมและปิดความพยายามที่เกี่ยวข้องกับประโยชน์ของหุ่นยนต์ AI ในแง่หนึ่ง ทารกอาจถูกโยนทิ้งไปพร้อมกับน้ำอาบ

คำถามที่ชัดเจนที่นำมาด้วยก็คือว่าการยืนยันนี้เกี่ยวกับการหลีกเลี่ยงความเชื่อถือสาธารณะสำหรับหุ่นยนต์ AI ที่ลดลงนั้นเป็นความเชื่อที่ค่อนข้างจะให้บริการตัวเองหรือไม่หรือว่ามันเป็นผลดีต่อพวกเราทุกคนหรือไม่ (สามารถเป็นทั้งสองอย่างได้หรือไม่)

คุณตัดสินใจ.

ตอนนี้เรามาถึงส่วนที่เป็นเนื้อโดยเฉพาะอย่างยิ่งของจดหมายเปิดผนึก:

  • “เราให้คำมั่นว่าเราจะไม่สร้างอาวุธให้กับหุ่นยนต์เอนกประสงค์เคลื่อนที่ขั้นสูงของเรา หรือซอฟต์แวร์ที่เราพัฒนาที่เปิดใช้งานหุ่นยนต์ขั้นสูง และเราจะไม่สนับสนุนให้ผู้อื่นทำเช่นนั้น เมื่อเป็นไปได้ เราจะตรวจสอบการใช้งานที่ตั้งใจไว้ของลูกค้าอย่างรอบคอบเพื่อหลีกเลี่ยงการใช้อาวุธที่อาจเกิดขึ้น นอกจากนี้เรายังให้คำมั่นที่จะสำรวจการพัฒนาคุณสมบัติทางเทคโนโลยีที่สามารถบรรเทาหรือลดความเสี่ยงเหล่านี้ได้ เพื่อความชัดเจน เราไม่ได้มีปัญหากับเทคโนโลยีที่มีอยู่ซึ่งประเทศและหน่วยงานของรัฐใช้เพื่อปกป้องตนเองและรักษากฎหมายของพวกเขา” (ตามที่โพสต์ออนไลน์)

เราสามารถแกะกล่องนี้ได้

นั่งลงและเตรียมตัวให้พร้อม

คุณพร้อมสำหรับโพลาไรซ์ที่ลุกเป็นไฟแล้วหรือยัง?

ในแง่ดี บางคนกำลังประกาศว่าผู้ผลิตหุ่นยนต์ AI เหล่านี้จะให้คำมั่นสัญญาดังกล่าว ดูเหมือนว่าผู้ผลิตหุ่นยนต์เหล่านี้จะโชคดีที่พยายามไม่สร้างอาวุธให้กับหุ่นยนต์ นอกจากนี้ จดหมายเปิดผนึกยังระบุด้วยว่าจะไม่สนับสนุนผู้อื่นที่ทำเช่นนั้น

นักวิจารณ์สงสัยว่ามีการสร้างคำที่ชาญฉลาดเกิดขึ้นหรือไม่

ตัวอย่างเช่น "ความคล่องตัวขั้นสูง" เริ่มต้นและสิ้นสุดที่ใด หากผู้ผลิตหุ่นยนต์กำลังคิดค้น a ง่าย- หุ่นยนต์ AI เคลื่อนที่ได้แทนที่จะเป็นขั้นสูง (ซึ่งเป็นศัพท์แสงทางเทคนิคที่ไม่ได้กำหนดไว้) ได้รับการยกเว้นจากขอบเขตของสิ่งที่จะ ไม่ ติดอาวุธ? ดังนั้น เห็นได้ชัดว่า มันเป็นเรื่องปกติที่จะสร้างอาวุธให้กับหุ่นยนต์ AI ที่เคลื่อนไหวง่าย ตราบใดที่ไม่ได้เรียกว่า สูง.

เช่นเดียวกับการใช้ถ้อยคำของหุ่นยนต์เอนกประสงค์ หากหุ่นยนต์ AI ถูกคิดค้นขึ้นเพื่อใช้เป็นอาวุธโดยเฉพาะ และเราไม่ควรพูดว่า a จุดประสงค์ทั่วไป หุ่นยนต์ นั่นกลายเป็นการกีดกันที่ทำงานได้จากขอบเขตหรือไม่?

คุณอาจเล่นโวหารกับเรื่องไร้สาระเหล่านี้และโต้เถียงอย่างจริงจังว่านี่เป็นเพียงจดหมายเปิดผนึกและไม่ใช่เอกสารทางกฎหมายห้าสิบหน้าที่สะกดทุกซอกทุกมุม

สิ่งนี้นำเราไปสู่ความสงบในระดับมหภาคที่ดูเหมือนแสดงออกโดยบางคน สรุปคำว่า "จำนำ" หมายถึงอะไร?

บางคนถามว่าเนื้ออยู่ไหน?

บริษัทที่ให้คำมั่นสัญญาในลักษณะนี้ดูเหมือนจะทำเช่นนั้นโดยไม่มีส่วนได้ส่วนเสียใดๆ ในเกม ถ้าบริษัทชั้นนำของ บริษัท ใดที่ลงนามในสัญญานี้ตัดสินใจที่จะไม่ปฏิบัติตามคำมั่นสัญญาอีกต่อไปจะเกิดอะไรขึ้นกับ บริษัท นั้น? ผู้บริหารจะได้รับกระป๋องสั้น ๆ หรือไม่? บริษัทจะปิดตัวลงและขออภัยอย่างสุดซึ้งที่ฝ่าฝืนคำมั่นสัญญาหรือไม่? และอื่นๆ.

เท่าที่สามารถอนุมานได้ ไม่มีบทลงโทษหรือบทลงโทษเฉพาะสำหรับการละเมิดสัญญา

คุณอาจโต้แย้งว่ามีความเป็นไปได้ที่จะเกิดความเสียหายต่อชื่อเสียง บริษัทรับจำนำอาจถูกขายหน้าในตลาดเพราะได้ให้คำมั่นว่าจะไม่ปฏิบัติตามอีกต่อไป แน่นอนว่าสิ่งนี้ยังถือว่าผู้คนจะจำคำมั่นสัญญาได้ นอกจากนี้ยังสันนิษฐานว่าจะมีการตรวจพบการละเมิดคำมั่นสัญญา ผู้ฝ่าฝืนคำมั่นสัญญาจะต้องถูกเรียกออกมา แต่ปัญหาดังกล่าวอาจกลายเป็นเพียงเสียงในสึนามิอย่างต่อเนื่องของข่าวเกี่ยวกับผู้ผลิตหุ่นยนต์ AI

พิจารณาอีกมุมหนึ่งที่เกิดขึ้น

บริษัทรับจำนำถูกซื้อโดยบริษัทขนาดใหญ่บางแห่ง บริษัทที่ใหญ่ขึ้นเลือกที่จะเริ่มเปลี่ยนหุ่นยนต์เอนกประสงค์ที่มีความคล่องตัวขั้นสูงให้กลายเป็นรุ่นที่ใช้อาวุธ AI

ถือเป็นการผิดสัญญาหรือไม่?

บริษัทที่ใหญ่กว่าอาจยืนกรานว่าไม่ถือเป็นการละเมิด เนื่องจากพวกเขา (บริษัทที่ใหญ่กว่า) ไม่เคยให้คำมั่นสัญญา ในขณะเดียวกัน หุ่นยนต์ AI ไร้พิษภัยที่บริษัทขนาดเล็กได้รวบรวมและประดิษฐ์ขึ้นโดยดูเหมือนว่าจะมีเจตนาเห็นแก่ผู้อื่นมากที่สุด ได้รับการปรับปรุงใหม่เกือบในชั่วข้ามคืนเพื่อเป็นอาวุธ

เป็นการบ่อนทำลายคำมั่นสัญญา แม้ว่าคุณอาจบอกว่าบริษัทเล็กๆ ไม่รู้ว่าสิ่งนี้จะเกิดขึ้นสักวันหนึ่ง พวกเขามีความปรารถนาอย่างแรงกล้า พวกเขาอยู่นอกเหนือการควบคุมว่าบริษัทจัดซื้อรายใหญ่เลือกที่จะทำอะไร

บางคนยังถามว่ามีความรับผิดทางกฎหมายในเรื่องนี้หรือไม่

บริษัทรับจำนำตัดสินใจในอีกไม่กี่เดือนข้างหน้าว่าจะไม่ให้เกียรติคำมั่นสัญญา พวกเขาได้เปลี่ยนใจ จะฟ้องบริษัทที่ละทิ้งคำมั่นสัญญาที่ทำไว้ได้หรือไม่? ใครจะฟ้อง? อะไรจะเป็นพื้นฐานของคดีความ? เกิดปัญหาทางกฎหมายมากมาย อย่างที่พวกเขาพูดกัน คุณสามารถฟ้องใครก็ได้ แต่การที่คุณจะชนะได้หรือไม่นั้นมันคนละเรื่องเลย

ลองคิดแบบนี้อีกทางหนึ่ง บริษัทรับจำนำได้รับโอกาสในการทำข้อตกลงครั้งใหญ่เพื่อขายหุ่นยนต์เอนกประสงค์ที่เคลื่อนย้ายได้ขั้นสูงจำนวนหนึ่งให้กับบริษัทขนาดใหญ่ที่ยินดีจ่ายผ่านทางจมูกเพื่อซื้อหุ่นยนต์ มันเป็นหนึ่งในข้อตกลงซื้อเงินล้านที่ครั้งหนึ่งในชีวิต

บริษัท หุ่นยนต์ AI ควรทำอย่างไร?

หากบริษัทรับจำนำหุ่นยนต์ AI มีการซื้อขายในที่สาธารณะ พวกเขาเกือบจะตั้งเป้าที่จะทำการขายอย่างแน่นอน ลองนึกภาพว่าบริษัทรับจำนำกังวลว่าผู้ซื้ออาจพยายามสร้างอาวุธให้กับหุ่นยนต์ แม้ว่าจะไม่มีการพูดคุยกันบนโต๊ะก็ตาม มีข่าวลือว่าผู้ซื้ออาจทำเช่นนั้น

ดังนั้น บริษัทรับจำนำจึงต้องออกใบอนุญาตว่าหุ่นยนต์จะไม่ถูกติดอาวุธ ผู้ซื้อไม่เห็นด้วยกับภาษานี้และถอยห่างจากการซื้อ

บริษัท หุ่นยนต์ AI ที่ให้คำมั่นสัญญาว่าจะเดินจากไปได้อย่างไร

มีจุดที่กำไรในมือมีมากกว่าการรวมข้อกำหนดการจำกัดสิทธิ์การใช้งาน (หรือบางทีอาจใช้ถ้อยคำทางกฎหมายในการจำกัดเพื่อให้มีพื้นที่กระดิกและยังคงทำให้ข้อตกลงเกิดขึ้น)? ฉันคิดว่าคุณสามารถเห็นความลังเลใจที่เกี่ยวข้อง สถานการณ์มากมายเหล่านี้สามารถเสกได้อย่างง่ายดาย คำถามคือว่าคำมั่นสัญญานี้จะมีฟันหรือไม่ ถ้าเป็นเช่นนั้นฟันชนิดใด?

กล่าวโดยย่อ ดังที่กล่าวไว้ในตอนต้นของการสนทนานี้ บางคนถูกเสริมขึ้นว่ามีการทำสัญญาประเภทนี้ ในขณะที่คนอื่นมองว่าการจำนำจะลดน้อยลงหรือไม่

เราก้าวต่อไป

รับคำมั่นสัญญา

วรรคที่สี่และสุดท้ายของจดหมายเปิดผนึกกล่าวว่า:

  • “เราเข้าใจดีว่าความมุ่งมั่นของเราเพียงอย่างเดียวไม่เพียงพอที่จะจัดการกับความเสี่ยงเหล่านี้ได้อย่างเต็มที่ ดังนั้นเราจึงเรียกร้องให้ผู้กำหนดนโยบายทำงานร่วมกับเราเพื่อส่งเสริมการใช้หุ่นยนต์เหล่านี้อย่างปลอดภัยและห้ามมิให้มีการใช้หุ่นยนต์ในทางที่ผิด นอกจากนี้เรายังเรียกร้องให้ทุกองค์กร นักพัฒนา นักวิจัย และผู้ใช้ในชุมชนหุ่นยนต์ให้คำมั่นสัญญาที่คล้ายกันที่จะไม่สร้าง อนุญาต สนับสนุนหรือเปิดใช้งานการแนบอาวุธกับหุ่นยนต์ดังกล่าว เราเชื่อว่าประโยชน์สำหรับมนุษยชาติของเทคโนโลยีเหล่านี้มีมากกว่าความเสี่ยงของการใช้ในทางที่ผิด และเรารู้สึกตื่นเต้นเกี่ยวกับอนาคตที่สดใสที่มนุษย์และหุ่นยนต์ทำงานเคียงข้างกันเพื่อจัดการกับความท้าทายบางอย่างของโลก” (ตามที่โพสต์ออนไลน์)

ส่วนสุดท้ายของจดหมายเปิดผนึกนี้มีองค์ประกอบเพิ่มเติมหลายอย่างที่ก่อให้เกิดความโกรธเคือง

การเรียกร้องผู้กำหนดนโยบายอาจได้รับคำแนะนำที่ดีหรือไม่ดีก็ได้ บางคนยืนยัน คุณอาจได้ผู้กำหนดนโยบายที่ไม่เชี่ยวชาญในเรื่องเหล่านี้ แล้วทำกฎหมายและระเบียบที่เร่งรีบเพื่อตัดสิน และประดิษฐ์กฎเกณฑ์และระเบียบที่ขัดขวางความก้าวหน้าของหุ่นยนต์ AI ตามจุดที่ทำไว้ก่อนหน้านี้บางทีนวัตกรรมที่ผลักดันความก้าวหน้าของหุ่นยนต์ AI อาจหยุดชะงักหรือกระทืบ

ดีกว่าให้แน่ใจว่าคุณรู้ว่าคุณต้องการอะไรนักวิจารณ์พูด

แน่นอนว่าข้อโต้แย้งก็คือการบรรยายระบุไว้อย่างชัดเจนว่าผู้กำหนดนโยบายควรทำงานร่วมกับบริษัทด้านหุ่นยนต์ AI เพื่อหาวิธีที่น่าจะทำกฎหมายและข้อบังคับดังกล่าวได้อย่างสมเหตุสมผล ข้อโต้แย้งในการโต้แย้งคือผู้กำหนดนโยบายอาจถูกมองว่าเป็นผู้สร้างหุ่นยนต์ AI หากพวกเขาตอบสนองความต้องการของพวกเขา ข้อโต้แย้งที่โต้แย้งข้อโต้แย้งคือโดยธรรมชาติแล้วจำเป็นต้องทำงานร่วมกับผู้ที่รู้เกี่ยวกับเทคโนโลยี ไม่เช่นนั้นผลลัพธ์ก็อาจจะแย่ลง เป็นต้น

บนพื้นฐานการพูดเล่นโวหาร บางคนมีอาการเสียดท้องที่เรียกร้องให้ทุกคนให้คำมั่นสัญญาในลักษณะเดียวกันว่าจะไม่ ติด อาวุธยุทโธปกรณ์สำหรับหุ่นยนต์เอนกประสงค์ขั้นสูงที่มีความคล่องตัวสูง คีย์เวิร์ดมีคำว่า ติด. หากมีคนกำลังสร้างหุ่นยนต์ AI ที่รวมหรือฝังอาวุธไว้อย่างแนบเนียน ดูเหมือนว่าจะหลีกเลี่ยงคำพูดของ ติด บางสิ่งบางอย่าง. คุณสามารถเห็นได้ในตอนนี้ มีคนเถียงอย่างฉุนเฉียวว่าไม่ได้ติดอาวุธ มันเป็นส่วนหนึ่งของหุ่นยนต์ AI อย่างสมบูรณ์ เลิกกันเถอะ พวกเขาร้องว่า เราไม่ได้อยู่ในขอบเขตของคำมั่นสัญญานั้น และพวกเขาอาจจะพูดเป็นอย่างอื่นก็ได้

สิ่งนี้นำมาสู่การร้องเรียนอีกเรื่องหนึ่งเกี่ยวกับการขาดความเหนียวแน่นของการจำนำ

บริษัท หรือใครก็ตามที่เลือกที่จะให้คำมั่นสัญญานี้สามารถประกาศตัวว่าไม่มีคำมั่นสัญญาได้ตลอดเวลาที่พวกเขาต้องการจะทำเช่นนั้นและด้วยเหตุผลใดก็ตามที่พวกเขาปรารถนา?

เห็นได้ชัดว่า

มีเรื่องมากมายเกี่ยวกับการให้คำมั่นสัญญาและแรงฉุดที่พวกเขาหล่อหลอม

สรุป

คุณอาจจะพูดว่า บริษัทเหล่านี้ที่พยายามทำสิ่งที่ถูกต้อง กำลังถูกตีกลองเพื่อพยายามทำสิ่งที่ถูกต้อง

เกิดอะไรขึ้นกับโลกของเรา?

ใครก็ตามที่ให้คำมั่นสัญญาดังกล่าวควรได้รับประโยชน์จากข้อสงสัย คุณอาจรักษาไว้อย่างกระตือรือร้น พวกเขากำลังก้าวออกไปสู่พื้นที่สาธารณะเพื่อสร้างผลงานที่กล้าหาญและมีความสำคัญ หากเราเริ่มเยาะเย้ยพวกเขาที่ทำเช่นนั้น มันจะยิ่งทำให้เรื่องแย่ลงไปอีก ไม่มีใครอยากจะให้คำมั่นสัญญาดังกล่าว บริษัทและบริษัทอื่นไม่แม้แต่จะลอง พวกเขาจะซ่อนตัวและไม่เตือนสังคมล่วงหน้าเกี่ยวกับสิ่งที่หุ่นยนต์เต้นที่รักเหล่านี้สามารถกลายเป็นอันตรายได้

ผู้คลางแคลงใจประกาศว่าหนทางที่จะทำให้สังคมฉลาดขึ้นนั้นเกี่ยวข้องกับการกระทำอื่นๆ เช่น การละทิ้งการแสดงเพ้อฝันในการจัดแสดงหุ่นยนต์ AI ที่กำลังเต้นรำอยู่ หรืออย่างน้อยก็ทำให้การกระทำที่สมดุลมากขึ้น ตัวอย่างเช่น แทนที่จะเลียนแบบสุนัขที่ภักดีต่อสัตว์เลี้ยงอันเป็นที่รักเพียงอย่างเดียว ให้แสดงให้เห็นว่าหุ่นยนต์เต้นสามารถคล้ายกับหมาป่าโกรธที่ปลดปล่อยออกมาซึ่งสามารถฉีกมนุษย์เป็นชิ้นเล็กชิ้นน้อยได้โดยไม่ลังเลเลย

พวกเขาจะได้รับความสนใจมากกว่าคำมั่นสัญญา

คำมั่นสัญญาอาจเป็นปริศนาได้อย่างแน่นอน

ดังที่มหาตมะ คานธีกล่าวไว้อย่างฉะฉาน: “ไม่ว่าคำมั่นสัญญาจะชัดเจนเพียงใด ผู้คนจะพลิกและบิดข้อความเพื่อให้เหมาะกับจุดประสงค์ของตนเอง”

โธมัส เจฟเฟอร์สันอาจกล่าวสรุปในที่นี้เกี่ยวกับคำปฏิญาณว่า “เราให้คำมั่นสัญญาชีวิต โชคชะตา และเกียรติอันศักดิ์สิทธิ์ของเราให้กันและกัน”

เมื่อพูดถึงหุ่นยนต์ AI ความเป็นอิสระ อาวุธ และอื่นๆ ที่คล้ายคลึงกัน ท้ายที่สุดแล้วเราทุกคนจะต้องร่วมมือกัน อย่างน้อยคำมั่นสัญญาร่วมกันของเราต้องคือการที่เราจะรักษาเรื่องเหล่านี้ไว้ข้างหน้า เราจะพยายามหาวิธีที่จะรับมือกับความก้าวหน้าเหล่านี้ และหาทางไปสู่การรักษาเกียรติ โชคลาภ และชีวิตของเรา

เราสามารถให้คำมั่นสัญญาได้หรือไม่?

ฉันหวังว่าดังนั้น

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- ผู้ผลิตหุ่นยนต์-บอกว่า-พวกเขาจะ-หลีกเลี่ยง-ai-อาวุธ/