จรรยาบรรณของ AI ต่อสู้กับอุบัติเหตุ AI อย่างหลีกเลี่ยงไม่ได้ซึ่งเกิดขึ้นกับรถยนต์ที่ขับด้วยตนเองโดยอัตโนมัติเช่นกัน

คุณรู้จักใครที่ดูเหมือนจะเกิดอุบัติเหตุได้ง่ายเป็นพิเศษหรือไม่?

ดูเหมือนว่าเราทุกคนทำ

บางทีคนๆ นั้นอาจเป็นประเภทที่มักจะลื่นบนเปลือกกล้วยหรือเคาะแจกันล้ำค่าในห้องนั่งเล่นของคุณ พวกเขาเป็นแม่เหล็กของมนุษย์สำหรับอุบัติเหตุไม่ทางใดก็ทางหนึ่ง มันอาจจะเลวร้ายมากที่คุณไม่อยากอยู่ใกล้พวกเขาในบางครั้ง คุณอาจได้รับน้ำล้นที่เป็นลางสังหรณ์หรือประสบผลพวงอันน่าอับอายจากอุบัติเหตุอันไม่น่าพึงใจอย่างใดอย่างหนึ่งของพวกเขา

แต่บางทีเราอาจใช้ความรุนแรงเกินไปเมื่อบอกว่าใครก็ตามที่มีแนวโน้มจะเกิดอุบัติเหตุมากกว่าคนอื่นๆ อาจมีการโต้แย้งว่าอุบัติเหตุสามารถเกิดขึ้นได้กับพวกเราทุกคน เราทุกคนล้วนมีความเป็นไปได้ที่จะกระทำความผิดหรือพัวพันกับอุบัติเหตุ รวมสิ่งที่ดีที่สุดของเรา

มาต่อกันที่การอภิปรายนี้เป็นคำถามที่น่ารำคาญเพิ่มเติม

อุบัติเหตุหลีกเลี่ยงไม่ได้?

กล่าวอีกนัยหนึ่ง ไม่ว่าเราจะพยายามป้องกันอุบัติเหตุมากเพียงไร ก็อาจแยกไม่ออกว่ายังคงมีโอกาสและความแน่นอนสูงสุดที่อุบัติเหตุจะเกิดขึ้น คุณสามารถพยายามที่จะปกป้องโลกจากอุบัติเหตุ ที่ดูเหมือนสุขุมอย่างไม่ต้องสงสัย แต่ไม่ทางใดก็ทางหนึ่ง อุบัติเหตุจะยังคงฝังหัวที่น่าเกลียดของพวกเขา

อย่างที่พวกเขาพูดกัน อุบัติเหตุกำลังรอที่จะเกิดขึ้น

อาจเป็นประโยชน์ที่จะชี้แจงความหมายโดยอ้างถึงเหตุการณ์บางอย่างว่าได้รับการติดป้ายอย่างเหมาะสมว่าเป็นอุบัติเหตุ คำจำกัดความของพจนานุกรมทั่วไปคือ อุบัติเหตุเป็นเหตุการณ์ประเภทหนึ่งที่เกิดขึ้นโดยไม่คาดคิดและไม่ได้ตั้งใจ ซึ่งมีผลร้ายที่ประกอบด้วยรูปร่างของความเสียหายหรือการบาดเจ็บ

แกะคำจำกัดความนั้นออกมาอย่างมีสติ

เหตุการณ์ดังกล่าวไม่คาดฝัน นี่แสดงว่าเราไม่ได้ตระหนักว่าอุบัติเหตุจะเกิดขึ้นเอง

เหตุการณ์ดังกล่าวไม่ได้ตั้งใจ นี่แสดงให้เห็นว่าเราควรแยกแยะสถานการณ์ที่ใครบางคนจงใจพยายามให้เกิดเหตุการณ์นั้นขึ้น หากนักเล่นตลกเอาเปลือกกล้วยวางบนพื้นโดยที่พวกเขารู้ว่ามีผู้บริสุทธิ์ที่โชคร้ายและไม่สงสัยจะเหยียบย่ำ คุณคงถูกกดดันอย่างหนักที่จะยืนยันว่าคนที่สะดุดทับมันประสบอุบัติเหตุ พวกเขากลับถูกหลอกและถูกนำเข้าสู่กับดักอย่างร้ายกาจ

คำจำกัดความยังรวมถึงเกณฑ์ที่ผลลัพธ์เป็นที่น่าผิดหวัง อุบัติเหตุในแง่นี้ต้องนำไปสู่ผลลัพธ์ที่เป็นกรด คนที่บังเอิญเคาะแจกันแตกและอาจเสียหายของรายการที่ชื่นชอบเกินกว่าจะซ่อมแซมได้ เจ้าของแจกันได้รับอันตรายจากการสูญเสียมูลค่า คนที่วิ่งเข้าไปในแจกันตอนนี้อาจเป็นหนี้เจ้าของสำหรับความสูญเสีย สวรรค์ห้ามมิให้ผู้ใดถูกตัดหรือขูดเพราะแจกันแตก

เพื่อให้เกิดความสมดุลที่เท่าเทียมกัน เราอาจต้องการทราบว่ามีอุบัติเหตุที่เรียกว่า "ดี" ด้วยเช่นกัน บุคคลอาจพบว่าตัวเองโชคดีหรือได้รับผลประโยชน์ที่สำคัญอื่น ๆ อันเนื่องมาจากอุบัติเหตุ ตัวอย่างหนึ่งที่มักถูกกล่าวถึงมากที่สุด ได้แก่ เซอร์อเล็กซานเดอร์ เฟลมมิง และการค้นพบยาเพนิซิลลินที่ได้รับการยกย่อง เรื่องมีอยู่ว่าในห้องทดลองของเขาค่อนข้างประมาท และเมื่อกลับมาจากวันหยุดสองสัปดาห์ เขาพบแม่พิมพ์บนจานเพาะเชื้อแผ่นหนึ่งของเขา ตามรายงานข่าว พระองค์ตรัสเกี่ยวกับเรื่องนี้ว่า “บางครั้งเราพบสิ่งที่ไม่ได้มองหา เมื่อฉันตื่นนอนตอนรุ่งสางในวันที่ 28 กันยายน พ.ศ. 1928 ฉันไม่ได้วางแผนที่จะปฏิวัติยาทั้งหมดโดยการค้นพบยาปฏิชีวนะหรือยาฆ่าแบคทีเรียตัวแรกของโลก แต่ฉันเดาว่านั่นคือสิ่งที่ฉันทำ”

เราจะละทิ้งอุบัติเหตุที่เอื้ออำนวยและเน้นที่อุบัติเหตุที่น่าสลดใจในที่นี้ อุบัติเหตุแบบหน้าบึ้งเป็นที่ที่ผลลัพธ์ที่ไม่พึงประสงค์เหล่านั้นสามารถเป็นอันตรายถึงชีวิตโดยเฉพาะอย่างยิ่งหรือมีผลที่ยุ่งยาก มากที่สุดเท่าที่จะเป็นไปได้ อุบัติเหตุด้านลบที่เราต้องการลดให้เหลือน้อยที่สุด (และแน่นอน อุบัติเหตุที่กลับหัวกลับหางที่เราอยากจะเพิ่มให้มากที่สุด หากสามารถทำได้ แม้ว่าฉันจะกล่าวถึงรูปแบบหน้ายิ้มนั้นในคอลัมน์ถัดไป)

ฉันต้องการทบทวนคำถามก่อนหน้านี้เล็กน้อยเกี่ยวกับความหลีกเลี่ยงไม่ได้ของอุบัติเหตุ จนถึงตอนนี้ เราได้ให้ความสนใจกับอุบัติเหตุที่เกิดขึ้นในบุคคลคนเดียวโดยเฉพาะ ไม่ต้องสงสัยเลยว่าอุบัติเหตุสามารถส่งผลกระทบต่อผู้คนจำนวนมากได้ในคราวเดียว สิ่งนี้สามารถเกิดขึ้นได้โดยเฉพาะเมื่อผู้คนจมอยู่ในระบบที่ซับซ้อนไม่ทางใดก็ทางหนึ่ง

เตรียมตัวให้พร้อมสำหรับคำถามที่ลอยอยู่ก่อนหน้านี้

อุบัติเหตุของระบบเป็นสิ่งที่หลีกเลี่ยงไม่ได้หรือไม่?

เราควรครุ่นคิดเรื่องนี้ให้จบ

สมมติว่ามีการวางพื้นโรงงานเพื่อทำชิ้นส่วนสำหรับรถยนต์ บรรดาผู้ที่ออกแบบโรงงานนั้น สมมติว่ากังวลอย่างมากเกี่ยวกับอุบัติเหตุของพนักงานที่อาจเกิดขึ้น พนักงานโรงงานต้องสวมหมวกกันน็อคตลอดเวลา ป้ายเตือนโรงงานระวังอุบัติเหตุและมีสติในการทำงาน ได้ใช้มาตรการป้องกันทุกประการเพื่อไม่ให้เกิดอุบัติเหตุ

ในระบบนี้ เราอาจหวังว่าจะไม่มีใครเกิดอุบัติเหตุ คุณเชื่อหรือไม่ว่าโอกาสที่อุบัติเหตุจะเกิดขึ้นเป็นศูนย์? ฉันกล้าแนะนำว่าไม่มีนักคิดที่มีเหตุผลจะเดิมพันว่าโอกาสเกิดอุบัติเหตุเป็นศูนย์ในกรณีนี้ โอกาสที่เกิดอุบัติเหตุอาจต่ำมาก แต่เรายังคงทราบและสันนิษฐานว่าแม้จะมีข้อควรระวังทั้งหมด แต่ก็ยังมีความเสี่ยงเล็กน้อยที่อุบัติเหตุจะเกิดขึ้น

ทั้งหมดนี้ชี้ให้เห็นถึงแนวคิดที่ว่าในระบบที่มีความซับซ้อนเพียงพอ เราจำเป็นต้องเชื่อว่าอุบัติเหตุยังคงเกิดขึ้นได้ ไม่ว่าเราจะพยายามป้องกันมากแค่ไหนก็ตาม เราลังเลที่จะสนับสนุนตนเองในข้อกำหนดที่ว่าอุบัติเหตุของระบบเป็นสิ่งที่หลีกเลี่ยงไม่ได้อย่างแท้จริง ถ้อยแถลงที่ยิ่งใหญ่ของความสามารถนี้อาจมีข้อแม้ว่าระบบจะต้องมีธรณีประตูของความซับซ้อนบางอย่างซึ่งโดยพื้นฐานแล้วเป็นไปไม่ได้ที่จะครอบคลุมฐานทั้งหมดเพื่อป้องกันอุบัติเหตุโดยสิ้นเชิง

คุณได้รับการแนะนำอย่างเป็นขั้นเป็นตอนเกี่ยวกับทฤษฎีที่สรุปคร่าวๆ เกี่ยวกับอุบัติเหตุที่สามารถระบุได้ว่าเป็นอุบัติเหตุปกติหรือทฤษฎีอุบัติเหตุปกติ (NAT) นี่คือคำอธิบายที่มีประโยชน์โดยนักวิจัยที่ได้ตรวจสอบแนวคิดนี้: “ในขนาดที่ใหญ่เพียงพอ ระบบใดก็ตามจะทำให้เกิด 'อุบัติเหตุปกติ' สิ่งเหล่านี้เป็นอุบัติเหตุที่หลีกเลี่ยงไม่ได้ซึ่งเกิดจากความซับซ้อน การมีเพศสัมพันธ์ระหว่างส่วนประกอบ และอันตรายที่อาจเกิดขึ้น อุบัติเหตุปกติจะแตกต่างจากอุบัติเหตุที่เกิดจากความล้มเหลวของส่วนประกอบทั่วไป โดยที่เหตุการณ์และการโต้ตอบที่นำไปสู่อุบัติเหตุปกตินั้นไม่สามารถเข้าใจได้สำหรับผู้ปฏิบัติงานของระบบ” (ตามที่ระบุไว้ใน “การทำความเข้าใจและการหลีกเลี่ยงความล้มเหลวของ AI: A Practice Guide” โดย Robert Williams และ โรมัน แยมโพลสกี้, ปรัชญา วารสาร).

เหตุผลที่ฉันพาเธอมาสู่ดินแดนที่เรียกว่า อุบัติเหตุปกติ ก็คือเราอาจต้องใช้ทฤษฎีนี้อย่างรอบคอบกับบางสิ่งที่ค่อยๆ แพร่หลายและแพร่หลายในสังคมของเราอย่างหลีกเลี่ยงไม่ได้ นั่นคือการถือกำเนิดของปัญญาประดิษฐ์ (AI)

มาเจาะลึกเรื่องนี้กัน

บางคนเข้าใจผิดคิดว่า AI จะสมบูรณ์แบบ ระบบ AI จะไม่ทำผิดพลาดและจะไม่ทำให้เราเดือดร้อน การเก็งกำไรดำเนินไป สิ่งที่คุณต้องทำคือตรวจสอบให้แน่ใจว่านักพัฒนา AI เหล่านั้นทำงานได้ดีพอ และแน่นอนว่า AI จะไม่ทำอะไรที่อาจตีความได้ว่าบังเอิญหรือก่อให้เกิดอุบัติเหตุ

ไม่เร็วนักกับความเชื่อสมมตินั้น หากคุณยินดีที่จะซื้อทฤษฎีของ อุบัติเหตุปกติAI ใด ๆ ที่มีความซับซ้อนอย่างแท้จริงจะทำให้เกิดอุบัติเหตุอย่างหลีกเลี่ยงไม่ได้ ไม่ว่านักพัฒนา AI เหล่านั้นจะต้องปรับปรุงแก้ไขอย่างไรในช่วงดึกเพื่อป้องกันอุบัติเหตุ แต่ในบางช่วงเวลา AI ก็อาจเข้าไปพัวพันกับอุบัติเหตุได้ นั่นคือวิธีที่คุกกี้บี้ และไม่มีการผ่อนปรนด้วยการร้องไห้ในนมที่หกของเราเกี่ยวกับเรื่องนี้

ไตร่ตรองการผสมผสานของ AI และหลักแนวคิดของ อุบัติเหตุปกติ.

ลองนึกภาพว่าเรามีระบบ AI ที่ควบคุมอาวุธนิวเคลียร์ AI ได้รับการสร้างขึ้นอย่างพิถีพิถัน การตรวจสอบและยอดคงเหลือทั้งหมดที่เป็นไปได้ได้รับการเข้ารหัสไว้ในระบบ AI เราปลอดภัยจากอุบัติเหตุจาก AI ที่อาจเกิดขึ้นหรือไม่? ผู้ที่สนับสนุนมุมมองการเกิดอุบัติเหตุปกติจะบอกว่าเราไม่ปลอดภัยเท่าที่ควร เนื่องจาก AI มีแนวโน้มที่จะซับซ้อนเป็นพิเศษ อุบัติเหตุปกติกำลังรออยู่ในนั้นอย่างเงียบๆ สักวันหนึ่งอาจปรากฏขึ้น บางทีอาจเป็นช่วงเวลาที่เลวร้ายที่สุด

แก่นแท้ของคำถามและความรู้สึกไม่สบายใจเหล่านั้นก็คือ เราต้องระมัดระวังว่า AI จะต้องประสบกับอุบัติเหตุ และมนุษยชาติต้องทำอะไรบางอย่างที่สมเหตุสมผลและเชิงรุกเกี่ยวกับอันตรายที่อาจเกิดขึ้น ดังที่คุณจะเห็นในอีกสักครู่ นี่เป็นข้อควรพิจารณาที่ใกล้จะเกิดขึ้นเมื่อใช้ AI และสาขาของ AI Ethics และ Ethical AI กำลังทะเลาะกันอยู่บ้างเกี่ยวกับสิ่งที่ต้องทำ สำหรับการครอบคลุมอย่างต่อเนื่องและกว้างขวางของฉันเกี่ยวกับจริยธรรม AI และ AI เชิงจริยธรรม โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ก่อนที่เราจะลงหลุมกระต่าย เรามาทำความเข้าใจธรรมชาติของ AI กันก่อนดีกว่า วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ที่ให้คำแนะนำแก่คุณ ยิ่งกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่). ทั้งหมดบอกว่าสถานการณ์เหล่านี้จะช่วยเพิ่มการประเมินแหล่งที่มา

เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ตามแนวคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหา AI ที่ต่อสู้กับไฟด้วยไฟในลักษณะที่คิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ดูแลในการติดตามและตรวจจับเมื่อ AI อื่นกำลังเข้าสู่ขุมนรกที่ผิดจรรยาบรรณ (ดูการวิเคราะห์ความสามารถดังกล่าวของฉันได้ที่ ลิงค์ที่นี่).

ทั้งหมดที่กล่าวมา ความหวังทั่วไปคือการสร้างความรู้สึกของหลักจรรยาบรรณของ AI อย่างน้อย เราจะสามารถเพิ่มความตระหนักในสังคมเกี่ยวกับสิ่งที่ AI สามารถทำได้ทั้งเป็นประโยชน์และส่งผลเสียได้เช่นกัน ฉันได้พูดคุยกันอย่างกว้างขวางเกี่ยวกับการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยังเป็นสิ่งที่ยากต่อการถอดรหัส โดยรวมแล้วเป็นการง่ายที่จะโบกมือว่าหลักจรรยาบรรณของ AI คืออะไรและควรปฏิบัติตามอย่างไร ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากในการเข้ารหัส AI ที่จะต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นจุดเด่นที่สำคัญเนื่องจากข้อสันนิษฐานตามปกติคือ "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ระบุไว้ก่อนหน้านี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

เราอาจจำเป็นต้องเพิ่มรายการจริยธรรม AI ที่ถูกโอ้อวด ซึ่งเราจำเป็นต้องพิจารณาและดำเนินการอย่างโจ่งแจ้งเพื่อป้องกันหรืออย่างน้อยก็ลดการใช้ AI อย่างเฉียบขาด อุบัติเหตุปกติ ที่อาจจะเกิดขึ้น บรรดาผู้ที่พัฒนา AI จำเป็นต้องทำให้ดีที่สุดในแนวหน้า ผู้ที่ใช้ AI ต้องทำเช่นเดียวกัน ผู้ที่ใช้หรืออยู่ภายใต้ AI อย่างใดควรระมัดระวังและระมัดระวังสำหรับความเป็นไปได้ที่จะเกิดอุบัติเหตุ AI ที่ดูเหมือนจะเกิดขึ้น

คุณอาจถูกล่อลวงให้คิดว่า AI สามารถสร้างมาตรการป้องกันที่เพียงพอเพื่อให้โอกาสเกิดอุบัติเหตุลดลงเหลือศูนย์ สำหรับผู้ที่เป็นพวกชอบเทคโนโลยี ความโอหังปกติคือถ้าเทคโนโลยีชิ้นหนึ่งสามารถสร้างปัญหาได้ เทคโนโลยีอีกชิ้นหนึ่งก็สามารถแก้ปัญหาได้อย่างแน่นอน เพียงแค่โยนเทคโนโลยีมากขึ้นเรื่อย ๆ จนกว่าปัญหาจะหายไป

บรรดาผู้ที่ศึกษาอุบัติเหตุที่มุ่งเน้นระบบมักจะไม่เห็นด้วยและโต้กลับอย่างสุภาพต่อความโอ่อ่าตระการทางเทคโนโลยีที่สันนิษฐานไว้โดยเสนอจุดยืนที่เรียกว่า Swiss Cheese Model (SCM): “ใน SCM ชั้นของความปลอดภัยถูกจำลองเป็นชิ้นส่วนของ ชีสที่มีรูเป็นรูแสดงถึงจุดอ่อนในแต่ละชั้นของความปลอดภัย เมื่อเวลาผ่านไป รูจะเปลี่ยนรูปร่างและเคลื่อนที่ไปมา ในที่สุด ไม่ว่าจะมีชีสกี่แผ่น (ชั้นของความปลอดภัย) รูจะเรียงตัวกันเพื่อให้ยิงตรงผ่านชีสทั้งหมด (เกิดอุบัติเหตุ)” (ตามเอกสารที่อ้างถึงก่อนหน้านี้โดย Robert Williams และ Roman Yampolskiy ).

ฉันไม่ต้องการที่จะจมอยู่ในด้านนี้สัมผัสกันว่าจะมีวิธีการรับประกันว่าจะตั้งโปรแกรม AI ให้ทั้งหมดและหลีกเลี่ยงโอกาสที่จะเกิดอุบัติเหตุหรือไม่ มีวิธีการพิสูจน์ทางคณิตศาสตร์และการคำนวณทุกรูปแบบที่กำลังทดลองอยู่ ฉันคิดว่ามันสมเหตุสมผลและยุติธรรมที่จะประกาศว่าวันนี้เราไม่มีวิธีการทำงานที่ปรับขนาดได้หรือเทคโนโลยีที่สามารถหุ้มเกราะรับประกันโอกาสเป็นศูนย์ได้ บวกกับเราต้องแบกรับ AI จำนวนมากที่ผลิตขึ้นมาโดยเรา ทราบแน่ชัดว่ามิได้พยายามที่จะปฏิบัติตามแนวปฏิบัติดังกล่าว จุดหลังนั้นมีความสำคัญเนื่องจากแม้ว่าเราจะสามารถปรุงบางอย่างในห้องปฏิบัติการ AI ได้ การปรับขยายให้เป็นล้านของความพยายาม AI ที่ดุร้ายและไร้กังวลที่กำลังดำเนินการอยู่และที่จะยังคงปรากฏออกมานั้นเป็นปัญหาที่ยุ่งยากและไม่น่าจะแก้ไขได้แม้ว่าเครื่องพิสูจน์ด้วยคอมพิวเตอร์สีเงิน มีกระสุนอยู่

อีกประเด็นหนึ่งที่ฉันเชื่อว่าสมควรกล่าวถึงสั้น ๆ ได้แก่ AI ที่กลายเป็นการกระทำที่เลวร้ายอันเป็นผลมาจากการกระทำของมนุษย์ที่มุ่งร้าย ฉันจะไม่ใส่ตัวอย่างเหล่านั้นในขอบเขตของอุบัติเหตุ AI พึงระลึกว่าในการอภิปรายช่วงต้นชี้ว่าคำจำกัดความของพจนานุกรมของอุบัติเหตุคือเหตุการณ์ของ an ไม่ได้ตั้งใจ ธรรมชาติ. ถ้าโจรไซเบอร์ของมนุษย์จัดการเพื่อให้ระบบ AI ทำสิ่งเลวร้าย ผมไม่จัดว่า AI ประสบอุบัติเหตุ ฉันเชื่อว่าคุณจะไปพร้อมกับข้อสันนิษฐานนั้น

คำถามที่น่าสนใจเกิดขึ้นเกี่ยวกับการกระทำที่ไม่ดีของ AI หลายประการที่สามารถนำมาประกอบกับอุบัติเหตุ AI เพียงอย่างเดียวกับการกระทำที่หลอกลวงของอาชญากรไซเบอร์ ตามฐานข้อมูลการรายงานเหตุการณ์ AI ที่มีอยู่ ดูเหมือนว่าอุบัติเหตุ AI เกิดขึ้นมากกว่าเหตุการณ์ที่มุ่งร้าย แม้ว่าคุณจะต้องใช้ความคิดนั้นด้วยเกลือปริมาณมาก ฉันพูดแบบนี้เพราะมีความพยายามอย่างมากที่จะไม่รายงานเมื่อระบบ AI ถูกโจมตี และอาจค่อนข้างเต็มใจที่จะรายงานเมื่อเกิดอุบัติเหตุ AI

มีข้อแม้ที่สำคัญอย่างยิ่งที่เราต้องหารือเกี่ยวกับอุบัติเหตุของ AI

การใช้ประโยคที่ว่า “อุบัติเหตุ AI” โดยทั่วไปไม่พึงปรารถนาและจะสร้างความวุ่นวายให้กับพวกเราทุกคน ซึ่งหมายถึงทุกคนในสังคม เมื่อโอกาสที่มนุษย์ประสบอุบัติเหตุ เรามักจะยักไหล่และเห็นอกเห็นใจผู้ประสบอุบัติเหตุ ดูเหมือนเราจะปฏิบัติกับคำว่า "อุบัติเหตุ" ราวกับว่าไม่มีใครรับผิดชอบในสิ่งที่เกิดขึ้น

มาดูตัวอย่างการเกิดอุบัติเหตุทางรถยนต์กัน รถคันหนึ่งเลี้ยวขวาเป็นวงกว้าง และบังเอิญชนกับรถอีกคันที่กำลังวิ่งตรงไปข้างหน้า แย่จัง มันเป็นแค่อุบัติเหตุและบังเอิญเกิดขึ้น ผู้ที่ไม่เกี่ยวข้องในเหตุการณ์อาจจะปล่อยให้เรื่องเลื่อนลอยหากเหตุการณ์นั้นเป็นเพียงอุบัติเหตุที่เกิดขึ้นเท่านั้น

ผมมีความรู้สึกว่าถ้าคุณอยู่ในรถที่โดนชน คุณจะไม่เห็นอกเห็นใจคนขับที่เบี่ยงออกกว้างเกินไป ความคิดเห็นของคุณคงจะเป็นแน่ชัดว่าคนขับอีกคนเป็นคนขับที่มีหมัด และการกระทำที่เห็นได้ชัดว่าผิดกฎหมายหรือไม่ฉลาดในการขับขี่ทำให้รถชน โดยระบุว่าเหตุการณ์นั้นเป็น "อุบัติเหตุ" ผู้ขับขี่ที่ติดอยู่ในขณะนี้ค่อนข้างเสียเปรียบเนื่องจากลักษณะที่ปรากฏคือทั้งหมดเกิดขึ้นโดยบังเอิญเพียงอย่างเดียวมากกว่าที่จะเกิดจากมือของคนขับที่เลอะเทอะ

ในความเป็นจริง คำว่า "อุบัติเหตุ" นั้นเต็มไปด้วยความหมายแฝงที่แตกต่างกัน ซึ่งโดยมากแล้ว สถิติของรัฐบาลเกี่ยวกับอุบัติเหตุทางรถยนต์อ้างถึงเรื่องนี้ว่าเป็นการชนกันของรถหรือรถชน แทนที่จะใช้วลีอุบัติเหตุทางรถยนต์ การชนกันของรถยนต์หรืออุบัติเหตุทางรถยนต์ดูเหมือนจะไม่มีความหมายใด ๆ เกี่ยวกับเหตุการณ์ที่เกิดขึ้น ในขณะเดียวกัน การใช้ถ้อยคำของ "อุบัติเหตุทางรถยนต์" เกือบจะทำให้เราคิดว่ามันเป็นชะตากรรมหรืออยู่นอกมือมนุษย์

คุณสามารถเห็นได้อย่างมากมายว่าการพิจารณาเชิงนัยนี้มีผลอย่างไรเมื่อพูดถึงอุบัติเหตุของ AI เราไม่ต้องการให้นักพัฒนา AI ซ่อนตัวอยู่หลังโล่ที่มีความหมายว่า AI บังเอิญทำให้ใครบางคนได้รับบาดเจ็บ เช่นเดียวกับผู้ที่ปรับใช้ AI คุณสามารถโต้แย้งได้ว่าการใช้ถ้อยคำของ "อุบัติเหตุของ AI" นั้นเกือบจะเป็นรูปร่างของ AI ที่จะหลอกลวงสังคมให้ยอมให้มนุษย์ที่อยู่เบื้องหลัง AI หนีจากความรับผิดชอบ สำหรับการสนทนาของฉันเกี่ยวกับความสำคัญที่เพิ่มขึ้นของการให้มนุษย์รับผิดชอบต่อ AI โปรดดูการสนทนาของฉันที่ ลิงค์นี้ และ ลิงค์นี้.

ต่อจากนี้ไป ฉันจะใช้บทกลอนของอุบัติเหตุ AI แต่ฉันทำอย่างไม่เต็มใจและเพียงเพราะเป็นวิธีธรรมดาในการอ้างถึงปรากฏการณ์นี้ ความพยายามที่จะพูดคำนี้แตกต่างออกไปมีแนวโน้มที่จะอ้วนขึ้นอย่างน่าเศร้าและอ่านไม่ง่ายนัก โปรดตรวจสอบให้แน่ใจว่าได้ตีความบทกลอนในลักษณะที่ไม่ทำให้คุณมองไปทางอื่นและไม่ได้ตระหนักว่ามนุษย์ที่อยู่ภายใต้ AI นั้นสามารถตำหนิได้เมื่อ AI ผิดพลาด

เพื่อช่วยอธิบายความสับสนหรือแง่มุมที่อาจทำให้เข้าใจผิดของการอ้างถึง AI ว่าเป็นอุบัติเหตุที่เกิดขึ้น เราสามารถกลับไปที่คำพูดของฉันเกี่ยวกับการเคาะแจกัน ลองพิจารณาตัวอย่างของ AI ที่ทำเช่นนี้: “ปัญหานี้เกี่ยวข้องกับสิ่งที่ทำโดยบังเอิญหรือไม่แยแสโดย AI หุ่นยนต์ทำความสะอาดเคาะแจกันเป็นตัวอย่างหนึ่งของเรื่องนี้ สภาพแวดล้อมที่ซับซ้อนมี 'แจกัน' มากมายจนเราไม่สามารถตั้งโปรแกรมเพื่อโทษผลข้างเคียงทั้งหมดได้” (รายงานโดย Robert Williams และ Roman Yampolskiy)

ระบบ AI ที่ใช้ในบ้านแล้ว "บังเอิญ" ชนแจกันดูเหมือนจะแนะนำว่าไม่มีใครควรถูกตำหนิสำหรับการกระทำที่ไม่พึงประสงค์นี้ของ AI มันเป็นแค่อุบัติเหตุ อาจมีคนประณามอย่างคร่ำครวญ ในทางกลับกัน เราควรถามอย่างถูกต้องว่าทำไมระบบ AI ไม่ได้ถูกตั้งโปรแกรมให้จัดการกับสถานการณ์แจกันโดยทั่วไป แม้ว่านักพัฒนา AI ไม่ได้คาดหมายว่าแจกันจะอยู่ภายในขอบเขตของวัตถุที่สามารถพบได้ เราสามารถตั้งคำถามได้อย่างแน่นอนว่าทำไมไม่มีการหลีกเลี่ยงวัตถุที่ครอบคลุมซึ่งจะทำให้ระบบ AI ล้มลง แจกัน (ดังนั้น AI อาจไม่ยอมรับว่าแจกันเป็นแจกัน แต่ก็ยังสามารถหลีกเลี่ยงได้ว่าเป็นวัตถุที่ตรวจจับได้เพื่อหลีกเลี่ยง)

ฉันได้คาดการณ์และคาดการณ์ต่อไปว่าเรากำลังค่อยๆ มุ่งหน้าไปสู่การต่อสู้ทางกฎหมายครั้งใหญ่เกี่ยวกับการเกิดขึ้นของระบบ AI ที่เข้าไปอยู่ใน "อุบัติเหตุของ AI" และก่อให้เกิดอันตรายบางรูปแบบ จนถึงขณะนี้ สังคมไม่ได้ตอบสนองต่อการผลักดัน AI อย่างถูกกฎหมายซึ่งถูกผลักออกสู่ตลาดและก่อให้เกิดผลที่ไม่พึงประสงค์ไม่ว่าจะโดยเจตนาหรือโดยไม่ได้ตั้งใจ กลุ่มบริษัท AI ในปัจจุบันที่กลายเป็นกลุ่มผู้ผลิต AI กึ่งสำเร็จรูป และบรรดาผู้ผลิต AI ที่รีบเร่งในการปรับใช้ AI กำลังได้รับโชคดีในขณะนี้ และยังคงไม่ถูกแตะต้องโดยคดีแพ่งและการดำเนินคดีทางอาญา

ฟันเฟืองทางกฎหมายของ AI กำลังจะมาถึงไม่ช้าก็เร็ว

ต่อไปเราจะพยายามรับมือกับสิ่งที่เรียกว่าอุบัติเหตุ AI อย่างหลีกเลี่ยงไม่ได้อย่างไร?

สิ่งหนึ่งที่เราสามารถทำได้ทันทีคือพยายามคาดการณ์ว่าอุบัติเหตุ AI จะเกิดขึ้นได้อย่างไร การคาดคะเนอุบัติเหตุ AI อย่างน้อย เราสามารถหาวิธีที่จะลดหรือลดโอกาสที่จะเกิดขึ้นได้ ยิ่งไปกว่านั้น เราสามารถพยายามติดตั้งราวกันตกเพื่อที่ว่าเมื่อเกิดอุบัติเหตุ AI ขึ้น โอกาสในการแสดงความเสียหายจะลดลง

ชุดปัจจัยที่เป็นประโยชน์ซึ่งอธิบายไว้ในบทความวิจัยที่อ้างถึงก่อนหน้านี้ การทำความเข้าใจและการหลีกเลี่ยงความล้มเหลวของ AI: แนวทางปฏิบัติ รวมถึงคุณสมบัติเหล่านี้ (ตามที่อ้างจากงานวิจัย):

  • ระบบที่ได้รับผลกระทบจากผลลัพธ์ของ AI
  • การหน่วงเวลาระหว่างเอาต์พุต AI และระบบที่ใหญ่กว่า ความสามารถในการสังเกตระบบ ระดับความสนใจของมนุษย์ และความสามารถของผู้ปฏิบัติงานในการแก้ไขความผิดปกติของ AI
  • ความเสียหายสูงสุดที่เป็นไปได้จากการใช้ระบบที่เป็นอันตรายที่ AI ควบคุม
  • การรวมส่วนประกอบเข้ากับ AI และความซับซ้อนของการโต้ตอบ
  • ช่องว่างความรู้ของ AI และเทคโนโลยีอื่นๆ ที่ใช้และระดับพลังงานของระบบ

ในช่วงหัวเลี้ยวหัวต่อของการอภิปรายที่หนักหน่วงนี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างตัวอย่างที่อาจช่วยอธิบายเพิ่มเติมเกี่ยวกับหัวข้ออุบัติเหตุ AI มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI รวมถึงการแตกสาขาตามหลักจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้าน AI ที่มีจริยธรรมนี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการสนทนาอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การปรากฎตัวของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI นั้นให้ความสว่างแก่อะไรเกี่ยวกับการถือกำเนิดของสิ่งที่เรียกว่าอุบัติเหตุ AI และหากเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอะไร?

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อความกระจ่าง รถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมด และไม่มีความช่วยเหลือจากมนุษย์ในระหว่างงานขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถที่ขับด้วยตัวเองที่แท้จริงในระดับ 5 และเรายังไม่รู้ด้วยซ้ำว่าจะสำเร็จหรือไม่ และต้องใช้เวลานานแค่ไหนกว่าจะไปถึงที่นั่น

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ไร้คนขับและเหตุการณ์ AI

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง

ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและความเป็นไปได้ของ AI ที่มีจริยธรรมซึ่งก่อให้เกิดอุบัติเหตุที่เรียกว่า AI

ลองนึกภาพว่ารถยนต์ไร้คนขับที่ใช้ AI กำลังดำเนินการอยู่บนถนนในละแวกของคุณ และดูเหมือนว่าจะขับขี่ได้อย่างปลอดภัย ในตอนแรก คุณให้ความสนใจเป็นพิเศษกับทุกครั้งที่คุณมีโอกาสได้เห็นรถที่ขับด้วยตัวเอง รถยนต์ไร้คนขับโดดเด่นด้วยชั้นวางเซ็นเซอร์อิเล็กทรอนิกส์ที่มีกล้องวิดีโอ หน่วยเรดาร์ อุปกรณ์ LIDAR และอื่นๆ หลังจากใช้เวลาหลายสัปดาห์ของรถยนต์ไร้คนขับที่แล่นไปรอบๆ ชุมชนของคุณ ตอนนี้คุณแทบจะไม่สังเกตเห็นเลย เท่าที่คุณทราบ มันเป็นเพียงรถอีกคันบนถนนสาธารณะที่พลุกพล่านอยู่แล้ว

เพื่อไม่ให้คุณคิดว่าเป็นไปไม่ได้หรือเป็นไปไม่ได้ที่จะทำความคุ้นเคยกับการเห็นรถที่ขับด้วยตัวเอง ฉันได้เขียนบ่อยครั้งเกี่ยวกับสถานที่ที่อยู่ภายในขอบเขตของการทดลองใช้รถยนต์ไร้คนขับค่อย ๆ ชินกับการได้เห็นรถที่ตกแต่งแล้ว ในที่สุด ชาวบ้านหลายคนก็เปลี่ยนจากการเฆี่ยนตีอ้าปากค้าง มาเป็นการเปล่งเสียงหาวอย่างเบื่อหน่ายเมื่อได้เห็นรถที่ขับเองที่คดเคี้ยว

อาจเป็นสาเหตุหลักในตอนนี้ที่พวกเขาอาจสังเกตเห็นรถยนต์ไร้คนขับเพราะความระคายเคืองและปัจจัยที่ทำให้โกรธเคือง ระบบการขับขี่แบบ AI ที่จัดทำโดยหนังสือช่วยให้แน่ใจว่ารถยนต์ปฏิบัติตามการจำกัดความเร็วและกฎจราจรทั้งหมด สำหรับผู้ขับขี่ที่เป็นมนุษย์ที่วุ่นวายในรถยนต์ที่ขับเคลื่อนโดยมนุษย์แบบดั้งเดิม คุณอาจรู้สึกหงุดหงิดเมื่อต้องติดอยู่กับรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปฏิบัติตามกฎหมายอย่างเคร่งครัด

นั่นคือสิ่งที่เราทุกคนอาจต้องคุ้นเคย ไม่ว่าจะถูกหรือผิด

กลับมาที่เรื่องของเรา

อยู่มาวันหนึ่งรถยนต์ที่ขับเองได้ประสบอุบัติเหตุ

ขณะเลี้ยวขวา ระบบการขับขี่ AI เหวี่ยงยานพาหนะที่เป็นอิสระอย่างกว้างขวางและรถที่ขับเคลื่อนโดยมนุษย์ถูกชน รถที่ขับเคลื่อนโดยมนุษย์กำลังขับตรงไปข้างหน้าในช่องทางการจราจรที่เหมาะสม ไม่มีโอกาสพิเศษใดที่คนขับที่เป็นมนุษย์จะหักเลี้ยวหรือเลี่ยงการชน นอกจากนี้ ยังไม่มีการเตือนหรือสัญญาณใดๆ จากรถยนต์ที่ขับเองว่ากำลังจะเลี้ยวขวาอย่างกว้างขวาง

นี่เป็นอุบัติเหตุหรือไม่?

เราสามารถพูดได้อย่างแน่นอนว่ามันรวมอยู่ในรูบริกของการเป็นอุบัติเหตุ AI พื้นฐานสำหรับการยืนยันดังกล่าวคือมีระบบขับเคลื่อน AI ที่พวงมาลัยของรถยนต์ที่ขับเคลื่อนด้วยตนเอง ไม่ว่าจะด้วยเหตุผลใดก็ตาม AI เลือกที่จะทำการแกว่งกว้างเมื่อเลี้ยวขวา ส่งผลให้รถที่ขับเองชนรถที่ขับเคลื่อนโดยมนุษย์

จำการสนทนาก่อนหน้านี้เกี่ยวกับความหมายแฝงที่เกี่ยวข้องกับคำว่า "อุบัติเหตุ" และดูว่า undertones ดังกล่าวมีบทบาทอย่างไรในสถานการณ์นี้ นอกจากนี้ โปรดจำไว้ว่าเราได้พูดถึงกรณีของคนขับรถที่เลี้ยวขวาสุดและวิ่งเข้าไปในรถที่ขับโดยมนุษย์ เราตระหนักดีว่าแนวคิดของการกระทำนี้เป็น "อุบัติเหตุ" ทำให้เข้าใจผิดและสับสน คนขับที่เป็นมนุษย์ที่ทำวงสวิงกว้างสามารถซ่อนอยู่เบื้องหลังความคิดที่ว่าอุบัติเหตุเพียงแค่เกิดขึ้นซึ่งดูเหมือนจะเป็นความบังเอิญหรือความแปรปรวนของโชคชะตา

แทนที่จะระบุว่าสถานการณ์เป็น "อุบัติเหตุของ AI" ในกรณีของรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ไปในวงกว้างและชนกับรถที่ขับเคลื่อนโดยมนุษย์ เราอาจกล่าวได้ว่าเป็นการชนกันของรถยนต์หรือการชนกันของตัวรถเอง รถยนต์ที่ขับเคลื่อนด้วยรถยนต์และรถยนต์ที่ขับเคลื่อนโดยมนุษย์ จากนั้น เราสามารถละทิ้งความสับสนที่ว่างเปล่าว่าเป็นอุบัติเหตุที่ไม่ทราบวิธีการ

คุณคิดว่าปฏิกิริยาของสาธารณชนต่อเหตุการณ์นี้จะเป็นอย่างไร?

หากผู้ผลิตรถยนต์หรือบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองสามารถติดป้ายกำกับว่าเป็นเรื่องบังเอิญได้ พวกเขาอาจจะมองข้ามการฟันเฟืองที่อาจเกิดขึ้นจากชุมชนในวงกว้างได้ ความรู้สึกเห็นอกเห็นใจเกี่ยวกับอุบัติเหตุที่เล่าขานกันอาจจะไหลไปสู่สถานการณ์นั้นๆ สำหรับข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่เมือง เคาน์ตี และผู้นำของรัฐอาจมีปฏิกิริยาต่อเหตุการณ์ยานยนต์ไร้คนขับของ AI ให้ดูที่การอภิปรายของการศึกษาของฮาร์วาร์ดที่ฉันร่วมเป็นผู้นำและตามที่อธิบายไว้ใน ลิงค์ที่นี่.

หากอธิบายสถานการณ์ได้อย่างชัดเจนว่าเป็นรถชนหรือรถชนกัน บางทีนั่นอาจทำให้ตระหนักได้ว่าอาจมีคนหรือบางสิ่งบางอย่างเป็นผู้ตำหนิเหตุการณ์นั้น ปฏิกิริยาหัวเข่าอาจเป็นไปได้ว่า AI จะต้องรับผิดชอบ สิ่งนั้นคือ จนกว่าหรือถ้าเราตัดสินใจที่จะเจิม AI ให้เป็นบุคคลตามกฎหมาย คุณจะไม่สามารถตรึงความรับผิดชอบของ AI ได้ (ดูการสนทนาของฉันเกี่ยวกับ AI และบุคคลตามกฎหมายที่ ลิงค์ที่นี่).

เราสามารถตรวจสอบระบบการขับขี่ของ AI เพื่อลองค้นหาว่าอะไรทำให้เกิดการขับรถที่ไม่เหมาะสมและอุบัติเหตุรถชนในครั้งต่อๆ ไป นั่นไม่ได้หมายความว่า AI จะต้องรับผิดชอบ ฝ่ายที่รับผิดชอบ ได้แก่ นักพัฒนา AI เจ้าหน้าที่ควบคุมยานพาหนะอัตโนมัติ และอื่นๆ ฉันรวมคนอื่นด้วยเนื่องจากมีความเป็นไปได้ที่เมืองอาจต้องรับผิดชอบบางส่วนในการออกแบบมุมที่เกิดการเลี้ยว นอกจากนี้ สมมติว่าคนเดินถนนกำลังพุ่งออกจากมุมถนน และระบบขับเคลื่อน AI เลือกที่จะหลีกเลี่ยงบุคคลนั้นและเข้าไปพัวพันกับอุบัติเหตุรถชน

เป็นต้น

สรุป

เราอยากจะรู้ว่า AI นั้นคำนวณด้วยคอมพิวเตอร์อะไร และมันถูกตั้งโปรแกรมให้ทำอะไร AI ทำตามที่เข้ารหัสไว้หรือไม่? บางที AI อาจพบจุดบกพร่องหรือข้อผิดพลาดในการเขียนโปรแกรม ซึ่งไม่ได้แก้ตัวในการดำเนินการ แต่ให้เบาะแสเพิ่มเติมว่าความผิดพลาดเกิดขึ้นได้อย่างไร

AI guardrails ชนิดใดที่ถูกตั้งโปรแกรมไว้ในระบบขับเคลื่อน AI หากมีรั้วกั้น เราอยากจะหาสาเหตุที่ทำให้ดูเหมือนไม่ป้องกันรถชน บางทีระบบขับเคลื่อน AI อาจหยุดชะงักแทนที่จะเลี้ยว เราต้องการทราบว่าทางเลือกใดบ้างที่ AI ใช้ในการคำนวณในระหว่างที่เกิดเหตุการณ์

นอกจากจะเข้าถึงจุดต่ำสุดของเหตุการณ์นั้นแล้ว ความมั่นใจอีกประการหนึ่งก็คือว่าระบบขับเคลื่อน AI มีข้อบกพร่องหรือแง่มุมอื่นๆ ที่ฝังอยู่หรือไม่ที่จะทำการกระทำที่ไม่พึงประสงค์ในลักษณะเดียวกัน โดยพื้นฐานแล้ว เหตุการณ์นี้อาจเป็นตัวบ่งชี้ถึงเหตุการณ์ที่จะเกิดขึ้นอีกในอนาคต การจำลองสถานการณ์การขับขี่โดยใช้คอมพิวเตอร์เป็นอย่างไรเพื่อพยายามคาดการณ์ระบบการขับขี่ AI ประเภทนี้ มีการทดสอบการขับขี่บนถนนเพียงพอที่จะระบุปัญหา AI ที่อาจนำไปสู่การชนรถหรือไม่?

สถานการณ์นี้เน้นให้เห็นถึงปัญหาที่ถกเถียงกันอยู่ซึ่งกำลังเผชิญกับการเกิดขึ้นของรถยนต์ที่ขับเคลื่อนด้วยตนเองโดยใช้ AI

มันไปแบบนี้

ในอีกด้านหนึ่ง มีความปรารถนาของสังคมที่จะนำรถยนต์ที่ขับเคลื่อนด้วยตนเองมาใช้อย่างรวดเร็วเนื่องจากหวังว่าระบบขับเคลื่อน AI จะปลอดภัยหรืออาจปลอดภัยกว่าคนขับ เฉพาะในสหรัฐอเมริกาประเทศเดียว ปัจจุบันเรามีผู้เสียชีวิตเกือบ 40,000 คนต่อปีอันเนื่องมาจากอุบัติเหตุทางรถยนต์ และมีผู้บาดเจ็บประมาณ 2.5 ล้านคน การวิเคราะห์ชี้ให้เห็นว่าอุบัติเหตุทางรถยนต์ส่วนใหญ่เกิดจากความผิดพลาดของมนุษย์ เช่น การขับรถขณะมึนเมา การขับรถขณะฟุ้งซ่าน ฯลฯ (ดูการประเมินสถิติของฉันได้ที่ ลิงค์ที่นี่).

ระบบขับเคลื่อน AI จะไม่ดื่มแล้วขับ พวกเขาไม่ต้องการการพักผ่อนและจะไม่เมื่อยล้าขณะอยู่บนพวงมาลัย สมมติฐานคือการสร้างรถยนต์ที่ขับเคลื่อนด้วยตนเองให้เป็นรูปแบบการคมนาคมที่ใช้งานได้จริง ทำให้เราสามารถลดจำนวนคนขับที่เป็นมนุษย์ได้ ในทางกลับกันควรหมายความว่าเราจะลดจำนวนผู้เสียชีวิตและการบาดเจ็บจากอุบัติเหตุทางรถยนต์โดยสรุป

เกจิบางคนกล่าวว่าเราจะจบลงด้วยการเสียชีวิตเป็นศูนย์และการบาดเจ็บเป็นศูนย์ และรถยนต์ที่ขับด้วยตนเองนั้นไม่น่าจะเกิดอุบัติเหตุได้ แต่นี่เป็นความคาดหวังที่ไร้สาระและเป็นเท็จโดยสิ้นเชิง ฉันได้อธิบายว่าทำไมสิ่งนี้ถึงไม่สุภาพที่ ลิงค์ที่นี่.

ไม่ว่าในกรณีใด สมมติว่าเราจะประสบอุบัติเหตุทางรถยนต์จำนวนหนึ่งซึ่งรถยนต์ที่ขับด้วยตนเองเข้ามาเกี่ยวข้อง สมมติว่ารถชนเหล่านั้นจะมีผู้เสียชีวิตและบาดเจ็บจำนวนหนึ่งด้วย คำถามที่กำลังทุกข์ทรมานคือว่าเราในฐานะสังคมยินดีที่จะทนต่อกรณีดังกล่าวหรือไม่ บางคนบอกว่าถ้าแม้แต่ผู้เสียชีวิตหรือบาดเจ็บเพียงรายเดียวเกิดขึ้นอันเป็นผลมาจากรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง ควรปิดชุดอุปกรณ์ทั้งหมดและคาบูเดิ้ลลง

มุมมองที่ตรงกันข้ามคือถ้าชีวิตที่ช่วยชีวิตกำลังลดจำนวนประจำปี เราควรจะสนับสนุนให้มีการถือกำเนิดของรถยนต์ที่ขับด้วยตนเองต่อไป และไม่ตอบสนองในลักษณะที่ไร้เหตุผลดังกล่าว เราจะต้องยอมรับสมมติฐานที่ว่าจำนวนผู้เสียชีวิตและการบาดเจ็บยังคงมีอยู่ แม้จะใช้กับรถยนต์ที่ขับด้วยตนเอง แต่ยังตระหนักดีว่าการนับรายปีหากลดลงแสดงว่าเรามาถูกทางแล้ว

แน่นอน บางคนโต้แย้งว่าเราไม่ควรมีรถยนต์ที่ขับเคลื่อนด้วยตนเองบนถนนสาธารณะของเรา จนกว่ารถจะเรียบร้อยสำหรับการใช้งานดังกล่าว ซึ่งเป็นผลมาจากการจำลองด้วยคอมพิวเตอร์ที่ครอบคลุมและละเอียดถี่ถ้วน หรือโดยการทดสอบแบบปิดส่วนตัว ข้อโต้แย้งคือวิธีเดียวที่ทำได้และเร็วที่สุดในการขับเคลื่อนรถยนต์ด้วยตนเองคือการใช้ถนนสาธารณะ และความล่าช้าใดๆ ในการนำรถยนต์ที่ขับเคลื่อนด้วยตนเองมาใช้ จะทำให้การนับจำนวนครั้งอันน่าสยดสยองของรถที่ขับโดยมนุษย์ชนดำเนินต่อไป ฉันได้กล่าวถึงการอภิปรายนี้ในคอลัมน์ของฉันให้ยาวขึ้นและกระตุ้นให้ผู้อ่านพิจารณาการอภิปรายเหล่านั้นเพื่อให้เข้าใจถึงมุมมองที่สมบูรณ์เกี่ยวกับประเด็นที่เป็นข้อโต้แย้งนี้

มาสรุปเรื่องกันก่อน

อุบัติเหตุของ AI กำลังจะเกิดขึ้น เราต้องต่อต้านแรงกระตุ้นเพื่อตีความอุบัติเหตุ AI อย่างที่เห็น โดยไม่ตั้งใจ และปล่อยให้ผู้ผลิตและผู้ที่ใช้ AI ใช้งานไม่ได้เด็ดขาด

มีการบิดเพิ่มเติมที่ฉันปล่อยให้คุณเป็นความคิดที่น่าสนใจขั้นสุดท้ายสำหรับวันของคุณ

มีรายงานว่านักแสดงตลก Dane Cook เล่าเรื่องตลกเกี่ยวกับอุบัติเหตุทางรถยนต์ว่า “เมื่อสองสามวันก่อน ฉันประสบอุบัติเหตุทางรถยนต์ ไม่ใช่ความผิดของฉัน. ต่อให้ไม่ใช่ความผิดของคุณ อีกคนก็ลงจากรถแล้วมองมาที่คุณเหมือนเป็นความผิดของคุณ ทำไมคุณถึงหยุดที่ไฟแดงแล้วปล่อยให้ฉันทุบตีคุณทำ 80!”

ในกรณีที่การบิดเบี้ยวมาก่อนคือความเป็นไปได้ที่ระบบ AI อาจเลือกที่จะยืนยันว่าเมื่อเกิดอุบัติเหตุ AI ที่เกี่ยวข้องกับ AI นั้น AI จะอ้างว่าเหตุการณ์นั้นเป็นความผิดของมนุษย์และแน่นอนว่าไม่ใช่ความผิดของ AI อย่างไรก็ตาม นี่อาจเป็นความจริงอย่างมากมาย และมนุษย์อาจพยายามหลอกล่อ AI โดยอ้างว่าเป็นความผิดของ AI

หรือบางที AI ก็พยายามจะจับแพะรับบาปจากมนุษย์

คุณเห็นไหมว่า AI ที่เราประดิษฐ์ขึ้นอาจเป็นเรื่องยุ่งยากไม่ว่าจะโดยบังเอิญหรือไม่ก็ตาม

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- ขับรถ-รถยนต์-เกินไป/