จรรยาบรรณของ AI ที่บอกว่า AI ควรถูกนำไปใช้โดยเฉพาะอย่างยิ่งเมื่ออคติของมนุษย์มีเหลือเฟือ

มนุษย์ได้รู้ข้อจำกัดของพวกเขา

คุณอาจจำคำพูดที่โด่งดังเกี่ยวกับการรู้ข้อจำกัดของเราที่ตัวละคร Dirty Harry พูดอย่างเคร่งขรึมในภาพยนตร์ปี 1973 เรื่อง กองทัพแม็กนั่ม (ตามคำพูดของนักแสดง Clint Eastwood ในบทบาทที่น่าจดจำของเขาในฐานะสารวัตร Harry Callahan) แนวคิดโดยรวมคือบางครั้งเรามักจะมองข้ามขีดจำกัดของตัวเองและเข้าไปอยู่ในน้ำร้อนตามนั้น ไม่ว่าจะเพราะความโอหัง การถือเอาตนเองเป็นศูนย์กลาง หรือเพียงแต่มองไม่เห็นความสามารถของเรา กฎเกณฑ์ของการตระหนักรู้และคำนึงถึงความโน้มเอียงและข้อบกพร่องของเราอย่างชัดเจนก็สมเหตุสมผลและเป็นประโยชน์อย่างยิ่ง

มาเพิ่มคำแนะนำใหม่ให้กับนักปราชญ์กันเถอะ

ปัญญาประดิษฐ์ (AI) ต้องรู้ถึงข้อจำกัดของมัน

ฉันหมายความว่าอย่างไรโดยใช้วลีบทที่เคารพสักการะนั้น

กลายเป็นว่าการเร่งรีบในขั้นต้นเพื่อนำ AI สมัยใหม่มาใช้ในฐานะผู้แก้ปัญหาที่มีความหวังในปัญหาของโลก กลายเป็นเรื่องเหลวไหลและสับสนไปหมดเมื่อตระหนักว่า AI ในปัจจุบันมีข้อจำกัดที่ค่อนข้างรุนแรงอยู่บ้าง เราไปจากพาดหัวข่าวที่ยกระดับของ AI เพื่อความดี และพบว่าตัวเองติดหล่มมากขึ้นเรื่อยๆ AI สำหรับไม่ดี. คุณเห็นไหมว่าระบบ AI จำนวนมากได้รับการพัฒนาและสอดรับกับอคติทางเชื้อชาติและเพศที่ไม่เหมาะสม และความเหลื่อมล้ำอื่นๆ ที่น่าตกใจอีกมากมายนับไม่ถ้วน

สำหรับการครอบคลุมอย่างครอบคลุมและต่อเนื่องของฉันเกี่ยวกับจริยธรรม AI และ AI ที่มีจริยธรรม โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

อคติที่ถูกค้นพบในระบบ AI เหล่านี้ไม่ใช่ประเภทที่ "จงใจ" ที่เราจะกล่าวถึงพฤติกรรมของมนุษย์ ฉันพูดถึงสิ่งนี้เพื่อเน้นว่า AI ในปัจจุบันไม่มีความรู้สึก แม้จะมีหัวข้อข่าวที่ส่งเสียงดังซึ่งแนะนำเป็นอย่างอื่น แต่ก็ไม่มี AI ใด ๆ ที่ใกล้เคียงกับความรู้สึก ยิ่งไปกว่านั้น เราไม่รู้วิธีนำ AI เข้าสู่กรอบความรู้สึก และยังไม่มีใครสามารถพูดได้อย่างแน่นอนว่าเราจะได้รับ AI หรือไม่ บางทีมันอาจจะเกิดขึ้นสักวันหนึ่งหรือไม่ก็ได้

ประเด็นของฉันคือเราไม่สามารถกำหนดความตั้งใจให้กับ AI ที่เรามีอยู่ในปัจจุบันโดยเฉพาะได้ ดังที่กล่าวไปแล้ว เราสามารถกำหนดความตั้งใจให้กับผู้ที่สร้างระบบ AI ได้มากมาย นักพัฒนา AI บางคนไม่ทราบว่าพวกเขาได้คิดค้นระบบ AI ที่มีอคติที่น่ารังเกียจและอาจผิดกฎหมาย ในขณะเดียวกัน นักพัฒนา AI คนอื่นๆ ตระหนักดีว่าพวกเขากำลังใส่อคติเข้าไปในระบบ AI ของพวกเขา ซึ่งอาจทำในลักษณะที่เป็นการทำผิดโดยเจตนา

ไม่ว่าจะด้วยวิธีใด ผลลัพธ์ก็ยังดูไม่เหมาะสมและมีแนวโน้มว่าจะไม่ชอบด้วยกฎหมาย

กำลังดำเนินการอย่างเข้มงวดเพื่อเผยแพร่หลักจริยธรรม AI ที่จะให้ความกระจ่างแก่นักพัฒนา AI และให้คำแนะนำที่เหมาะสมสำหรับการควบคุมที่ชัดเจนของการฝังอคติลงในระบบ AI ของพวกเขา สิ่งนี้จะช่วยในรูปแบบทูเฟอร์ ประการแรก AI ที่ประดิษฐ์ขึ้นมานั้นจะไม่มีข้อแก้ตัวอีกต่อไปว่าพวกเขาไม่รู้ว่าควรปฏิบัติตามศีลใด ประการที่สอง ผู้ที่หันเหจากเงื่อนไข AI ด้านจริยธรรมจะถูกจับได้ง่ายขึ้นและแสดงให้เห็นว่าหลีกเลี่ยงสิ่งที่พวกเขาได้รับการเตือนล่วงหน้าทั้งที่ทำและไม่ทำ

ให้เราใช้เวลาสักครู่เพื่อพิจารณาสั้น ๆ เกี่ยวกับหลักจริยธรรม AI หลักบางประการเพื่อแสดงให้เห็นว่าผู้สร้าง AI ควรคิดอย่างไรและดำเนินการอย่างจริงจังจากจุดยืนด้านจริยธรรมของ AI

ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:

  • โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
  • รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
  • ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
  • ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
  • ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
  • ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้

ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:

  • รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
  • เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
  • ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
  • ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
  • ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ

ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยากต่อการถอดรหัสเช่นกัน โดยรวมแล้วเป็นการง่ายที่จะโบกมือเกี่ยวกับหลักจรรยาบรรณของ AI และวิธีการปฏิบัติโดยทั่วไป ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากเมื่อการเข้ารหัส AI ต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics โปรดทราบว่าต้องใช้หมู่บ้านในการประดิษฐ์และฟิลด์ AI ซึ่งทั้งหมู่บ้านต้องคอยจับตาดูจริยธรรม AI

อย่างไรก็ตาม ตอนนี้ฉันเริ่มเข้าใจแล้วว่า AI สามารถมีอคติได้ เราทุกคนอาจเห็นด้วยกับข้อเท็จจริงที่ชัดเจนสองข้อนี้:

1. มนุษย์สามารถมีอคติที่ไม่ดีมากมายและสามารถจัดการกับมันได้

2. AI สามารถมีอคติที่ไม่ดีมากมายและสามารถดำเนินการกับอคติเหล่านั้นได้

ฉันค่อนข้างเกลียดชังที่จะซ้อนมนุษย์กับ AI ในบริบทนั้น เพราะมันอาจบอกเป็นนัยว่า AI มีความสามารถทางความรู้สึกที่เท่าเทียมกับมนุษย์ จะไม่เป็นเช่นนั้นอย่างแน่นอน ฉันจะกลับมาพบกับความกังวลที่เพิ่มขึ้นเกี่ยวกับการเปลี่ยนแปลงรูปร่างของ AI ในอีกสักครู่ในการสนทนานี้

อย่างไหนที่แย่กว่ากัน มนุษย์ที่มีอคติที่ไม่ดีหรือ AI ที่ทำเช่นนั้น?

ฉันกล้าพูดว่าคำถามนี้เป็นหนึ่งในตัวเลือกที่ไม่ดีเหล่านั้น มันเป็นสุภาษิตน้อยกว่าสองความชั่วร้าย คนหนึ่งอาจโต้แย้ง เราหวังว่ามนุษย์จะไม่รวบรวมอคติที่ไม่เหมาะสม เรายังปรารถนาอีกว่าแม้ว่ามนุษย์จะมีอคติที่ไม่ดี พวกเขาก็จะไม่กระทำตามอคติเหล่านั้น เช่นเดียวกันอาจกล่าวได้อย่างเหมาะสมของ AI เราหวังว่า AI จะไม่ฝังอคติที่ไม่ดีและแม้ว่าจะมีอคติที่เข้ารหัสภายในซึ่งอย่างน้อย AI ก็จะไม่ดำเนินการกับอคติเหล่านั้น

ความปรารถนาไม่จำเป็นต้องวิ่งหนีโลก (สำหรับการวิเคราะห์ของฉันเกี่ยวกับรูปร่างหน้าตาที่เพิ่มขึ้นและน่ารำคาญของสิ่งที่เรียกว่า AI ปรารถนาการปฏิบัติตาม โดยสังคมโดยรวมดู ลิงค์ที่นี่).

โอเค เราต้องการให้มนุษย์รู้ข้อจำกัดของพวกเขาอย่างชัดเจน มีความสำคัญที่จะต้องตระหนักเมื่อคุณมีอคติที่ไม่ดี มีความสำคัญเท่าเทียมกันในการพยายามป้องกันอคติที่ไม่ดีเหล่านั้นไม่ให้แทรกซึมเข้าไปในการกระทำและการตัดสินใจของคุณ ธุรกิจทุกวันนี้กำลังพยายามทุกวิถีทางเพื่อป้องกันไม่ให้พนักงานของพวกเขาตกอยู่ในหลุมพรางที่เลวร้าย มีการจัดฝึกอบรมเฉพาะทางให้กับพนักงานเกี่ยวกับวิธีการปฏิบัติงานในลักษณะที่ถูกต้องตามหลักจริยธรรม กระบวนการต่างๆ ถูกสร้างขึ้นรอบๆ พนักงานเพื่อเตือนพวกเขาเมื่อพวกเขาดูเหมือนจะแสดงพฤติกรรมที่ผิดจรรยาบรรณ และอื่นๆ.

อีกวิธีหนึ่งในการรับมือกับมนุษย์และอคติที่ไม่ดีของพวกเขาก็คือการทำให้งานของมนุษย์เป็นไปโดยอัตโนมัติ ใช่ เพียงแค่เอามนุษย์ออกจากลูป อย่าให้มนุษย์ทำการตัดสินใจ และคุณคงไม่ต้องกังวลอีกต่อไปว่ามนุษย์จะแบกรับอคติที่ไม่พึงประสงค์ใดๆ อีกต่อไป ไม่มีมนุษย์เข้ามาเกี่ยวข้อง ดังนั้น ปัญหาของอคติที่อาจเป็นไปได้ของมนุษย์ดูเหมือนจะได้รับการแก้ไข

ฉันพูดถึงเรื่องนี้เพราะเราเห็นการเปลี่ยนแปลงครั้งใหญ่และค่อยเป็นค่อยไปในการใช้ AI ในลักษณะการตัดสินใจด้วยอัลกอริทึม (ADM) หากคุณสามารถแทนที่คนงานที่เป็นมนุษย์ด้วย AI ได้ โอกาสที่คุณจะได้รับประโยชน์มากมาย ดังที่ได้กล่าวไปแล้ว คุณจะไม่วิตกกังวลกับอคติของมนุษย์ของพนักงานคนนั้นอีกต่อไป (คนที่ไม่ได้ทำงานนั้นแล้ว) โอกาสที่ AI จะมีต้นทุนโดยรวมน้อยกว่าเมื่อเทียบกับระยะเวลาระยะยาว คุณจัดการกับปัญหาอื่น ๆ ทั้งหมดที่มาพร้อมกับคนงานที่เป็นมนุษย์ เป็นต้น

ข้อเสนอที่กำลังได้รับความสนใจน่าจะเป็นสิ่งนี้: เมื่อพยายามตัดสินใจว่าจะวาง AI ไว้ที่ใด อันดับแรก ให้มองหาการตั้งค่าที่ก่อให้เกิดอคติต่อมนุษย์โดยพนักงานของคุณเสียก่อน และอคติเหล่านั้นทำให้งานการตัดสินใจบางอย่างซับซ้อนเกินไป

สิ่งสำคัญที่สุดคือ ดูเหมือนว่าจะเป็นการรอบคอบที่จะรวบรวมผลตอบแทนสูงสุดในแง่ของการลงทุนใน AI โดยมุ่งเป้าไปที่งานการตัดสินใจของมนุษย์ที่เปิดเผยอย่างชัดเจนซึ่งยากต่อการควบคุมจากมุมมองของอคติที่ไม่ดี กำจัดคนงานที่เป็นมนุษย์ในบทบาทนั้น แทนที่ด้วย AI สมมติฐานก็คือว่า AI จะไม่มีอคติที่ไม่ดีเช่นนั้น ดังนั้น คุณสามารถมีเค้กของคุณและกินมันได้เช่นกัน กล่าวคือ ให้งานการตัดสินใจดำเนินการ ลบอคติทางจริยธรรมและทางกฎหมายของอคติที่ไม่ดี

เมื่อคุณคิดอย่างนั้น ROI (ผลตอบแทนจากการลงทุน) จะทำให้การนำ AI มาใช้เป็นทางเลือกที่ไม่ต้องคิดมาก

นี่เป็นวิธีที่มักจะเล่น

ดูทั่วทั้งบริษัทของคุณและพยายามระบุงานการตัดสินใจที่ส่งผลกระทบต่อลูกค้า ในบรรดางานเหล่านั้น งานใดที่มีแนวโน้มว่าจะถูกโน้มน้าวอย่างไม่เหมาะสมมากที่สุดหากคนงานมีอคติที่ไม่เหมาะสม หากคุณได้พยายามที่จะควบคุมอคติเหล่านั้นแล้ว คุณอาจจะปล่อยให้สิ่งต่างๆ เป็นไปอย่างที่เป็นอยู่ ในทางกลับกัน หากอคติยังคงปรากฏขึ้นอีกและความพยายามที่จะขจัดความเอนเอียงนั้นเป็นเรื่องที่ยุ่งยาก ให้พิจารณานำ AI ที่เกี่ยวข้องบางส่วนมาใส่ในบทบาทนั้น อย่าปล่อยให้คนงานปะปนกันเพราะพวกเขาอาจแทนที่ AI หรือผลัก AI กลับเข้าไปในก้นบึ้งของอคติที่ไม่ดี นอกจากนี้ ตรวจสอบให้แน่ใจว่า AI สามารถทำงานได้อย่างเชี่ยวชาญ และคุณมีข้อมูลประกอบการตัดสินใจที่จำเป็นในการปฏิบัติงานเพียงพอแล้ว

ล้างและทำซ้ำ

ฉันตระหนักดีว่ามันดูเหมือนเป็นความคิดที่ตรงไปตรงมา แต่ตระหนักดีว่ามีหลายวิธีที่การแทนที่คนงานที่เป็นมนุษย์ด้วย AI สามารถผิดพลาดได้อย่างง่ายดาย หลายบริษัทกระตือรือร้นที่จะดำเนินการดังกล่าวและไม่ได้คิดไตร่ตรองว่าจะทำเช่นนั้นได้อย่างไร เป็นผลให้พวกเขามักจะสร้างระเบียบที่เลวร้ายยิ่งกว่าที่พวกเขามีอยู่ในมือเพื่อเริ่มต้น

ฉันต้องการชี้แจงและเน้นว่า AI ไม่ใช่ยาครอบจักรวาล

เมื่อพูดถึงเรื่องนี้ มีปัญหาใหญ่ประการหนึ่งเกี่ยวกับความสะอาดของการโยนผู้มีอำนาจตัดสินใจที่มีอคติของมนุษย์ออกไปด้วย AI ที่ถูกกล่าวหาว่าไม่มีอคติ ปัญหาคือคุณอาจเพียงแทนที่อคติที่ไม่ดีชุดหนึ่งกับอีกชุดหนึ่ง ตามข้อบ่งชี้ก่อนหน้านี้ AI สามารถมีอคติที่ไม่ดีและสามารถดำเนินการกับอคติเหล่านั้นได้ การสันนิษฐานอย่างตรงไปตรงมาว่าการแลกเปลี่ยนมนุษย์ที่มีอคติกับ AI ที่ไม่มีอคตินั้นไม่ได้เป็นเพียงการแตกแยกเท่านั้น

กล่าวโดยย่อ ต่อไปนี้คือข้อตกลงเมื่อพิจารณาประเด็นจากปัจจัยอคติอย่างเคร่งครัด:

  • AI ไม่มีอคติที่ไม่ดี และด้วยเหตุนี้ ADM ที่ใช้ AI จึงสะดวกต่อการปรับใช้
  • AI มีอคติที่ไม่ดีเช่นเดียวกับมนุษย์ที่ถูกแทนที่และด้วยเหตุนี้ ADM ที่ใช้ AI จึงหนักใจ
  • AI นำเสนออคติที่ไม่ดีใหม่ ๆ นอกเหนือไปจากมนุษย์ที่ถูกแทนที่และอาจทำให้สิ่งต่าง ๆ แย่ลงตามไปด้วย
  • AI ในตอนแรกดูดีแล้วค่อย ๆ โยกเยกไปสู่อคติที่ไม่ดี
  • อื่นๆ

เราสามารถแกะความเป็นไปได้เหล่านั้นออกโดยสังเขป

อันแรกเป็นเวอร์ชันในอุดมคติของสิ่งที่อาจเกิดขึ้น AI ไม่มีอคติที่ไม่ดี คุณใส่ AI เข้าที่และทำงานได้อย่างยอดเยี่ยม ดีสำหรับคุณ! แน่นอน อาจมีคนหวังว่าคุณจะสามารถจัดการกับการพลัดถิ่นของคนงานที่เป็นมนุษย์อันเนื่องมาจากการรวม AI ด้วยวิธีใดวิธีหนึ่ง

ในกรณีที่สอง คุณใส่ AI และพบว่า AI แสดงอคติที่ไม่ดีแบบเดียวกับที่คนงานเป็นมนุษย์ เป็นไปได้อย่างไร? วิธีทั่วไปในการตกหลุมพรางนี้คือการใช้ Machine Learning (ML) และ Deep Learning (DL) โดยอิงจากข้อมูลที่รวบรวมได้ว่ามนุษย์ในบทบาทนี้เคยตัดสินใจอย่างไร

ให้ฉันอธิบายสักครู่

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำงานมาหลายปีแล้วได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณด้วย Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับอาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

ทั้งหมดบอกว่าคุณอาจจะจบลงที่สแควร์หนึ่ง อคติที่เลวร้ายแบบเดียวกันของมนุษย์ได้รับการสะท้อนจากการคำนวณในระบบ AI แล้ว คุณไม่ได้กำจัดอคติให้หมดไป

ที่แย่ไปกว่านั้น คุณอาจไม่ค่อยรู้ว่า AI มีอคติ ในกรณีของมนุษย์ ปกติแล้ว คุณอาจจะระวังว่ามนุษย์มีอคติที่ไม่ดี นี่คือความคาดหวังพื้นฐาน การใช้ AI สามารถกล่อมผู้นำให้เชื่อว่าระบบอัตโนมัติได้ขจัดอคติของมนุษย์ออกไปโดยสิ้นเชิง ดังนั้นพวกเขาจึงตั้งตัวเองขึ้นเพื่อยิงตัวเองที่เท้า พวกเขากำจัดมนุษย์ด้วยอคติที่ดูเหมือนไม่รู้จักกัน ถูกแทนที่ด้วย AI ที่คิดว่าไม่มีอคติดังกล่าว และตอนนี้ได้นำ AI ไปใช้แล้ว ซึ่งมีอคติแบบเดียวกันที่ทราบอยู่แล้วว่ามีอยู่แล้ว

นี้จะได้รับสิ่งที่ตาขวางจริงๆ คุณอาจถอดราวกั้นอื่น ๆ ที่ใช้กับคนงานที่เป็นมนุษย์ซึ่งจัดตั้งขึ้นเพื่อตรวจจับและป้องกันการเกิดขึ้นของอคติของมนุษย์ที่คาดการณ์ไว้แล้ว AI ตอนนี้มีบังเหียนฟรี ไม่มีอะไรอยู่ในสถานที่ที่จะจับมันก่อนที่จะลงมือทำ จากนั้น AI ก็สามารถเริ่มนำคุณไปสู่เส้นทางที่เลวร้ายของการกระทำที่ลำเอียงจำนวนมหาศาล

และคุณอยู่ในท่าทางที่น่าอึดอัดใจและอาจต้องรับผิดที่คุณเคยรู้เกี่ยวกับอคติและตอนนี้ได้ปล่อยให้อคติเหล่านั้นสร้างความเสียหาย บางทีอาจเป็นเรื่องหนึ่งที่ไม่เคยพบกับอคติที่ไม่ดีเช่นนั้นมาก่อน และทันใดนั้น AI ก็ดึงพวกเขาขึ้นมาจากสีน้ำเงิน คุณอาจพยายามแก้ตัวด้วยประโยคที่ว่า "ใครจะเดาได้" ที่ทำให้ไขว้เขว (อาจจะไม่ค่อยน่าเชื่อนัก) แต่การที่จะตั้ง AI ขึ้นมาซึ่งทำสิ่งเดียวกันโดยลำเอียงอย่างเมื่อก่อน ข้อแก้ตัวของคุณเริ่มบางลงเรื่อยๆ

ความบิดเบี้ยวในเรื่องนี้ทำให้ AI แสดงอคติที่ไม่ดีซึ่งไม่เคยพบมาก่อนเมื่อมนุษย์ทำงานนี้ คุณสามารถพูดได้ว่าสิ่งนี้อาจจะป้องกันได้ยากกว่า เพราะมันประกอบด้วยอคติ "ใหม่" ที่บริษัทไม่เคยมองหามาก่อน อย่างไรก็ตาม ในท้ายที่สุด ข้อแก้ตัวอาจไม่ช่วยบรรเทาคุณได้มากนัก หากระบบ AI รุกล้ำเข้าไปในเขตแดนที่ผิดจรรยาบรรณและไม่ชอบด้วยกฎหมาย ห่านของคุณอาจถูกปรุงสุก

อีกแง่มุมหนึ่งที่ต้องจำไว้คือ AI อาจเริ่มต้นได้ดีและจากนั้นก็เข้าสู่อคติที่ไม่ดี โดยเฉพาะอย่างยิ่งเมื่อการใช้ Machine Learning หรือ Deep Learning เกิดขึ้นอย่างต่อเนื่องเพื่อให้ AI เป็นปัจจุบัน ไม่ว่า ML/DL จะทำงานแบบเรียลไทม์หรือทำการอัปเดตเป็นระยะ ความสนใจควรอยู่ที่ว่า AI อาจนำเข้าข้อมูลที่ขณะนี้มีอคติและก่อนหน้านี้ไม่มีอยู่หรือไม่

สำหรับผู้นำที่คิดว่าพวกเขากำลังรับประทานอาหารกลางวันฟรีโดยโบกไม้กายสิทธิ์เพื่อแทนที่คนงานที่มีอคติด้วย AI พวกเขาจะตื่นขึ้นอย่างหยาบคาย ดูการสนทนาของฉันเกี่ยวกับความสำคัญของการเสริมอำนาจผู้นำด้วยศีลของ AI Ethics ที่ ลิงค์ที่นี่.

ในช่วงหัวเลี้ยวหัวต่อของการสนทนานี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างในโลกแห่งความเป็นจริงที่อาจแสดงปริศนาของการแทนที่อคติที่ไม่ดีของมนุษย์ (หรือไม่) ด้วยอคติที่ไม่ดีตาม AI

ฉันดีใจที่คุณถาม

มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI รวมถึงการแตกสาขาตามหลักจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้าน AI ที่มีจริยธรรมนี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการสนทนาอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI นั้นให้ความสว่างแก่สิ่งใดเกี่ยวกับอคติที่ไม่พึงประสงค์ใน AI หรือไม่ และหากเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอะไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อเป็นการชี้แจงว่ารถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถยนต์ที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมดและไม่มีความช่วยเหลือจากมนุษย์ในระหว่างการขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงในระดับ 5 ซึ่งเรายังไม่รู้ด้วยซ้ำว่าสิ่งนี้จะเป็นไปได้หรือไม่และจะใช้เวลานานแค่ไหนในการเดินทาง

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ไร้คนขับและ AI ที่ไร้ซึ่งอคติ

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง

ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและความเป็นไปได้ของ AI ที่มีจริยธรรมซึ่งเกี่ยวข้องกับการสำรวจ AI และอคติที่ไม่ดี

ลองใช้ตัวอย่างที่ตรงไปตรงมา รถยนต์ไร้คนขับแบบ AI กำลังดำเนินการอยู่บนถนนในละแวกของคุณ และดูเหมือนว่าจะขับขี่ได้อย่างปลอดภัย ในตอนแรก คุณให้ความสนใจเป็นพิเศษกับทุกครั้งที่คุณมีโอกาสได้เห็นรถที่ขับด้วยตัวเอง รถยนต์ไร้คนขับโดดเด่นด้วยชั้นวางเซ็นเซอร์อิเล็กทรอนิกส์ที่มีกล้องวิดีโอ หน่วยเรดาร์ อุปกรณ์ LIDAR และอื่นๆ หลังจากใช้เวลาหลายสัปดาห์ของรถยนต์ไร้คนขับที่แล่นไปรอบๆ ชุมชนของคุณ ตอนนี้คุณแทบจะไม่สังเกตเห็นเลย เท่าที่คุณทราบ มันเป็นเพียงรถอีกคันบนถนนสาธารณะที่พลุกพล่านอยู่แล้ว

เพื่อไม่ให้คุณคิดว่าเป็นไปไม่ได้หรือเป็นไปไม่ได้ที่จะทำความคุ้นเคยกับการเห็นรถที่ขับด้วยตนเอง ฉันได้เขียนบ่อยครั้งเกี่ยวกับสถานที่ที่อยู่ภายในขอบเขตของการทดลองใช้รถยนต์ไร้คนขับค่อย ๆ ชินกับการได้เห็นรถที่ตกแต่งแล้ว ดูการวิเคราะห์ของฉันที่ ลิงค์นี้. ในที่สุด ชาวบ้านหลายคนก็เปลี่ยนจากการเฆี่ยนตีอ้าปากค้าง มาเป็นการเปล่งเสียงหาวอย่างเบื่อหน่ายเมื่อได้เห็นรถที่ขับเองที่คดเคี้ยว

อาจเป็นสาเหตุหลักในตอนนี้ที่พวกเขาอาจสังเกตเห็นรถยนต์ไร้คนขับเพราะความระคายเคืองและปัจจัยที่ทำให้โกรธเคือง ระบบการขับขี่แบบ AI ที่จัดทำโดยหนังสือช่วยให้แน่ใจว่ารถยนต์ปฏิบัติตามการจำกัดความเร็วและกฎจราจรทั้งหมด สำหรับผู้ขับขี่ที่เป็นมนุษย์ที่วุ่นวายในรถยนต์ที่ขับเคลื่อนโดยมนุษย์แบบดั้งเดิม คุณอาจรู้สึกหงุดหงิดเมื่อต้องติดอยู่กับรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปฏิบัติตามกฎหมายอย่างเคร่งครัด

นั่นคือสิ่งที่เราทุกคนอาจต้องคุ้นเคย ไม่ว่าจะถูกหรือผิด

กลับมาที่เรื่องของเรา

ปรากฎว่าความกังวลที่ไม่เหมาะสมสองประการเริ่มเกิดขึ้นเกี่ยวกับรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ที่ไม่มีพิษภัยและเป็นที่ต้อนรับโดยทั่วไป โดยเฉพาะ:

ก. ที่ซึ่ง AI กำลังสัญจรรถยนต์ที่ขับเองเพื่อขึ้นรถกลายเป็นความกังวลในชุมชนโดยรวม

ข. วิธีที่ AI ปฏิบัติต่อคนเดินถนนที่รอคนเดินถนนที่ไม่มีสิทธิ์เดินทางก็เป็นประเด็นที่เพิ่มสูงขึ้นเช่นกัน

ในตอนแรก AI กำลังสัญจรไปมาในรถยนต์ที่ขับเคลื่อนด้วยตนเองทั่วทั้งเมือง ใครก็ตามที่ต้องการขอนั่งในรถที่ขับด้วยตนเองมีโอกาสเท่าเทียมกันในการเรียกรถ ค่อยๆ AI เริ่มให้รถยนต์ที่ขับเคลื่อนด้วยตนเองส่วนใหญ่สัญจรไปมาเพียงส่วนหนึ่งของเมือง ส่วนนี้สร้างรายได้มากขึ้น และระบบ AI ได้รับการตั้งโปรแกรมให้พยายามและเพิ่มรายได้ให้สูงสุดโดยเป็นส่วนหนึ่งของการใช้งานในชุมชน

สมาชิกในชุมชนในส่วนที่ยากจนของเมืองมีโอกาสน้อยที่จะสามารถนั่งรถที่ขับเองได้ เนื่องจากรถยนต์ที่ขับด้วยตนเองอยู่ไกลออกไปและสัญจรไปมาในส่วนรายได้ที่สูงขึ้นของสถานที่นั้น เมื่อมีคำขอเข้ามาจากส่วนไกลของเมือง คำขอใดๆ จากสถานที่ที่อยู่ใกล้กว่าซึ่งน่าจะอยู่ในส่วนที่ "น่านับถือ" ของเมืองจะได้รับความสำคัญสูงกว่า ในที่สุด ความพร้อมใช้งานของรถยนต์ไร้คนขับในที่อื่นใดนอกจากในส่วนที่ร่ำรวยกว่าของเมืองนั้นแทบจะเป็นไปไม่ได้เลย ซึ่งทำให้ผู้ที่อาศัยอยู่ในพื้นที่ที่ขาดแคลนทรัพยากรในขณะนี้

คุณสามารถยืนยันได้ว่า AI นั้นค่อนข้างจะอยู่ในรูปแบบของการเลือกปฏิบัติแบบตัวแทน (หรือมักเรียกกันว่าการเลือกปฏิบัติทางอ้อม) AI ไม่ได้ถูกตั้งโปรแกรมให้หลีกเลี่ยงย่านที่ยากจนเหล่านั้น แต่ “เรียนรู้” ที่จะทำเช่นนั้นผ่านการใช้ ML/DL

ประเด็นก็คือ การที่คนขับรถร่วมกันเป็นคนขับนั้นเป็นที่รู้กันดีว่าทำสิ่งเดียวกัน แม้ว่าจะไม่จำเป็นเพียงเพราะมุมการทำเงินเท่านั้น มีคนขับรถที่ส่งผู้โดยสารบางคนมีอคติที่ไม่ดีเกี่ยวกับการรับผู้โดยสารในบางส่วนของเมือง นี่เป็นปรากฏการณ์ที่ทราบกันดีอยู่แล้ว และเมืองได้วางแนวทางการตรวจสอบเพื่อจับคนขับรถที่ทำเช่นนี้ คนขับที่เป็นมนุษย์อาจประสบปัญหาในการดำเนินการคัดเลือกที่ไม่น่าพอใจ

สันนิษฐานว่า AI จะไม่มีวันตกลงไปในทรายดูดชนิดเดียวกัน ไม่มีการตั้งค่าการตรวจสอบเฉพาะทางเพื่อติดตามว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI กำลังไปอยู่ที่ใด หลังจากที่สมาชิกในชุมชนเริ่มบ่น พวกผู้นำเมืองก็ตระหนักได้ว่ากำลังเกิดอะไรขึ้น สำหรับข้อมูลเพิ่มเติมเกี่ยวกับปัญหาทั่วเมืองประเภทนี้ที่จะมีขึ้นในรถยนต์ไร้คนขับและรถยนต์ไร้คนขับ โปรดดูการรายงานข่าวของฉันที่ ลิงค์นี้ และอธิบายการศึกษาที่นำโดยฮาร์วาร์ดที่ฉันร่วมเขียนในหัวข้อนี้

ตัวอย่างของลักษณะการโรมมิ่งของรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI นี้แสดงให้เห็นถึงข้อบ่งชี้ก่อนหน้านี้ว่าอาจมีสถานการณ์ที่เกี่ยวข้องกับมนุษย์ที่มีอคติที่ไม่เหมาะสม ซึ่งจะมีการควบคุม และ AI ที่แทนที่ไดรเวอร์ที่เป็นมนุษย์นั้นถูกทิ้งไว้ ฟรี. น่าเสียดายที่ AI สามารถเพิ่มขึ้นทีละน้อยในอคติที่คล้ายกันและทำโดยไม่มีรั้วกั้นเพียงพอ

ตัวอย่างที่สองเกี่ยวข้องกับ AI ในการพิจารณาว่าจะหยุดรอคนเดินถนนที่ไม่มีสิทธิ์ข้ามถนนหรือไม่

ไม่ต้องสงสัยเลยว่าคุณเคยขับรถมาและพบกับคนเดินถนนที่รอข้ามถนน แต่พวกเขาไม่มีสิทธิ์ทำเช่นนั้น นี่หมายความว่าคุณมีดุลยพินิจว่าจะหยุดและปล่อยให้พวกเขาข้ามไปหรือไม่ คุณสามารถดำเนินการได้โดยไม่ปล่อยให้ข้ามไป และยังคงอยู่ภายใต้กฎการขับขี่ที่ถูกกฎหมายโดยสมบูรณ์ในการทำเช่นนั้น

การศึกษาวิธีที่คนขับตัดสินใจหยุดหรือไม่หยุดสำหรับคนเดินถนนดังกล่าว ได้เสนอแนะว่าบางครั้งคนขับที่เป็นมนุษย์อาจเลือกโดยพิจารณาจากอคติที่ไม่ดี คนขับที่เป็นมนุษย์อาจมองคนเดินถนนและเลือกที่จะไม่หยุด แม้ว่าพวกเขาจะหยุดแล้วก็ตามหากคนเดินถนนมีรูปลักษณ์ที่ต่างออกไป เช่น ตามเชื้อชาติหรือเพศ ฉันได้ตรวจสอบสิ่งนี้ที่ ลิงค์ที่นี่.

ลองนึกภาพว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ได้รับการตั้งโปรแกรมให้จัดการกับคำถามว่าจะหยุดหรือไม่หยุดสำหรับคนเดินถนนที่ไม่มีสิทธิ์เดินทาง นี่คือวิธีที่นักพัฒนา AI ตัดสินใจตั้งโปรแกรมงานนี้ พวกเขารวบรวมข้อมูลจากกล้องวิดีโอของเมืองที่วางอยู่ทั่วเมือง ข้อมูลนี้แสดงให้เห็นคนขับรถที่จอดสำหรับคนเดินถนนที่ไม่มีสิทธิ์ของทางและคนขับที่ไม่หยุดนิ่ง มันถูกรวบรวมเป็นชุดข้อมูลขนาดใหญ่

โดยใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ข้อมูลจะถูกจำลองด้วยการคำนวณ จากนั้นระบบขับเคลื่อน AI จะใช้โมเดลนี้ในการตัดสินใจว่าจะหยุดหรือไม่หยุด โดยทั่วไปแล้ว แนวคิดก็คือไม่ว่าประเพณีท้องถิ่นจะประกอบด้วยอะไรก็ตาม นี่คือวิธีที่ AI ขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเอง

สร้างความประหลาดใจให้กับบรรดาผู้นำเมืองและชาวเมือง เห็นได้ชัดว่า AI เลือกที่จะหยุดหรือไม่หยุดโดยพิจารณาจากรูปลักษณ์ของคนเดินถนน รวมถึงเชื้อชาติและเพศของพวกเขา เซ็นเซอร์ของรถยนต์ที่ขับด้วยตนเองจะสแกนคนเดินถนนที่รออยู่ ป้อนข้อมูลนี้ลงในแบบจำลอง ML/DL และแบบจำลองจะปล่อยไปยัง AI ว่าจะหยุดหรือดำเนินการต่อ น่าเศร้าที่เมืองนี้มีอคติเกี่ยวกับคนขับจำนวนมากอยู่แล้วในเรื่องนี้และตอนนี้ AI ก็เลียนแบบสิ่งเดียวกัน

ข่าวดีก็คือสิ่งนี้ทำให้เกิดปัญหาที่แทบไม่มีใครรู้มาก่อนว่ามีอยู่จริง ข่าวร้ายก็คือ ตั้งแต่ที่ AI ถูกจับได้ว่าทำสิ่งนี้ มันจึงถูกตำหนิมากที่สุด ตัวอย่างนี้แสดงให้เห็นว่าระบบ AI อาจเพียงแค่ทำซ้ำอคติที่ไม่ดีที่มีอยู่ก่อนแล้วของมนุษย์

สรุป

มีหลายวิธีในการพยายามหลีกเลี่ยงการประดิษฐ์ AI ที่ทั้งภายนอกประตูมีอคติที่ไม่ดีหรือที่รวบรวมอคติเมื่อเวลาผ่านไป แนวทางหนึ่งเกี่ยวข้องกับการทำให้มั่นใจว่านักพัฒนา AI ตระหนักถึงเหตุการณ์นี้และทำให้พวกเขาพร้อมที่จะตั้งโปรแกรม AI เพื่อหลีกเลี่ยงเรื่องนี้ อีกช่องทางหนึ่งคือการให้ AI เฝ้าสังเกตพฤติกรรมที่ผิดจรรยาบรรณ (ดูการสนทนาของฉันที่ ลิงค์ที่นี่) และ/หรือมี AI อีกชิ้นหนึ่งที่เฝ้าติดตามระบบ AI อื่น ๆ เพื่อหาพฤติกรรมที่ผิดจรรยาบรรณ (ฉันได้กล่าวถึงเรื่องนี้ที่ ลิงค์ที่นี่).

เพื่อสรุป เราต้องตระหนักว่ามนุษย์สามารถมีอคติที่ไม่ดี และพวกเขาจำเป็นต้องรู้ข้อจำกัดของพวกเขา ในทำนองเดียวกัน AI อาจมีอคติที่ไม่ดี และเราจำเป็นต้องรู้ข้อจำกัดของมันด้วย

สำหรับพวกคุณที่ชื่นชอบ AI Ethics ผมขอจบด้วยประโยคดังๆ ที่ทุกคนต้องรู้จักอยู่แล้ว กล่าวคือ โปรดใช้และแบ่งปันความสำคัญของจริยธรรม AI ต่อไป และเมื่อทำเช่นนั้น ฉันจะพูดอย่างหน้าด้านว่า "ไปข้างหน้า ทำวันของฉัน"

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-only-deployed-when-human-biases-are-aplenty/