จริยธรรม AI และกฎหมาย AI กำลังก้าวไปสู่มาตรฐานที่ระบุและจัดการอคติของ AI อย่างชัดเจน

คุณเคยเล่นหยิบไพ่ห้าสิบสองใบหรือไม่?

ไม่ใช่เกมที่คุณมักจะเต็มใจทำ นี่คือเหตุผล มีคนเสนอให้คุณว่ามันเป็นกีฬาที่สนุกและถ้าคุณใช้เหยื่อล่อ พวกเขาจะโยนไพ่ทั้งสำรับขึ้นไปในอากาศและสรุปลงบนพื้น บุคคลนั้นยิ้มหน้าด้านและบอกให้คุณไปหยิบไพ่ นั่นคือเกมทั้งหมด

พิเรนทร์!

ฉันมีคำถามที่ค่อนข้างครุ่นคิดที่จะถามคุณเกี่ยวกับเรื่องนี้

สมมติว่าไพ่ใบหนึ่งเลื่อนอยู่ใต้โซฟาใกล้ๆ เมื่อคุณหยิบไพ่ทั้งหมดเสร็จ คุณจะรู้ว่าการ์ดใบหนึ่งหายไปเพราะในมือคุณเหลือแค่ห้าสิบเอ็ดใบ

คำถามคือ คุณสามารถระบุได้ว่าบัตรใดหายไป?

ฉันแน่ใจว่าคุณจะพูดทันทีว่าคุณสามารถคิดออกได้อย่างง่ายดายว่าไพ่ใบใดไม่ได้อยู่ในมือของคุณ สิ่งที่คุณต้องทำคือจัดเด็คให้เป็นระเบียบ คุณทราบดีว่าสำรับมาตรฐานประกอบด้วยสี่ชุด และในแต่ละชุดไพ่จะมีหมายเลขตั้งแต่หนึ่งถึงสิบ จากนั้นจึงเข้าสู่แจ็ค ควีน และคิง

คุณรู้เรื่องนี้เพราะไพ่สำรับมาตรฐานนั้นขึ้นอยู่กับมาตรฐาน

โอ้ คำพูดนั้นอาจดูเหมือนเป็นการยืนยันที่ชัดเจนอย่างหนึ่ง แน่นอนว่าเด็คเล่นมาตรฐานนั้นขึ้นอยู่กับมาตรฐาน เราทุกคนรู้ว่า ประเด็นของฉันคือการมีมาตรฐานเราสามารถพึ่งพามาตรฐานได้เมื่อจำเป็น นอกจากจะสามารถสรุปได้ว่าไพ่ใบใดที่ขาดหายไปจากสำรับแล้ว คุณยังสามารถเล่นเกมไพ่ที่มีชื่อเสียงหลายล้านเกมกับคนอื่นๆ ได้อีกด้วย เมื่อมีคนบอกกฎของเกมแล้ว พวกเขาสามารถเล่นได้โดยตรงเพราะพวกเขารู้ดีว่าเด็คประกอบด้วยอะไร คุณไม่จำเป็นต้องอธิบายให้พวกเขาฟังว่าสำรับไพ่มีสี่ชุดและไพ่ที่มีหมายเลขต่างกัน พวกเขารู้อยู่แล้วว่าจะเป็นเช่นนั้น

ฉันจะไปที่ไหนกับเรื่องนี้?

ฉันกำลังพยายามนำคุณไปสู่เส้นทางที่มีความสำคัญต่อความก้าวหน้าในด้าน AI และโดยเฉพาะอย่างยิ่งขอบเขตของ AI Ethics และ Ethical AI คุณเห็นไหม เราจำเป็นต้องพยายามสร้างมาตรฐานเกี่ยวกับจรรยาบรรณ AI ที่แพร่หลายและตกลงกันทั้งหมด หากเราทำได้ จะช่วยเพิ่มความสะดวกในการรับเอา Ethical AI มาใช้ และแสดงให้เห็นชัดเจนว่าจะปรับปรุงระบบ AI ที่คอยส่งกลิ่นอายของความบ้าคลั่งเข้าสู่ตลาด (เช่น สำรับไพ่ไวด์ที่ไม่มีหมายเลขและไม่ได้เรียงลำดับ) สำหรับการครอบคลุมอย่างต่อเนื่องและกว้างขวางของฉันเกี่ยวกับจริยธรรม AI, จริยธรรม AI และกฎหมาย AI โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของจริยธรรม AI ที่ได้รับความสนใจจากสื่อเป็นจำนวนมากประกอบด้วย AI ที่แสดงอคติและความไม่เท่าเทียมกัน คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ตามแนวคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหา AI ที่ต่อสู้กับไฟด้วยไฟในลักษณะที่คิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ดูแลในการติดตามและตรวจจับเมื่อ AI อื่นกำลังเข้าสู่ขุมนรกที่ผิดจรรยาบรรณ (ดูการวิเคราะห์ความสามารถดังกล่าวของฉันได้ที่ ลิงค์ที่นี่).

ในอีกสักครู่ ฉันจะแบ่งปันหลักการที่ครอบคลุมเกี่ยวกับจริยธรรม AI กับคุณ มีรายการประเภทนี้มากมายที่ลอยอยู่ที่นี่และที่นั่น คุณสามารถพูดได้ว่ายังไม่มีรายการเดียวของการอุทธรณ์และการเห็นพ้องต้องกันที่เป็นสากล นั่นเป็นข่าวที่โชคร้าย ข่าวดีก็คืออย่างน้อยก็มีรายการจริยธรรม AI ที่พร้อมใช้งานและมีแนวโน้มว่าจะค่อนข้างคล้ายกัน ทั้งหมดนี้แสดงให้เห็นว่าด้วยรูปแบบของการบรรจบกันของเหตุผลต่างๆ ที่เรากำลังหาทางไปสู่ความธรรมดาทั่วไปของสิ่งที่ AI Ethics ประกอบด้วย

ฉันนำสิ่งนี้ขึ้นมาเพื่อเป็นพื้นฐานสำหรับการอภิปรายของฉันในที่นี้จะมุ่งเน้นไปที่ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของขอบเขตที่กว้างขึ้นของจรรยาบรรณ AI กล่าวก่อนหน้านี้องค์ประกอบเฉพาะของอคติ AI เหตุผลที่ฉันแบ่งปันหัวข้อนี้กับคุณก็คือเอกสารที่เผยแพร่โดยสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) พยายามทำให้เราก้าวไปสู่มาตรฐานที่แสดงถึงอคติของ AI เอกสารชื่อ สู่มาตรฐานสำหรับการระบุและจัดการอคติในปัญญาประดิษฐ์ โดยผู้เขียน Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt และ Patrick Hall และเผยแพร่โดยกระทรวงพาณิชย์ของสหรัฐอเมริกา NIST Special Publication 1270 ในเดือนมีนาคม 2022

เราจะแกะกล่องความพยายามที่มีประโยชน์และสนับสนุนนี้เพื่อสร้างสิ่งที่เราหมายถึงโดยอคติของ AI โบราณว่าคุณไม่สามารถจัดการสิ่งที่คุณไม่สามารถวัดได้ การมีมาตรฐานที่กำหนดความเอนเอียงของ AI ที่หลากหลาย ทำให้คุณสามารถเริ่มวัดและจัดการอคติของ AI ได้

อันดับแรก เรามาพูดถึงหลักจริยธรรมของ AI โดยรวมโดยสังเขปเพื่อแสดงให้เห็นข้อควรพิจารณาที่สำคัญสำหรับผู้ที่ประดิษฐ์ งานภาคสนาม หรือใช้ AI

ตัวอย่างเช่น ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:

  • โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
  • รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
  • ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
  • ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
  • ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
  • ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้

ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:

  • รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
  • เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
  • ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
  • ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
  • ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ

ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยังเป็นสิ่งที่ยากต่อการถอดรหัส โดยรวมแล้วเป็นการง่ายที่จะโบกมือว่าหลักจรรยาบรรณของ AI คืออะไรและควรปฏิบัติตามอย่างไร ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากในการเข้ารหัส AI ที่จะต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "ผู้เข้ารหัสเท่านั้น" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ระบุไว้ก่อนหน้านี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

การปฏิบัติตามหลักจริยธรรม AI ที่สำคัญหลายประการนั้นเป็นลักษณะที่ร้ายกาจของอคติของ AI

เช่นเดียวกับสำรับไพ่ แน่นอนว่าคงจะดีถ้าเราสามารถจัดกลุ่มอคติของ AI ให้เป็นชุด "ชุด" หรือหมวดหมู่ได้ อันที่จริง เอกสาร NIST เสนอการจัดกลุ่มที่แนะนำ

มีการเสนอหมวดหมู่หลักสามประเภท:

1) อคติเชิงระบบ

2) อคติทางสถิติและการคำนวณ

3) อคติของมนุษย์

ความลำเอียงของ AI ทั้งหมดมีความเหมาะสมภายในหนึ่งในสามหมวดหมู่นี้หรือไม่นั้นเป็นสิ่งที่ต้องพิจารณาอย่างแน่นอน คุณสามารถโต้แย้งได้อย่างมั่นใจว่าความเอนเอียงของ AI บางส่วนแบ่งออกเป็นหนึ่ง สอง หรือทั้งสามประเภทพร้อมกัน นอกจากนี้ คุณอาจอ้างว่ามีหมวดหมู่ที่ควรกล่าวถึงมากขึ้น เช่น การจัดกลุ่มที่สี่ ห้า หก หรือมากกว่านั้น

ฉันหวังว่านั่นคือสิ่งที่คุณกำลังคิด เพราะเราต้องการให้ทุกคนมีส่วนร่วมในการช่วยกำหนดมาตรฐานเหล่านี้ หากคุณรู้สึกไม่สบายใจกับการที่มาตรฐานเหล่านี้ก่อตัวขึ้นในตอนแรก เราขอแนะนำให้คุณเปลี่ยนพลังงานนั้นให้ช่วยเหลือพวกเราที่เหลือในการทำให้มาตรฐานที่กำลังเติบโตนั้นแข็งแกร่งและสมบูรณ์ที่สุดเท่าที่จะทำได้

สำหรับตอนนี้ เราสามารถเจาะลึกถึงสามหมวดหมู่ที่เสนอให้ละเอียดยิ่งขึ้น และดูว่าเราเคยเล่นไพ่ประเภทไหนมาบ้าง (ใช่ ฉันจะใช้การเปรียบเทียบกับสำรับไพ่ต่อไป ตลอดทั้งบทความที่เขียนนี้ คุณสามารถเดิมพันดอลลาร์ด้านล่างของคุณกับเอซของธีมที่ไม่ได้ซ่อนไว้ได้)

การอ้างถึงอคติเชิงระบบหมายความว่าอย่างไร

เอกสารของ NIST ระบุว่า “อคติเชิงระบบเป็นผลจากขั้นตอนและการปฏิบัติของสถาบันเฉพาะที่ดำเนินการในลักษณะที่ส่งผลให้กลุ่มสังคมบางกลุ่มได้เปรียบหรือได้รับความโปรดปราน และคนอื่น ๆ เสียเปรียบหรือด้อยค่า สิ่งนี้ไม่จำเป็นต้องเป็นผลมาจากอคติหรือการเลือกปฏิบัติที่มีสติ แต่ส่วนใหญ่เป็นไปตามกฎหรือบรรทัดฐานที่มีอยู่ การเหยียดเชื้อชาติในสถาบันและการกีดกันทางเพศเป็นตัวอย่างที่พบบ่อยที่สุด” (โปรดทราบว่านี่เป็นเพียงข้อความที่ตัดตอนมาสั้นๆ และขอแนะนำให้ผู้อ่านดูคำอธิบายที่ละเอียดยิ่งขึ้น)

AI เข้ามาในการผสมผสานของอคติเชิงระบบโดยการจัดหาวิธีการถ่ายทอดและใช้อคติเหล่านั้นในแอปที่ใช้ AI เมื่อใดก็ตามที่คุณใช้ซอฟต์แวร์ที่ใช้ AI สิ่งที่คุณรู้ว่าอาจมีอคติจำนวนมากที่หลอมรวมเข้าสู่ระบบผ่านบริษัทและแนวปฏิบัติในอุตสาหกรรมที่นำไปสู่การสร้าง AI ตามการศึกษาของ NIST: "ความเอนเอียงเหล่านี้มีอยู่ในชุดข้อมูลที่ใช้ใน AI และบรรทัดฐาน แนวทางปฏิบัติ และกระบวนการของสถาบันตลอดวงจรชีวิตของ AI และในวัฒนธรรมและสังคมที่กว้างขึ้น"

ต่อไป ให้พิจารณาชุดของอคติที่มีป้ายกำกับว่าเป็นอคติทางสถิติและเชิงคำนวณ

เอกสาร NIST ระบุสิ่งนี้: “อคติทางสถิติและการคำนวณเกิดจากข้อผิดพลาดที่เกิดขึ้นเมื่อกลุ่มตัวอย่างไม่ได้เป็นตัวแทนของประชากร อคติเหล่านี้เกิดขึ้นจากความลำเอียงอย่างเป็นระบบเมื่อเทียบกับข้อผิดพลาดแบบสุ่ม และสามารถเกิดขึ้นได้โดยไม่มีอคติ ไม่ลำเอียง หรือเจตนาเลือกปฏิบัติ ในระบบ AI ความลำเอียงเหล่านี้มีอยู่ในชุดข้อมูลและกระบวนการอัลกอริทึมที่ใช้ในการพัฒนาแอปพลิเคชัน AI และมักเกิดขึ้นเมื่ออัลกอริทึมได้รับการฝึกอบรมเกี่ยวกับข้อมูลประเภทเดียวและไม่สามารถคาดการณ์ได้เกินกว่าข้อมูลเหล่านั้น”

อคติทางสถิติและการคำนวณประเภทนี้มักถูกปรุงให้อยู่ในระบบ AI ที่ใช้ Machine Learning (ML) และ Deep Learning (DL) การนำ ML/DL ในปัจจุบันมาใช้เป็นเรื่องที่หนักแน่นจำเป็นต้องมีความสัมพันธ์ที่เกี่ยวข้องกันเกี่ยวกับ AI คืออะไรและ ML/DL คืออะไร

ตรวจสอบให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่).

เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning และ Deep Learning อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน วันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใด ๆ ของการคิดที่แข็งแกร่งของมนุษย์

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

สิ่งนี้นำเราไปสู่หมวดหมู่ที่สามของชุด NIST ที่มีการจัดกลุ่มสามกลุ่มอย่างตรงไปตรงมา โดยเฉพาะบทบาทของอคติของมนุษย์ในการเกิดขึ้นของอคติ AI นี่คือสิ่งที่เอกสาร NIST ระบุ: “อคติของมนุษย์สะท้อนข้อผิดพลาดอย่างเป็นระบบในความคิดของมนุษย์โดยอิงตามหลักการฮิวริสติกจำนวนจำกัดและการคาดการณ์ค่าเพื่อการดำเนินการตัดสินที่ง่ายกว่า ความลำเอียงเหล่านี้มักเป็นนัยโดยนัยและมีแนวโน้มที่จะเกี่ยวข้องกับวิธีที่บุคคลหรือกลุ่มรับรู้ข้อมูล (เช่น เอาต์พุต AI อัตโนมัติ) เพื่อตัดสินใจหรือกรอกข้อมูลที่ขาดหายไปหรือไม่ทราบข้อมูล อคติเหล่านี้มีอยู่ทั่วไปทุกหนทุกแห่งในกระบวนการตัดสินใจของสถาบัน กลุ่ม และรายบุคคลตลอดวงจรชีวิตของ AI และในการใช้งานแอปพลิเคชัน AI เมื่อปรับใช้แล้ว”

ตอนนี้คุณได้รับบทแนะนำอย่างรวดเร็วเกี่ยวกับสามหมวดหมู่แล้ว

ฉันต้องการแบ่งปันอาหารสำหรับความคิดเพิ่มเติมกับคุณตามที่แสดงในเอกสาร NIST แผนภูมิในการบรรยายให้ข้อมูลสรุปที่เป็นประโยชน์ของคำถามสำคัญและข้อควรพิจารณาที่รองรับอคติ AI ทั้งสามชุด ฉันแสดงรายการไว้ที่นี่เพื่อความสะดวกในการอ้างอิงและการแก้ไข

#1: อคติเชิงระบบ

  • ใครถูกนับ ใครไม่นับ?

— ปัญหาเกี่ยวกับตัวแปรแฝง

— การเป็นตัวแทนของกลุ่มชายขอบ

— ระบบอัตโนมัติของความไม่เท่าเทียมกัน

— การเป็นตัวแทนน้อยในการพิจารณาฟังก์ชั่นยูทิลิตี้

— กระบวนการที่สนับสนุนเสียงข้างมาก/ส่วนน้อย

— อคติทางวัฒนธรรมในหน้าที่วัตถุประสงค์ (ดีที่สุดสำหรับบุคคล vs ดีที่สุดสำหรับกลุ่ม)

  • เราจะรู้ได้อย่างไรว่าอะไรถูก?

— การเสริมความแข็งแกร่งของความไม่เท่าเทียมกัน (กลุ่มได้รับผลกระทบมากขึ้นด้วยการใช้ AI ที่สูงขึ้น)

— การคาดการณ์การรักษาได้รับผลกระทบในเชิงลบมากขึ้น

— การยอมรับอย่างกว้างขวางของการแชร์รถ/รถยนต์ที่ขับเอง/อื่นๆ อาจเปลี่ยนแปลงนโยบายที่ส่งผลกระทบต่อประชากรตามการใช้งาน

#2: อคติทางสถิติและการคำนวณ

  • ใครถูกนับ ใครไม่นับ?

— อคติการสุ่มตัวอย่างและการเลือก

— การใช้ตัวแปรพร็อกซี่เพราะวัดได้ง่ายกว่า

— อคติอัตโนมัติ

— มาตราส่วน Likert (จัดหมวดหมู่เป็นลำดับถึงพระคาร์ดินัล)

— ไม่เชิงเส้นเทียบกับเชิงเส้น

— ความเข้าใจผิดทางนิเวศวิทยา

— ย่อขนาด L1 เทียบกับ L2 norm

— ปัญหาทั่วไปในการหาปริมาณปรากฏการณ์ตามบริบท

  • เราจะรู้ได้อย่างไรว่าอะไรถูก?

— ขาดการตรวจสอบข้ามที่เพียงพอ

— อคติในการเอาตัวรอด

— ความยากลำบากกับความเป็นธรรม

#3: อคติของมนุษย์

  • ใครถูกนับ ใครไม่นับ?

— อคติเชิงสังเกต (เอฟเฟกต์ไฟถนน)

— อคติความพร้อมใช้งาน (การยึด)

— การเข้าใจผิดของ McNamara

— Groupthink นำไปสู่ทางเลือกที่แคบ

— ผลกระทบ Rashomon นำไปสู่การสนับสนุนอัตนัย

— ความยากในการหาจำนวนวัตถุประสงค์อาจนำไปสู่การเข้าใจผิดของ McNamara

  • เราจะรู้ได้อย่างไรว่าอะไรถูก?

— อคติการยืนยัน

— อคติอัตโนมัติ

ในช่วงหัวเลี้ยวหัวต่อของการอภิปรายที่หนักหน่วงนี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างตัวอย่างที่อาจแสดงอคติ AI สามประเภท มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI ซึ่งรวมถึงการขยายสาขาด้านจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นถึงประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้านจริยธรรมด้าน AI นี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการอภิปรายอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI นั้นให้ความสว่างแก่สิ่งใดเกี่ยวกับอคติของ AI ที่เสนอทั้งสามประเภท และหากเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอะไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อความกระจ่าง รถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมด และไม่มีความช่วยเหลือจากมนุษย์ในระหว่างงานขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถที่ขับด้วยตัวเองที่แท้จริงในระดับ 5 และเรายังไม่รู้ด้วยซ้ำว่าจะสำเร็จหรือไม่ และต้องใช้เวลานานแค่ไหนกว่าจะไปถึงที่นั่น

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ไร้คนขับและอคติของ AI

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง

ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและความเป็นไปได้ของ AI ที่มีจริยธรรมซึ่งเกี่ยวข้องกับอคติ AI สามประเภท

ลองนึกภาพว่ารถยนต์ไร้คนขับที่ใช้ AI กำลังดำเนินการอยู่บนถนนในละแวกของคุณ และดูเหมือนว่าจะขับขี่ได้อย่างปลอดภัย ในตอนแรก คุณให้ความสนใจเป็นพิเศษกับทุกครั้งที่คุณมีโอกาสได้เห็นรถที่ขับด้วยตัวเอง รถยนต์ไร้คนขับโดดเด่นด้วยชั้นวางเซ็นเซอร์อิเล็กทรอนิกส์ที่มีกล้องวิดีโอ หน่วยเรดาร์ อุปกรณ์ LIDAR และอื่นๆ หลังจากใช้เวลาหลายสัปดาห์ของรถยนต์ไร้คนขับที่แล่นไปรอบๆ ชุมชนของคุณ ตอนนี้คุณแทบจะไม่สังเกตเห็นเลย เท่าที่คุณทราบ มันเป็นเพียงรถอีกคันบนถนนสาธารณะที่พลุกพล่านอยู่แล้ว

เพื่อไม่ให้คุณคิดว่าเป็นไปไม่ได้หรือเป็นไปไม่ได้ที่จะทำความคุ้นเคยกับการเห็นรถที่ขับด้วยตนเอง ฉันได้เขียนบ่อยครั้งเกี่ยวกับสถานที่ที่อยู่ภายในขอบเขตของการทดลองใช้รถยนต์ไร้คนขับค่อย ๆ ชินกับการได้เห็นรถที่ตกแต่งแล้ว ดูการวิเคราะห์ของฉันที่ ลิงค์นี้. ในที่สุด ชาวบ้านหลายคนก็เปลี่ยนจากการเฆี่ยนตีอ้าปากค้าง มาเป็นการเปล่งเสียงหาวอย่างเบื่อหน่ายเมื่อได้เห็นรถที่ขับเองที่คดเคี้ยว

อาจเป็นสาเหตุหลักในตอนนี้ที่พวกเขาอาจสังเกตเห็นรถยนต์ไร้คนขับเพราะความระคายเคืองและปัจจัยที่ทำให้โกรธเคือง ระบบการขับขี่แบบ AI ที่จัดทำโดยหนังสือช่วยให้แน่ใจว่ารถยนต์ปฏิบัติตามการจำกัดความเร็วและกฎจราจรทั้งหมด สำหรับผู้ขับขี่ที่เป็นมนุษย์ที่วุ่นวายในรถยนต์ที่ขับเคลื่อนโดยมนุษย์แบบดั้งเดิม คุณอาจรู้สึกหงุดหงิดเมื่อต้องติดอยู่กับรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปฏิบัติตามกฎหมายอย่างเคร่งครัด

นั่นคือสิ่งที่เราทุกคนอาจต้องคุ้นเคย ไม่ว่าจะถูกหรือผิด

กลับมาที่เรื่องของเรา

เราจะพิจารณาต่อไปว่าอคติเชิงระบบอาจเกิดขึ้นได้อย่างไรในบริบทของรถยนต์ที่ขับเคลื่อนด้วยตนเองนี้

เกจิบางคนกังวลมากว่ารถยนต์ที่ขับเองจะเป็นจังหวัดของคนรวยและชนชั้นสูงเท่านั้น อาจเป็นได้ว่าค่าใช้จ่ายในการใช้รถยนต์ที่ขับด้วยตนเองจะมีราคาแพงมาก ถ้าคุณไม่มีเงินก้อนโต คุณอาจไม่เคยเห็นภายในรถที่ขับด้วยตนเอง ผู้ที่จะใช้รถยนต์ไร้คนขับจะต้องร่ำรวย

ด้วยเหตุนี้ บางคนจึงแนะนำอย่างไม่แยแสว่ารูปแบบของอคติเชิงระบบจะแทรกซึมเข้าสู่การกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองโดยใช้ AI ระบบอุตสาหกรรมยานยนต์ไร้คนขับโดยรวมจะป้องกันรถยนต์ที่ขับด้วยตนเองให้พ้นจากมือผู้ยากไร้หรือร่ำรวยน้อยกว่า สิ่งนี้อาจไม่จำเป็นโดยเจตนาที่เปิดเผย และปรากฎว่าวิธีเดียวที่เชื่อในการชดใช้ต้นทุนที่เป็นภาระในการประดิษฐ์รถยนต์ที่ขับด้วยตนเองคือการคิดราคาที่สูงเกินจริง

หากคุณโต้กลับว่าวันนี้มีการทดสอบรถยนต์ไร้คนขับที่เปิดโอกาสให้คนในชีวิตประจำวันได้ใช้ ดูเหมือนว่าคุณไม่จำเป็นต้องรวยเอง แต่มีข้อโต้แย้งว่าเกมนี้เป็นเกมประเภทกระสุน มันเป็น. ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองนั้นเต็มใจที่จะทำให้ดูเหมือนกับว่าค่าใช้จ่ายจะไม่เป็นอุปสรรคสำคัญ พวกเขากำลังทำเช่นนี้เพื่อวัตถุประสงค์ในการประชาสัมพันธ์ในขณะนี้และจะขึ้นราคาเมื่อพบรอยย่น ผู้สมรู้ร่วมคิดอาจอ้างว่า "หนูตะเภา" ที่เป็นคนในชีวิตประจำวันกำลังถูกใช้อย่างเป็นอันตรายเพื่อให้คนรวยร่ำรวยยิ่งขึ้นในท้ายที่สุด

ดังนั้น ด้วยประเด็นที่ค่อนข้างจะขัดแย้ง และใส่สองเซ็นต์ของฉันเองในหัวข้อที่สกปรกนี้ ฉันไม่เชื่อว่ารถยนต์ที่ขับด้วยตนเองจะมีราคาสูงกว่าสำหรับการใช้ชีวิตประจำวัน ฉันจะไม่ลงรายละเอียดในที่นี้เกี่ยวกับพื้นฐานของฉันในการเรียกร้องดังกล่าวและขอเชิญคุณดูการอภิปรายอย่างมีสติที่ ลิงค์ที่นี่ และที่ ลิงค์ที่นี่.

ต่อไปเราจะพิจารณาเรื่องอคติทางสถิติและการคำนวณที่เกี่ยวข้องกับ AI

พิจารณาคำถามที่ดูเหมือนจะไม่สำคัญว่ารถยนต์ที่ขับด้วยตนเองจะสัญจรไปรับผู้โดยสารได้ที่ไหน นี้ดูเหมือนหัวข้อที่ไม่มีพิษภัยอย่างล้นเหลือ เราจะใช้เรื่องราวเกี่ยวกับเมืองหรือเมืองที่มีรถยนต์ที่ขับเคลื่อนด้วยตนเองเพื่อเน้นให้เห็นถึงความเอนเอียงทางสถิติและการคำนวณที่เกี่ยวข้องกับ AI

ในตอนแรก สมมติว่า AI กำลังสัญจรไปมาในรถยนต์ที่ขับเคลื่อนด้วยตัวเองทั่วทั้งเมือง ใครก็ตามที่ต้องการขอนั่งในรถที่ขับด้วยตนเองมีโอกาสเท่าเทียมกันในการเรียกรถ ค่อยๆ AI เริ่มให้รถยนต์ที่ขับเคลื่อนด้วยตนเองส่วนใหญ่อยู่ในส่วนเดียวของเมือง ส่วนนี้เป็นผู้สร้างรายได้มากขึ้น และระบบ AI ได้รับการตั้งโปรแกรมให้พยายามและเพิ่มรายได้ให้สูงสุดโดยเป็นส่วนหนึ่งของการใช้งานในชุมชน

สมาชิกในชุมชนในส่วนที่ยากจนของเมืองมีโอกาสน้อยที่จะสามารถนั่งรถที่ขับเองได้ เนื่องจากรถยนต์ที่ขับด้วยตนเองอยู่ไกลออกไปและสัญจรไปมาในส่วนรายได้ที่สูงขึ้นของสถานที่นั้น เมื่อมีคำขอเข้ามาจากส่วนไกลของเมือง คำขอใดๆ จากสถานที่ที่อยู่ใกล้กว่าซึ่งน่าจะอยู่ในส่วนที่ "น่านับถือ" ของเมืองจะได้รับความสำคัญสูงกว่า ในที่สุด ความพร้อมใช้งานของรถยนต์ไร้คนขับในที่อื่นใดนอกจากในส่วนที่ร่ำรวยกว่าของเมืองนั้นแทบจะเป็นไปไม่ได้เลย ซึ่งทำให้ผู้ที่อาศัยอยู่ในพื้นที่ที่ขาดแคลนทรัพยากรในขณะนี้

คุณสามารถยืนยันได้ว่า AI นั้นค่อนข้างจะอยู่ในรูปแบบของอคติทางสถิติและการคำนวณ ซึ่งคล้ายกับรูปแบบของการเลือกปฏิบัติแบบตัวแทน (หรือมักเรียกกันว่าการเลือกปฏิบัติทางอ้อม) AI ไม่ได้ถูกตั้งโปรแกรมให้หลีกเลี่ยงย่านที่ยากจนเหล่านั้น แต่ “เรียนรู้” ที่จะทำเช่นนั้นผ่านการใช้ ML/DL

สันนิษฐานว่า AI จะไม่มีวันตกลงไปในทรายดูดที่น่าอับอายแบบนั้น ไม่มีการตั้งค่าการตรวจสอบพิเศษเพื่อติดตามว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI กำลังไปอยู่ที่ใด หลังจากที่สมาชิกในชุมชนเริ่มบ่น พวกผู้นำเมืองก็รู้ว่ากำลังเกิดอะไรขึ้น สำหรับข้อมูลเพิ่มเติมเกี่ยวกับปัญหาทั่วเมืองประเภทเหล่านี้ที่ยานยนต์ไร้คนขับและรถยนต์ไร้คนขับกำลังจะนำเสนอ โปรดดูการรายงานข่าวของฉันที่ ลิงค์นี้ และอธิบายการศึกษาที่นำโดยฮาร์วาร์ดที่ฉันร่วมเขียนในหัวข้อนี้

สำหรับอคติของมนุษย์ประเภทที่สามที่เกี่ยวข้องกับความลำเอียงของ AI เราขอยกตัวอย่างที่เกี่ยวข้องกับ AI ที่กำหนดว่าจะหยุดรอคนเดินถนนที่ไม่มีสิทธิ์ข้ามถนนหรือไม่

ไม่ต้องสงสัยเลยว่าคุณเคยขับรถมาและพบกับคนเดินถนนที่รอข้ามถนน แต่พวกเขาไม่มีสิทธิ์ทำเช่นนั้น นี่หมายความว่าคุณมีดุลยพินิจว่าจะหยุดและปล่อยให้พวกเขาข้ามไปหรือไม่ คุณสามารถดำเนินการได้โดยไม่ปล่อยให้ข้ามไป และยังคงอยู่ภายใต้กฎการขับขี่ที่ถูกกฎหมายโดยสมบูรณ์ในการทำเช่นนั้น

การศึกษาวิธีที่คนขับตัดสินใจหยุดหรือไม่หยุดสำหรับคนเดินถนนดังกล่าว ได้เสนอแนะว่าบางครั้งคนขับที่เป็นมนุษย์อาจเลือกโดยพิจารณาจากอคติที่ไม่ดี คนขับที่เป็นมนุษย์อาจมองคนเดินถนนและเลือกที่จะไม่หยุด แม้ว่าพวกเขาจะหยุดแล้วก็ตามหากคนเดินถนนมีรูปลักษณ์ที่ต่างออกไป เช่น ตามเชื้อชาติหรือเพศ ฉันได้ตรวจสอบสิ่งนี้ที่ ลิงค์ที่นี่.

ลองนึกภาพว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ได้รับการตั้งโปรแกรมให้จัดการกับคำถามว่าจะหยุดหรือไม่หยุดสำหรับคนเดินถนนที่ไม่มีสิทธิ์เดินทาง นี่คือวิธีที่นักพัฒนา AI ตัดสินใจตั้งโปรแกรมงานนี้ พวกเขารวบรวมข้อมูลจากกล้องวิดีโอของเมืองที่วางอยู่ทั่วเมือง ข้อมูลนี้แสดงให้เห็นคนขับรถที่จอดสำหรับคนเดินถนนที่ไม่มีสิทธิ์ของทางและคนขับที่ไม่หยุดนิ่ง มันถูกรวบรวมเป็นชุดข้อมูลขนาดใหญ่

โดยใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ข้อมูลจะถูกจำลองด้วยการคำนวณ จากนั้นระบบขับเคลื่อน AI จะใช้โมเดลนี้ในการตัดสินใจว่าจะหยุดหรือไม่หยุด โดยทั่วไปแล้ว แนวคิดก็คือไม่ว่าประเพณีท้องถิ่นจะประกอบด้วยอะไรก็ตาม นี่คือวิธีที่ AI ขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเอง

สร้างความประหลาดใจให้กับผู้นำเมืองและผู้อยู่อาศัย เห็นได้ชัดว่า AI เลือกที่จะหยุดหรือไม่หยุดตามอายุของคนเดินเท้า มันเกิดขึ้นได้อย่างไร?

จากการตรวจสอบอย่างละเอียดถี่ถ้วนของวิดีโอเกี่ยวกับดุลยพินิจของผู้ขับขี่ พบว่ามีหลายกรณีที่คนเดินถนนไม่หยุดยั้งซึ่งมีไม้เท้าสำหรับผู้สูงอายุ ดูเหมือนคนขับจะไม่เต็มใจที่จะหยุดรถและปล่อยให้ผู้สูงวัยเดินข้ามถนน สันนิษฐานว่าคงเป็นเพราะระยะเวลาที่สันนิษฐานไว้ซึ่งบางคนอาจต้องใช้ในการเดินทาง หากคนเดินถนนดูเหมือนสามารถวิ่งข้ามถนนได้อย่างรวดเร็วและลดเวลารอของคนขับ คนขับจะยอมให้คนข้ามถนนได้ง่ายขึ้น

สิ่งนี้ถูกฝังลึกในระบบการขับขี่ของ AI เซ็นเซอร์ของรถยนต์ที่ขับด้วยตนเองจะสแกนคนเดินถนนที่รออยู่ ป้อนข้อมูลนี้ลงในแบบจำลอง ML/DL และแบบจำลองจะปล่อยไปยัง AI ว่าจะหยุดหรือดำเนินการต่อ สิ่งบ่งชี้ด้วยภาพว่าคนเดินถนนอาจข้ามได้ช้า เช่น การใช้ไม้เท้าเดิน ในทางคณิตศาสตร์ ถูกนำมาใช้ในการพิจารณาว่าระบบขับเคลื่อน AI ควรปล่อยให้คนเดินถนนที่รออยู่ข้ามหรือไม่

คุณสามารถโต้แย้งได้ว่านี่เป็นการพึ่งพาอคติของมนุษย์ที่มีอยู่ก่อน

สรุป

ความคิดสุดท้ายบางอย่างสำหรับตอนนี้

มีคำกล่าวที่เป็นที่นิยมว่าคุณไม่สามารถเปลี่ยนไพ่ที่คุณได้รับและต้องเรียนรู้วิธีเล่นอย่างเพียงพอกับมือที่คุณได้รับ

ในกรณีของความลำเอียงของ AI หากเราไม่รีบเร่งสร้างจรรยาบรรณ AI ให้ทั่วกระดานและโดยเฉพาะอย่างยิ่งทำให้ลักษณะของอคติ AI แข็งแกร่งขึ้น ประเภทของมือที่เรากำลังจะได้รับการจัดการจะเต็มไปด้วยความไร้จรรยาบรรณ และชั้นอาจผิดกฎหมาย เราต้องหยุดไพ่เหล่านั้นไม่ให้ถูกแจกก่อน เป้าหมายที่กล้าหาญในการสร้างและเผยแพร่มาตรฐานจริยธรรม AI เป็นเครื่องมือสำคัญในการต่อสู้กับสึนามิที่จะเกิดขึ้น AI สำหรับไม่ดี.

คุณสามารถตัดสินใจไปที่ธนาคารได้เลยว่าความลำเอียงของ AI ที่อาละวาดและ AI ที่ผิดจรรยาบรรณจะเหมือนกับบ้านไพ่ที่บอบบาง ระเบิดใส่ตัวเองและน่าจะเป็นหายนะสำหรับพวกเราทุกคน

มาเล่นกันเพื่อชนะด้วย AI ที่มีจริยธรรมอย่างเหมาะสม

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ไอ-อคติ/