คุณเคยเล่นหยิบไพ่ห้าสิบสองใบหรือไม่?
ไม่ใช่เกมที่คุณมักจะเต็มใจทำ นี่คือเหตุผล มีคนเสนอให้คุณว่ามันเป็นกีฬาที่สนุกและถ้าคุณใช้เหยื่อล่อ พวกเขาจะโยนไพ่ทั้งสำรับขึ้นไปในอากาศและสรุปลงบนพื้น บุคคลนั้นยิ้มหน้าด้านและบอกให้คุณไปหยิบไพ่ นั่นคือเกมทั้งหมด
พิเรนทร์!
ฉันมีคำถามที่ค่อนข้างครุ่นคิดที่จะถามคุณเกี่ยวกับเรื่องนี้
สมมติว่าไพ่ใบหนึ่งเลื่อนอยู่ใต้โซฟาใกล้ๆ เมื่อคุณหยิบไพ่ทั้งหมดเสร็จ คุณจะรู้ว่าการ์ดใบหนึ่งหายไปเพราะในมือคุณเหลือแค่ห้าสิบเอ็ดใบ
คำถามคือ คุณสามารถระบุได้ว่าบัตรใดหายไป?
ฉันแน่ใจว่าคุณจะพูดทันทีว่าคุณสามารถคิดออกได้อย่างง่ายดายว่าไพ่ใบใดไม่ได้อยู่ในมือของคุณ สิ่งที่คุณต้องทำคือจัดเด็คให้เป็นระเบียบ คุณทราบดีว่าสำรับมาตรฐานประกอบด้วยสี่ชุด และในแต่ละชุดไพ่จะมีหมายเลขตั้งแต่หนึ่งถึงสิบ จากนั้นจึงเข้าสู่แจ็ค ควีน และคิง
คุณรู้เรื่องนี้เพราะไพ่สำรับมาตรฐานนั้นขึ้นอยู่กับมาตรฐาน
โอ้ คำพูดนั้นอาจดูเหมือนเป็นการยืนยันที่ชัดเจนอย่างหนึ่ง แน่นอนว่าเด็คเล่นมาตรฐานนั้นขึ้นอยู่กับมาตรฐาน เราทุกคนรู้ว่า ประเด็นของฉันคือการมีมาตรฐานเราสามารถพึ่งพามาตรฐานได้เมื่อจำเป็น นอกจากจะสามารถสรุปได้ว่าไพ่ใบใดที่ขาดหายไปจากสำรับแล้ว คุณยังสามารถเล่นเกมไพ่ที่มีชื่อเสียงหลายล้านเกมกับคนอื่นๆ ได้อีกด้วย เมื่อมีคนบอกกฎของเกมแล้ว พวกเขาสามารถเล่นได้โดยตรงเพราะพวกเขารู้ดีว่าเด็คประกอบด้วยอะไร คุณไม่จำเป็นต้องอธิบายให้พวกเขาฟังว่าสำรับไพ่มีสี่ชุดและไพ่ที่มีหมายเลขต่างกัน พวกเขารู้อยู่แล้วว่าจะเป็นเช่นนั้น
ฉันจะไปที่ไหนกับเรื่องนี้?
ฉันกำลังพยายามนำคุณไปสู่เส้นทางที่มีความสำคัญต่อความก้าวหน้าในด้าน AI และโดยเฉพาะอย่างยิ่งขอบเขตของ AI Ethics และ Ethical AI คุณเห็นไหม เราจำเป็นต้องพยายามสร้างมาตรฐานเกี่ยวกับจรรยาบรรณ AI ที่แพร่หลายและตกลงกันทั้งหมด หากเราทำได้ จะช่วยเพิ่มความสะดวกในการรับเอา Ethical AI มาใช้ และแสดงให้เห็นชัดเจนว่าจะปรับปรุงระบบ AI ที่คอยส่งกลิ่นอายของความบ้าคลั่งเข้าสู่ตลาด (เช่น สำรับไพ่ไวด์ที่ไม่มีหมายเลขและไม่ได้เรียงลำดับ) สำหรับการครอบคลุมอย่างต่อเนื่องและกว้างขวางของฉันเกี่ยวกับจริยธรรม AI, จริยธรรม AI และกฎหมาย AI โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่
ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของจริยธรรม AI ที่ได้รับความสนใจจากสื่อเป็นจำนวนมากประกอบด้วย AI ที่แสดงอคติและความไม่เท่าเทียมกัน คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.
ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.
ตามแนวคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหา AI ที่ต่อสู้กับไฟด้วยไฟในลักษณะที่คิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ดูแลในการติดตามและตรวจจับเมื่อ AI อื่นกำลังเข้าสู่ขุมนรกที่ผิดจรรยาบรรณ (ดูการวิเคราะห์ความสามารถดังกล่าวของฉันได้ที่ ลิงค์ที่นี่).
ในอีกสักครู่ ฉันจะแบ่งปันหลักการที่ครอบคลุมเกี่ยวกับจริยธรรม AI กับคุณ มีรายการประเภทนี้มากมายที่ลอยอยู่ที่นี่และที่นั่น คุณสามารถพูดได้ว่ายังไม่มีรายการเดียวของการอุทธรณ์และการเห็นพ้องต้องกันที่เป็นสากล นั่นเป็นข่าวที่โชคร้าย ข่าวดีก็คืออย่างน้อยก็มีรายการจริยธรรม AI ที่พร้อมใช้งานและมีแนวโน้มว่าจะค่อนข้างคล้ายกัน ทั้งหมดนี้แสดงให้เห็นว่าด้วยรูปแบบของการบรรจบกันของเหตุผลต่างๆ ที่เรากำลังหาทางไปสู่ความธรรมดาทั่วไปของสิ่งที่ AI Ethics ประกอบด้วย
ฉันนำสิ่งนี้ขึ้นมาเพื่อเป็นพื้นฐานสำหรับการอภิปรายของฉันในที่นี้จะมุ่งเน้นไปที่ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของขอบเขตที่กว้างขึ้นของจรรยาบรรณ AI กล่าวก่อนหน้านี้องค์ประกอบเฉพาะของอคติ AI เหตุผลที่ฉันแบ่งปันหัวข้อนี้กับคุณก็คือเอกสารที่เผยแพร่โดยสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) พยายามทำให้เราก้าวไปสู่มาตรฐานที่แสดงถึงอคติของ AI เอกสารชื่อ สู่มาตรฐานสำหรับการระบุและจัดการอคติในปัญญาประดิษฐ์ โดยผู้เขียน Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt และ Patrick Hall และเผยแพร่โดยกระทรวงพาณิชย์ของสหรัฐอเมริกา NIST Special Publication 1270 ในเดือนมีนาคม 2022
เราจะแกะกล่องความพยายามที่มีประโยชน์และสนับสนุนนี้เพื่อสร้างสิ่งที่เราหมายถึงโดยอคติของ AI โบราณว่าคุณไม่สามารถจัดการสิ่งที่คุณไม่สามารถวัดได้ การมีมาตรฐานที่กำหนดความเอนเอียงของ AI ที่หลากหลาย ทำให้คุณสามารถเริ่มวัดและจัดการอคติของ AI ได้
อันดับแรก เรามาพูดถึงหลักจริยธรรมของ AI โดยรวมโดยสังเขปเพื่อแสดงให้เห็นข้อควรพิจารณาที่สำคัญสำหรับผู้ที่ประดิษฐ์ งานภาคสนาม หรือใช้ AI
ตัวอย่างเช่น ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:
- โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
- รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
- ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
- ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
- ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
- ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้
ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:
- รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
- เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
- ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
- ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
- ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ
ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:
- ความโปร่งใส
- ความยุติธรรมและความเป็นธรรม
- การไม่อาฆาตพยาบาท
- ความรับผิดชอบ
- ความเป็นส่วนตัว
- ประโยชน์
- เสรีภาพและเอกราช
- วางใจ
- การพัฒนาอย่างยั่งยืน
- เกียรติ
- ความเป็นน้ำหนึ่งใจเดียวกัน
อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยังเป็นสิ่งที่ยากต่อการถอดรหัส โดยรวมแล้วเป็นการง่ายที่จะโบกมือว่าหลักจรรยาบรรณของ AI คืออะไรและควรปฏิบัติตามอย่างไร ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากในการเข้ารหัส AI ที่จะต้องเป็นยางจริงที่ตรงตามท้องถนน
นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "ผู้เข้ารหัสเท่านั้น" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ระบุไว้ก่อนหน้านี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI
การปฏิบัติตามหลักจริยธรรม AI ที่สำคัญหลายประการนั้นเป็นลักษณะที่ร้ายกาจของอคติของ AI
เช่นเดียวกับสำรับไพ่ แน่นอนว่าคงจะดีถ้าเราสามารถจัดกลุ่มอคติของ AI ให้เป็นชุด "ชุด" หรือหมวดหมู่ได้ อันที่จริง เอกสาร NIST เสนอการจัดกลุ่มที่แนะนำ
มีการเสนอหมวดหมู่หลักสามประเภท:
1) อคติเชิงระบบ
2) อคติทางสถิติและการคำนวณ
3) อคติของมนุษย์
ความลำเอียงของ AI ทั้งหมดมีความเหมาะสมภายในหนึ่งในสามหมวดหมู่นี้หรือไม่นั้นเป็นสิ่งที่ต้องพิจารณาอย่างแน่นอน คุณสามารถโต้แย้งได้อย่างมั่นใจว่าความเอนเอียงของ AI บางส่วนแบ่งออกเป็นหนึ่ง สอง หรือทั้งสามประเภทพร้อมกัน นอกจากนี้ คุณอาจอ้างว่ามีหมวดหมู่ที่ควรกล่าวถึงมากขึ้น เช่น การจัดกลุ่มที่สี่ ห้า หก หรือมากกว่านั้น
ฉันหวังว่านั่นคือสิ่งที่คุณกำลังคิด เพราะเราต้องการให้ทุกคนมีส่วนร่วมในการช่วยกำหนดมาตรฐานเหล่านี้ หากคุณรู้สึกไม่สบายใจกับการที่มาตรฐานเหล่านี้ก่อตัวขึ้นในตอนแรก เราขอแนะนำให้คุณเปลี่ยนพลังงานนั้นให้ช่วยเหลือพวกเราที่เหลือในการทำให้มาตรฐานที่กำลังเติบโตนั้นแข็งแกร่งและสมบูรณ์ที่สุดเท่าที่จะทำได้
สำหรับตอนนี้ เราสามารถเจาะลึกถึงสามหมวดหมู่ที่เสนอให้ละเอียดยิ่งขึ้น และดูว่าเราเคยเล่นไพ่ประเภทไหนมาบ้าง (ใช่ ฉันจะใช้การเปรียบเทียบกับสำรับไพ่ต่อไป ตลอดทั้งบทความที่เขียนนี้ คุณสามารถเดิมพันดอลลาร์ด้านล่างของคุณกับเอซของธีมที่ไม่ได้ซ่อนไว้ได้)
การอ้างถึงอคติเชิงระบบหมายความว่าอย่างไร
เอกสารของ NIST ระบุว่า “อคติเชิงระบบเป็นผลจากขั้นตอนและการปฏิบัติของสถาบันเฉพาะที่ดำเนินการในลักษณะที่ส่งผลให้กลุ่มสังคมบางกลุ่มได้เปรียบหรือได้รับความโปรดปราน และคนอื่น ๆ เสียเปรียบหรือด้อยค่า สิ่งนี้ไม่จำเป็นต้องเป็นผลมาจากอคติหรือการเลือกปฏิบัติที่มีสติ แต่ส่วนใหญ่เป็นไปตามกฎหรือบรรทัดฐานที่มีอยู่ การเหยียดเชื้อชาติในสถาบันและการกีดกันทางเพศเป็นตัวอย่างที่พบบ่อยที่สุด” (โปรดทราบว่านี่เป็นเพียงข้อความที่ตัดตอนมาสั้นๆ และขอแนะนำให้ผู้อ่านดูคำอธิบายที่ละเอียดยิ่งขึ้น)
AI เข้ามาในการผสมผสานของอคติเชิงระบบโดยการจัดหาวิธีการถ่ายทอดและใช้อคติเหล่านั้นในแอปที่ใช้ AI เมื่อใดก็ตามที่คุณใช้ซอฟต์แวร์ที่ใช้ AI สิ่งที่คุณรู้ว่าอาจมีอคติจำนวนมากที่หลอมรวมเข้าสู่ระบบผ่านบริษัทและแนวปฏิบัติในอุตสาหกรรมที่นำไปสู่การสร้าง AI ตามการศึกษาของ NIST: "ความเอนเอียงเหล่านี้มีอยู่ในชุดข้อมูลที่ใช้ใน AI และบรรทัดฐาน แนวทางปฏิบัติ และกระบวนการของสถาบันตลอดวงจรชีวิตของ AI และในวัฒนธรรมและสังคมที่กว้างขึ้น"
ต่อไป ให้พิจารณาชุดของอคติที่มีป้ายกำกับว่าเป็นอคติทางสถิติและเชิงคำนวณ
เอกสาร NIST ระบุสิ่งนี้: “อคติทางสถิติและการคำนวณเกิดจากข้อผิดพลาดที่เกิดขึ้นเมื่อกลุ่มตัวอย่างไม่ได้เป็นตัวแทนของประชากร อคติเหล่านี้เกิดขึ้นจากความลำเอียงอย่างเป็นระบบเมื่อเทียบกับข้อผิดพลาดแบบสุ่ม และสามารถเกิดขึ้นได้โดยไม่มีอคติ ไม่ลำเอียง หรือเจตนาเลือกปฏิบัติ ในระบบ AI ความลำเอียงเหล่านี้มีอยู่ในชุดข้อมูลและกระบวนการอัลกอริทึมที่ใช้ในการพัฒนาแอปพลิเคชัน AI และมักเกิดขึ้นเมื่ออัลกอริทึมได้รับการฝึกอบรมเกี่ยวกับข้อมูลประเภทเดียวและไม่สามารถคาดการณ์ได้เกินกว่าข้อมูลเหล่านั้น”
อคติทางสถิติและการคำนวณประเภทนี้มักถูกปรุงให้อยู่ในระบบ AI ที่ใช้ Machine Learning (ML) และ Deep Learning (DL) การนำ ML/DL ในปัจจุบันมาใช้เป็นเรื่องที่หนักแน่นจำเป็นต้องมีความสัมพันธ์ที่เกี่ยวข้องกันเกี่ยวกับ AI คืออะไรและ ML/DL คืออะไร
ตรวจสอบให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน
วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).
ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่).
เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน
ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning และ Deep Learning อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน วันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใด ๆ ของการคิดที่แข็งแกร่งของมนุษย์
ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน
ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว
นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL
คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง
ไม่ดี.
สิ่งนี้นำเราไปสู่หมวดหมู่ที่สามของชุด NIST ที่มีการจัดกลุ่มสามกลุ่มอย่างตรงไปตรงมา โดยเฉพาะบทบาทของอคติของมนุษย์ในการเกิดขึ้นของอคติ AI นี่คือสิ่งที่เอกสาร NIST ระบุ: “อคติของมนุษย์สะท้อนข้อผิดพลาดอย่างเป็นระบบในความคิดของมนุษย์โดยอิงตามหลักการฮิวริสติกจำนวนจำกัดและการคาดการณ์ค่าเพื่อการดำเนินการตัดสินที่ง่ายกว่า ความลำเอียงเหล่านี้มักเป็นนัยโดยนัยและมีแนวโน้มที่จะเกี่ยวข้องกับวิธีที่บุคคลหรือกลุ่มรับรู้ข้อมูล (เช่น เอาต์พุต AI อัตโนมัติ) เพื่อตัดสินใจหรือกรอกข้อมูลที่ขาดหายไปหรือไม่ทราบข้อมูล อคติเหล่านี้มีอยู่ทั่วไปทุกหนทุกแห่งในกระบวนการตัดสินใจของสถาบัน กลุ่ม และรายบุคคลตลอดวงจรชีวิตของ AI และในการใช้งานแอปพลิเคชัน AI เมื่อปรับใช้แล้ว”
ตอนนี้คุณได้รับบทแนะนำอย่างรวดเร็วเกี่ยวกับสามหมวดหมู่แล้ว
ฉันต้องการแบ่งปันอาหารสำหรับความคิดเพิ่มเติมกับคุณตามที่แสดงในเอกสาร NIST แผนภูมิในการบรรยายให้ข้อมูลสรุปที่เป็นประโยชน์ของคำถามสำคัญและข้อควรพิจารณาที่รองรับอคติ AI ทั้งสามชุด ฉันแสดงรายการไว้ที่นี่เพื่อความสะดวกในการอ้างอิงและการแก้ไข
#1: อคติเชิงระบบ
- ใครถูกนับ ใครไม่นับ?
— ปัญหาเกี่ยวกับตัวแปรแฝง
— การเป็นตัวแทนของกลุ่มชายขอบ
— ระบบอัตโนมัติของความไม่เท่าเทียมกัน
— การเป็นตัวแทนน้อยในการพิจารณาฟังก์ชั่นยูทิลิตี้
— กระบวนการที่สนับสนุนเสียงข้างมาก/ส่วนน้อย
— อคติทางวัฒนธรรมในหน้าที่วัตถุประสงค์ (ดีที่สุดสำหรับบุคคล vs ดีที่สุดสำหรับกลุ่ม)
- เราจะรู้ได้อย่างไรว่าอะไรถูก?
— การเสริมความแข็งแกร่งของความไม่เท่าเทียมกัน (กลุ่มได้รับผลกระทบมากขึ้นด้วยการใช้ AI ที่สูงขึ้น)
— การคาดการณ์การรักษาได้รับผลกระทบในเชิงลบมากขึ้น
— การยอมรับอย่างกว้างขวางของการแชร์รถ/รถยนต์ที่ขับเอง/อื่นๆ อาจเปลี่ยนแปลงนโยบายที่ส่งผลกระทบต่อประชากรตามการใช้งาน
#2: อคติทางสถิติและการคำนวณ
- ใครถูกนับ ใครไม่นับ?
— อคติการสุ่มตัวอย่างและการเลือก
— การใช้ตัวแปรพร็อกซี่เพราะวัดได้ง่ายกว่า
— อคติอัตโนมัติ
— มาตราส่วน Likert (จัดหมวดหมู่เป็นลำดับถึงพระคาร์ดินัล)
— ไม่เชิงเส้นเทียบกับเชิงเส้น
— ความเข้าใจผิดทางนิเวศวิทยา
— ย่อขนาด L1 เทียบกับ L2 norm
— ปัญหาทั่วไปในการหาปริมาณปรากฏการณ์ตามบริบท
- เราจะรู้ได้อย่างไรว่าอะไรถูก?
— ขาดการตรวจสอบข้ามที่เพียงพอ
— อคติในการเอาตัวรอด
— ความยากลำบากกับความเป็นธรรม
#3: อคติของมนุษย์
- ใครถูกนับ ใครไม่นับ?
— อคติเชิงสังเกต (เอฟเฟกต์ไฟถนน)
— อคติความพร้อมใช้งาน (การยึด)
— การเข้าใจผิดของ McNamara
— Groupthink นำไปสู่ทางเลือกที่แคบ
— ผลกระทบ Rashomon นำไปสู่การสนับสนุนอัตนัย
— ความยากในการหาจำนวนวัตถุประสงค์อาจนำไปสู่การเข้าใจผิดของ McNamara
- เราจะรู้ได้อย่างไรว่าอะไรถูก?
— อคติการยืนยัน
— อคติอัตโนมัติ
ในช่วงหัวเลี้ยวหัวต่อของการอภิปรายที่หนักหน่วงนี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างตัวอย่างที่อาจแสดงอคติ AI สามประเภท มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI ซึ่งรวมถึงการขยายสาขาด้านจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นถึงประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้านจริยธรรมด้าน AI นี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการอภิปรายอย่างกว้างขวางในหัวข้อ
ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI นั้นให้ความสว่างแก่สิ่งใดเกี่ยวกับอคติของ AI ที่เสนอทั้งสามประเภท และหากเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอะไร
ให้เวลาฉันสักครู่เพื่อแกะคำถาม
ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.
ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง
การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง
เพื่อความกระจ่าง รถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมด และไม่มีความช่วยเหลือจากมนุษย์ในระหว่างงานขับขี่
ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)
ยังไม่มีรถที่ขับด้วยตัวเองที่แท้จริงในระดับ 5 และเรายังไม่รู้ด้วยซ้ำว่าจะสำเร็จหรือไม่ และต้องใช้เวลานานแค่ไหนกว่าจะไปถึงที่นั่น
ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).
เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)
สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ
คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3
รถยนต์ไร้คนขับและอคติของ AI
สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ
ผู้โดยสารทุกคนจะเป็นผู้โดยสาร
AI กำลังขับรถอยู่
แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้
เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?
เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้
ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง
มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้
ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ
นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต
ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง
ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและความเป็นไปได้ของ AI ที่มีจริยธรรมซึ่งเกี่ยวข้องกับอคติ AI สามประเภท
ลองนึกภาพว่ารถยนต์ไร้คนขับที่ใช้ AI กำลังดำเนินการอยู่บนถนนในละแวกของคุณ และดูเหมือนว่าจะขับขี่ได้อย่างปลอดภัย ในตอนแรก คุณให้ความสนใจเป็นพิเศษกับทุกครั้งที่คุณมีโอกาสได้เห็นรถที่ขับด้วยตัวเอง รถยนต์ไร้คนขับโดดเด่นด้วยชั้นวางเซ็นเซอร์อิเล็กทรอนิกส์ที่มีกล้องวิดีโอ หน่วยเรดาร์ อุปกรณ์ LIDAR และอื่นๆ หลังจากใช้เวลาหลายสัปดาห์ของรถยนต์ไร้คนขับที่แล่นไปรอบๆ ชุมชนของคุณ ตอนนี้คุณแทบจะไม่สังเกตเห็นเลย เท่าที่คุณทราบ มันเป็นเพียงรถอีกคันบนถนนสาธารณะที่พลุกพล่านอยู่แล้ว
เพื่อไม่ให้คุณคิดว่าเป็นไปไม่ได้หรือเป็นไปไม่ได้ที่จะทำความคุ้นเคยกับการเห็นรถที่ขับด้วยตนเอง ฉันได้เขียนบ่อยครั้งเกี่ยวกับสถานที่ที่อยู่ภายในขอบเขตของการทดลองใช้รถยนต์ไร้คนขับค่อย ๆ ชินกับการได้เห็นรถที่ตกแต่งแล้ว ดูการวิเคราะห์ของฉันที่ ลิงค์นี้. ในที่สุด ชาวบ้านหลายคนก็เปลี่ยนจากการเฆี่ยนตีอ้าปากค้าง มาเป็นการเปล่งเสียงหาวอย่างเบื่อหน่ายเมื่อได้เห็นรถที่ขับเองที่คดเคี้ยว
อาจเป็นสาเหตุหลักในตอนนี้ที่พวกเขาอาจสังเกตเห็นรถยนต์ไร้คนขับเพราะความระคายเคืองและปัจจัยที่ทำให้โกรธเคือง ระบบการขับขี่แบบ AI ที่จัดทำโดยหนังสือช่วยให้แน่ใจว่ารถยนต์ปฏิบัติตามการจำกัดความเร็วและกฎจราจรทั้งหมด สำหรับผู้ขับขี่ที่เป็นมนุษย์ที่วุ่นวายในรถยนต์ที่ขับเคลื่อนโดยมนุษย์แบบดั้งเดิม คุณอาจรู้สึกหงุดหงิดเมื่อต้องติดอยู่กับรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปฏิบัติตามกฎหมายอย่างเคร่งครัด
นั่นคือสิ่งที่เราทุกคนอาจต้องคุ้นเคย ไม่ว่าจะถูกหรือผิด
กลับมาที่เรื่องของเรา
เราจะพิจารณาต่อไปว่าอคติเชิงระบบอาจเกิดขึ้นได้อย่างไรในบริบทของรถยนต์ที่ขับเคลื่อนด้วยตนเองนี้
เกจิบางคนกังวลมากว่ารถยนต์ที่ขับเองจะเป็นจังหวัดของคนรวยและชนชั้นสูงเท่านั้น อาจเป็นได้ว่าค่าใช้จ่ายในการใช้รถยนต์ที่ขับด้วยตนเองจะมีราคาแพงมาก ถ้าคุณไม่มีเงินก้อนโต คุณอาจไม่เคยเห็นภายในรถที่ขับด้วยตนเอง ผู้ที่จะใช้รถยนต์ไร้คนขับจะต้องร่ำรวย
ด้วยเหตุนี้ บางคนจึงแนะนำอย่างไม่แยแสว่ารูปแบบของอคติเชิงระบบจะแทรกซึมเข้าสู่การกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองโดยใช้ AI ระบบอุตสาหกรรมยานยนต์ไร้คนขับโดยรวมจะป้องกันรถยนต์ที่ขับด้วยตนเองให้พ้นจากมือผู้ยากไร้หรือร่ำรวยน้อยกว่า สิ่งนี้อาจไม่จำเป็นโดยเจตนาที่เปิดเผย และปรากฎว่าวิธีเดียวที่เชื่อในการชดใช้ต้นทุนที่เป็นภาระในการประดิษฐ์รถยนต์ที่ขับด้วยตนเองคือการคิดราคาที่สูงเกินจริง
หากคุณโต้กลับว่าวันนี้มีการทดสอบรถยนต์ไร้คนขับที่เปิดโอกาสให้คนในชีวิตประจำวันได้ใช้ ดูเหมือนว่าคุณไม่จำเป็นต้องรวยเอง แต่มีข้อโต้แย้งว่าเกมนี้เป็นเกมประเภทกระสุน มันเป็น. ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองนั้นเต็มใจที่จะทำให้ดูเหมือนกับว่าค่าใช้จ่ายจะไม่เป็นอุปสรรคสำคัญ พวกเขากำลังทำเช่นนี้เพื่อวัตถุประสงค์ในการประชาสัมพันธ์ในขณะนี้และจะขึ้นราคาเมื่อพบรอยย่น ผู้สมรู้ร่วมคิดอาจอ้างว่า "หนูตะเภา" ที่เป็นคนในชีวิตประจำวันกำลังถูกใช้อย่างเป็นอันตรายเพื่อให้คนรวยร่ำรวยยิ่งขึ้นในท้ายที่สุด
ดังนั้น ด้วยประเด็นที่ค่อนข้างจะขัดแย้ง และใส่สองเซ็นต์ของฉันเองในหัวข้อที่สกปรกนี้ ฉันไม่เชื่อว่ารถยนต์ที่ขับด้วยตนเองจะมีราคาสูงกว่าสำหรับการใช้ชีวิตประจำวัน ฉันจะไม่ลงรายละเอียดในที่นี้เกี่ยวกับพื้นฐานของฉันในการเรียกร้องดังกล่าวและขอเชิญคุณดูการอภิปรายอย่างมีสติที่ ลิงค์ที่นี่ และที่ ลิงค์ที่นี่.
ต่อไปเราจะพิจารณาเรื่องอคติทางสถิติและการคำนวณที่เกี่ยวข้องกับ AI
พิจารณาคำถามที่ดูเหมือนจะไม่สำคัญว่ารถยนต์ที่ขับด้วยตนเองจะสัญจรไปรับผู้โดยสารได้ที่ไหน นี้ดูเหมือนหัวข้อที่ไม่มีพิษภัยอย่างล้นเหลือ เราจะใช้เรื่องราวเกี่ยวกับเมืองหรือเมืองที่มีรถยนต์ที่ขับเคลื่อนด้วยตนเองเพื่อเน้นให้เห็นถึงความเอนเอียงทางสถิติและการคำนวณที่เกี่ยวข้องกับ AI
ในตอนแรก สมมติว่า AI กำลังสัญจรไปมาในรถยนต์ที่ขับเคลื่อนด้วยตัวเองทั่วทั้งเมือง ใครก็ตามที่ต้องการขอนั่งในรถที่ขับด้วยตนเองมีโอกาสเท่าเทียมกันในการเรียกรถ ค่อยๆ AI เริ่มให้รถยนต์ที่ขับเคลื่อนด้วยตนเองส่วนใหญ่อยู่ในส่วนเดียวของเมือง ส่วนนี้เป็นผู้สร้างรายได้มากขึ้น และระบบ AI ได้รับการตั้งโปรแกรมให้พยายามและเพิ่มรายได้ให้สูงสุดโดยเป็นส่วนหนึ่งของการใช้งานในชุมชน
สมาชิกในชุมชนในส่วนที่ยากจนของเมืองมีโอกาสน้อยที่จะสามารถนั่งรถที่ขับเองได้ เนื่องจากรถยนต์ที่ขับด้วยตนเองอยู่ไกลออกไปและสัญจรไปมาในส่วนรายได้ที่สูงขึ้นของสถานที่นั้น เมื่อมีคำขอเข้ามาจากส่วนไกลของเมือง คำขอใดๆ จากสถานที่ที่อยู่ใกล้กว่าซึ่งน่าจะอยู่ในส่วนที่ "น่านับถือ" ของเมืองจะได้รับความสำคัญสูงกว่า ในที่สุด ความพร้อมใช้งานของรถยนต์ไร้คนขับในที่อื่นใดนอกจากในส่วนที่ร่ำรวยกว่าของเมืองนั้นแทบจะเป็นไปไม่ได้เลย ซึ่งทำให้ผู้ที่อาศัยอยู่ในพื้นที่ที่ขาดแคลนทรัพยากรในขณะนี้
คุณสามารถยืนยันได้ว่า AI นั้นค่อนข้างจะอยู่ในรูปแบบของอคติทางสถิติและการคำนวณ ซึ่งคล้ายกับรูปแบบของการเลือกปฏิบัติแบบตัวแทน (หรือมักเรียกกันว่าการเลือกปฏิบัติทางอ้อม) AI ไม่ได้ถูกตั้งโปรแกรมให้หลีกเลี่ยงย่านที่ยากจนเหล่านั้น แต่ “เรียนรู้” ที่จะทำเช่นนั้นผ่านการใช้ ML/DL
สันนิษฐานว่า AI จะไม่มีวันตกลงไปในทรายดูดที่น่าอับอายแบบนั้น ไม่มีการตั้งค่าการตรวจสอบพิเศษเพื่อติดตามว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI กำลังไปอยู่ที่ใด หลังจากที่สมาชิกในชุมชนเริ่มบ่น พวกผู้นำเมืองก็รู้ว่ากำลังเกิดอะไรขึ้น สำหรับข้อมูลเพิ่มเติมเกี่ยวกับปัญหาทั่วเมืองประเภทเหล่านี้ที่ยานยนต์ไร้คนขับและรถยนต์ไร้คนขับกำลังจะนำเสนอ โปรดดูการรายงานข่าวของฉันที่ ลิงค์นี้ และอธิบายการศึกษาที่นำโดยฮาร์วาร์ดที่ฉันร่วมเขียนในหัวข้อนี้
สำหรับอคติของมนุษย์ประเภทที่สามที่เกี่ยวข้องกับความลำเอียงของ AI เราขอยกตัวอย่างที่เกี่ยวข้องกับ AI ที่กำหนดว่าจะหยุดรอคนเดินถนนที่ไม่มีสิทธิ์ข้ามถนนหรือไม่
ไม่ต้องสงสัยเลยว่าคุณเคยขับรถมาและพบกับคนเดินถนนที่รอข้ามถนน แต่พวกเขาไม่มีสิทธิ์ทำเช่นนั้น นี่หมายความว่าคุณมีดุลยพินิจว่าจะหยุดและปล่อยให้พวกเขาข้ามไปหรือไม่ คุณสามารถดำเนินการได้โดยไม่ปล่อยให้ข้ามไป และยังคงอยู่ภายใต้กฎการขับขี่ที่ถูกกฎหมายโดยสมบูรณ์ในการทำเช่นนั้น
การศึกษาวิธีที่คนขับตัดสินใจหยุดหรือไม่หยุดสำหรับคนเดินถนนดังกล่าว ได้เสนอแนะว่าบางครั้งคนขับที่เป็นมนุษย์อาจเลือกโดยพิจารณาจากอคติที่ไม่ดี คนขับที่เป็นมนุษย์อาจมองคนเดินถนนและเลือกที่จะไม่หยุด แม้ว่าพวกเขาจะหยุดแล้วก็ตามหากคนเดินถนนมีรูปลักษณ์ที่ต่างออกไป เช่น ตามเชื้อชาติหรือเพศ ฉันได้ตรวจสอบสิ่งนี้ที่ ลิงค์ที่นี่.
ลองนึกภาพว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ได้รับการตั้งโปรแกรมให้จัดการกับคำถามว่าจะหยุดหรือไม่หยุดสำหรับคนเดินถนนที่ไม่มีสิทธิ์เดินทาง นี่คือวิธีที่นักพัฒนา AI ตัดสินใจตั้งโปรแกรมงานนี้ พวกเขารวบรวมข้อมูลจากกล้องวิดีโอของเมืองที่วางอยู่ทั่วเมือง ข้อมูลนี้แสดงให้เห็นคนขับรถที่จอดสำหรับคนเดินถนนที่ไม่มีสิทธิ์ของทางและคนขับที่ไม่หยุดนิ่ง มันถูกรวบรวมเป็นชุดข้อมูลขนาดใหญ่
โดยใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ข้อมูลจะถูกจำลองด้วยการคำนวณ จากนั้นระบบขับเคลื่อน AI จะใช้โมเดลนี้ในการตัดสินใจว่าจะหยุดหรือไม่หยุด โดยทั่วไปแล้ว แนวคิดก็คือไม่ว่าประเพณีท้องถิ่นจะประกอบด้วยอะไรก็ตาม นี่คือวิธีที่ AI ขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเอง
สร้างความประหลาดใจให้กับผู้นำเมืองและผู้อยู่อาศัย เห็นได้ชัดว่า AI เลือกที่จะหยุดหรือไม่หยุดตามอายุของคนเดินเท้า มันเกิดขึ้นได้อย่างไร?
จากการตรวจสอบอย่างละเอียดถี่ถ้วนของวิดีโอเกี่ยวกับดุลยพินิจของผู้ขับขี่ พบว่ามีหลายกรณีที่คนเดินถนนไม่หยุดยั้งซึ่งมีไม้เท้าสำหรับผู้สูงอายุ ดูเหมือนคนขับจะไม่เต็มใจที่จะหยุดรถและปล่อยให้ผู้สูงวัยเดินข้ามถนน สันนิษฐานว่าคงเป็นเพราะระยะเวลาที่สันนิษฐานไว้ซึ่งบางคนอาจต้องใช้ในการเดินทาง หากคนเดินถนนดูเหมือนสามารถวิ่งข้ามถนนได้อย่างรวดเร็วและลดเวลารอของคนขับ คนขับจะยอมให้คนข้ามถนนได้ง่ายขึ้น
สิ่งนี้ถูกฝังลึกในระบบการขับขี่ของ AI เซ็นเซอร์ของรถยนต์ที่ขับด้วยตนเองจะสแกนคนเดินถนนที่รออยู่ ป้อนข้อมูลนี้ลงในแบบจำลอง ML/DL และแบบจำลองจะปล่อยไปยัง AI ว่าจะหยุดหรือดำเนินการต่อ สิ่งบ่งชี้ด้วยภาพว่าคนเดินถนนอาจข้ามได้ช้า เช่น การใช้ไม้เท้าเดิน ในทางคณิตศาสตร์ ถูกนำมาใช้ในการพิจารณาว่าระบบขับเคลื่อน AI ควรปล่อยให้คนเดินถนนที่รออยู่ข้ามหรือไม่
คุณสามารถโต้แย้งได้ว่านี่เป็นการพึ่งพาอคติของมนุษย์ที่มีอยู่ก่อน
สรุป
ความคิดสุดท้ายบางอย่างสำหรับตอนนี้
มีคำกล่าวที่เป็นที่นิยมว่าคุณไม่สามารถเปลี่ยนไพ่ที่คุณได้รับและต้องเรียนรู้วิธีเล่นอย่างเพียงพอกับมือที่คุณได้รับ
ในกรณีของความลำเอียงของ AI หากเราไม่รีบเร่งสร้างจรรยาบรรณ AI ให้ทั่วกระดานและโดยเฉพาะอย่างยิ่งทำให้ลักษณะของอคติ AI แข็งแกร่งขึ้น ประเภทของมือที่เรากำลังจะได้รับการจัดการจะเต็มไปด้วยความไร้จรรยาบรรณ และชั้นอาจผิดกฎหมาย เราต้องหยุดไพ่เหล่านั้นไม่ให้ถูกแจกก่อน เป้าหมายที่กล้าหาญในการสร้างและเผยแพร่มาตรฐานจริยธรรม AI เป็นเครื่องมือสำคัญในการต่อสู้กับสึนามิที่จะเกิดขึ้น AI สำหรับไม่ดี.
คุณสามารถตัดสินใจไปที่ธนาคารได้เลยว่าความลำเอียงของ AI ที่อาละวาดและ AI ที่ผิดจรรยาบรรณจะเหมือนกับบ้านไพ่ที่บอบบาง ระเบิดใส่ตัวเองและน่าจะเป็นหายนะสำหรับพวกเราทุกคน
มาเล่นกันเพื่อชนะด้วย AI ที่มีจริยธรรมอย่างเหมาะสม
ที่มา: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ไอ-อคติ/