การเลือกปฏิบัติโดยใช้ AI ที่ร้ายกาจอย่างร้ายกาจต่อมนุษย์นั้นสร้างปัญหาให้กับจริยธรรมของ AI อย่างน่ากลัว ซึ่งสามารถเกิดขึ้นได้แม้กระทั่งในกรณีของรถยนต์ที่ขับเคลื่อนด้วยตัวเองด้วย AI

มาพูดคุยถึงการเลือกปฏิบัติพร็อกซี่ท่ามกลางการกระทำของปัญญาประดิษฐ์ (AI) สมัยใหม่

ในการเข้าสู่ด้าน AI ของสิ่งต่าง ๆ เราต้องตั้งเวทีเกี่ยวกับแง่มุมโดยรวมของการเลือกปฏิบัติ จากนั้นจึงเจาะลึกถึงวิธีที่น่าประหลาดใจซึ่ง AI มักจมปลักอยู่กับเรื่องที่ซับซ้อนและบางครั้งก็เลวร้ายนี้ ฉันจะยกตัวอย่างการเลือกปฏิบัติโดยใช้พร็อกซี่ที่ใช้ AI ซึ่งรวมถึงสิ่งนี้อาจเกิดขึ้นได้แม้ในกรณีของยานยนต์อิสระที่ใช้เทคโนโลยี AI เช่น รถยนต์ที่ขับด้วยตนเอง

มาเริ่มกันเลย

คำจำกัดความของพจนานุกรมเกี่ยวกับการเลือกปฏิบัติมักจะระบุว่าเป็นการกระทำของธรรมชาติที่ไม่ยุติธรรมที่ปฏิบัติต่อผู้คนแตกต่างกันตามหมวดหมู่ที่รับรู้ เช่น เชื้อชาติ เพศ อายุ และอื่นๆ (เกณฑ์ดังกล่าวมักอธิบายว่าประกอบด้วยชั้นเรียนที่ได้รับการคุ้มครอง) รูปแบบของการเลือกปฏิบัติที่เรียกว่า โดยตรง การเลือกปฏิบัติทำให้เกิดการเลือกปฏิบัติอย่างเปิดเผยในหมวดหมู่ใดประเภทหนึ่ง เช่น การเน้นย้ำอย่างชัดเจนว่าเชื้อชาติหรือเพศเป็นพื้นฐานสำหรับการเลือกปฏิบัติ (สิ่งเหล่านี้จะตีความว่าเป็นปัจจัยแรก) นี่อาจเป็นรูปแบบการเลือกปฏิบัติที่โปร่งใสที่สุด

ความเป็นไปได้ที่ตระหนักน้อยกว่าอีกประการหนึ่งคือการใช้ ทางอ้อม การเลือกปฏิบัติ คุณอาจแนะนำว่านี่เป็นรูปแบบการเลือกปฏิบัติที่ยุ่งยากกว่า เนื่องจากถือเป็นขั้นตอนที่นำออกไปและอาจเป็นเรื่องยากที่จะแยกแยะออก การเลือกปฏิบัติทางอ้อมเกี่ยวข้องกับการเลือกประเภทที่ลบออกหนึ่งขั้นตอนขึ้นไป โดยทั่วไปจะมีการระบุว่าเป็นการเลือกปฏิบัติพร็อกซี เนื่องจากมีปัจจัยตัวกลางที่ทำหน้าที่เป็นพร็อกซีหรือสแตนด์อินสำหรับปัจจัยแรกพื้นฐานและเชื่อมต่อได้

เพื่อช่วยชี้แจงแนวคิดที่ดูเหมือนนามธรรมของการเลือกปฏิบัติทางอ้อมหรือโดยตัวแทน เราอาจพิจารณาตัวอย่างที่ตรงไปตรงมา

มีคนสมัครสินเชื่อบ้าน สมมติว่าตัวแทนเงินกู้ที่กำลังตรวจสอบใบสมัครตัดสินใจที่จะปฏิเสธเงินกู้และดำเนินการตามเชื้อชาติของผู้สมัคร คุณสามารถพูดได้ว่านี่คือตัวอย่างของการเลือกปฏิบัติโดยตรง แต่สมมุติว่าตัวแทนเงินกู้ใช้รหัสไปรษณีย์ของผู้สมัครและเลือกที่จะปฏิเสธเงินกู้ตามปัจจัยนั้น ดูเหมือนว่าในตอนแรกรหัสไปรษณีย์ไม่ใช่ปัจจัยหนึ่งที่มักถูกพิจารณาว่าเป็นการเลือกปฏิบัติหรือเป็นชนชั้นที่ได้รับการคุ้มครอง ด้วยเหตุนี้ ตัวแทนเงินกู้จึงดูเหมือนจะหลีกเลี่ยงการตัดสินใจเลือกปฏิบัติที่รับภาระ

ปัญหาอาจเป็นไปได้ว่ารหัสไปรษณีย์นั้นจริง ๆ แล้วเป็นพร็อกซีสำหรับอย่างอื่น หมวดหรือคลาสที่ได้รับการป้องกันจริง บางทีรหัสไปรษณีย์นี้อาจประกอบด้วยเชื้อชาติหรือชาติพันธุ์อย่างเด่นชัด และมีการใช้การเลือกปฏิบัติทางอ้อมหรือตัวแทน โดยทั่วไป คุณอาจทราบตัวอย่างประเภทนี้จากวลีติดปากของ redlining

คุณจะเห็นว่ามีความเกี่ยวข้องกันระหว่างปัจจัยที่ประกอบด้วยรหัสไปรษณีย์และปัจจัยการเลือกปฏิบัติทางเชื้อชาติในกรณีนี้ รหัสไปรษณีย์ดูเหมือนจะเป็นปัจจัยที่ไร้เดียงสาหรือเป็นกลางเมื่อเผชิญกับสถานการณ์นี้ รหัสไปรษณีย์ดูเหมือนว่าพวกเราส่วนใหญ่จะชอบสิ่งของที่ค่อนข้างไร้พิษภัยและจะไม่ส่งเสียงเตือนใดๆ

คุณอาจจำได้ตั้งแต่สมัยเรียนวิชาสถิติว่ามีความสัมพันธ์ทางสถิติที่อาจเกิดขึ้นระหว่างปัจจัยต่างๆ แม้กระทั่งปัจจัยที่ไม่กระทบต่อคุณว่ามีความสัมพันธ์ทางตรรกะซึ่งกันและกัน อาจเป็นไปได้ว่ามีความสัมพันธ์ที่เด่นชัดระหว่างรหัสไปรษณีย์และเชื้อชาติ ดังนั้น การเลือกรหัสไปรษณีย์ในแวบแรกจึงดูไม่เป็นพิษเป็นภัย แต่เมื่อตรวจสอบอย่างใกล้ชิดแล้ว จะเป็นการยืนหยัดหรือเป็นตัวแทนของชนชั้นที่มีการคุ้มครองการเลือกปฏิบัติอย่างแท้จริง

บทความวิจัยอธิบายแนวคิดเกี่ยวกับความสัมพันธ์ดังกล่าวและการเกิดขึ้นของการเลือกปฏิบัติแบบตัวแทนดังนี้: “การเลือกปฏิบัติไม่จำเป็นต้องเกี่ยวข้องกับการใช้ชนชั้นที่ได้รับการคุ้มครองโดยตรง สมาชิกกลุ่มอาจไม่มีส่วนร่วมในการตัดสินใจ การเลือกปฏิบัติสามารถเกิดขึ้นได้เนื่องจากความสัมพันธ์ระหว่างคลาสที่ได้รับการป้องกันและคุณลักษณะอื่นๆ กรอบกฎหมายของผลกระทบที่แตกต่างกันจัดการกับกรณีดังกล่าวโดยในขั้นแรกต้องการผลลัพธ์ที่แตกต่างกันอย่างมีนัยสำคัญสำหรับกลุ่มที่ได้รับการคุ้มครอง ไม่ว่าผลลัพธ์จะออกมาเป็นอย่างไร ความเชื่อมโยงระหว่างการตัดสินใจกู้เงินกับเชื้อชาติอันเนื่องมาจากการใช้ที่อยู่ของผู้สมัครซึ่งเกี่ยวข้องกับเชื้อชาติเป็นตัวอย่างของการเลือกปฏิบัติประเภทนี้” (ตามที่ระบุไว้ในบทความเรื่อง การเลือกปฏิบัติพร็อกซี่ในระบบขับเคลื่อนด้วยข้อมูล: ทฤษฎีและการทดลองด้วยโปรแกรมการเรียนรู้ของเครื่อง, โดย Anupam Datta, Matt Fredrikson, Gihyuk Ko, Piotr Mardziel และ Shayak Sen)

ตอนนี้ เรามีพื้นฐานของการเลือกปฏิบัติพร็อกซี่บนโต๊ะแล้ว เราสามารถแนะนำแง่มุมต่างๆ ของการที่ AI สามารถฝังเวอร์ชันที่แสดงผลด้วยคอมพิวเตอร์ของการเลือกปฏิบัติพร็อกซี่

ฉันต้องการเน้นที่ AI ในปัจจุบันและไม่ใช่ AI แห่งอนาคตที่บางคนพูดว่าจะมีความรู้สึกและมีความเสี่ยงในการดำรงอยู่ (นั่นเป็นเรื่องราวที่แตกต่างกันซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่). แม้จะมีหัวข้อข่าวมากมายที่ประกาศว่า AI เข้าถึงความรู้สึกและรวบรวมความรู้และการให้เหตุผลของมนุษย์แล้วก็ตาม แต่โปรดทราบว่าอติพจน์ AI ที่พูดเกินจริงนี้เป็นขยะล้วนๆ เนื่องจากเรายังคงอาศัยการกระทืบตัวเลขในการตัดสินใจอัลกอริทึมในปัจจุบัน (ADM) ตามที่ดำเนินการโดยระบบ AI

แม้แต่ Machine Learning (ML) และ Deep Learning (DL) ที่ถูกโอ้อวดก็ประกอบด้วยการจับคู่รูปแบบการคำนวณ ซึ่งหมายความว่าตัวเลขยังคงเป็นแกนหลักของการใช้ ML/DL อันสูงส่ง เราไม่รู้ว่า AI จะเข้าถึงความรู้สึกได้หรือไม่ ได้ อาจจะไม่ก็ได้ ไม่มีใครสามารถพูดได้อย่างแน่นอนว่าสิ่งนี้จะเกิดขึ้นได้อย่างไร บางคนเชื่อว่าเราจะค่อยๆ พัฒนาความพยายามด้าน AI ในการคำนวณของเรามากขึ้นเรื่อยๆ เพื่อให้เกิดความรู้สึกนึกคิดขึ้นเองตามธรรมชาติ คนอื่นคิดว่า AI อาจเข้าสู่ซุปเปอร์โนวาประเภทคอมพิวเตอร์และเข้าถึงความรู้สึกได้ค่อนข้างมากด้วยตัวมันเอง (โดยทั่วไปจะเรียกว่าภาวะเอกฐาน) สำหรับข้อมูลเพิ่มเติมเกี่ยวกับทฤษฎีเหล่านี้เกี่ยวกับอนาคตของ AI โปรดดูที่ ลิงค์ที่นี่.

ดังนั้นอย่าหลอกตัวเองและเชื่ออย่างผิด ๆ ว่า AI ร่วมสมัยสามารถคิดได้เหมือนมนุษย์ เราสามารถพยายามเลียนแบบ AI ในสิ่งที่เราเชื่อว่าความคิดของมนุษย์ประกอบด้วย จนถึงตอนนี้ เราไม่สามารถแยกแยะองค์ประกอบที่เข้าใจยากของ AI ที่สามารถฝังสามัญสำนึกและรากฐานที่สำคัญอื่นๆ ของความคิดของมนุษย์ได้

คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ข้อมูลที่ครอบคลุมเกี่ยวกับจริยธรรม AI และจริยธรรม AI ของฉันสามารถดูได้ที่ ลิงค์นี้ และ ลิงค์นี้เพียงเพื่อชื่อไม่กี่

คุณอาจสับสนว่า AI สามารถเติมอคติและความไม่เท่าเทียมกันที่ไม่พึงประสงค์แบบเดียวกับที่มนุษย์ทำได้อย่างไร เรามักจะคิดว่า AI นั้นเป็นกลาง ไม่เอนเอียง เป็นเพียงแค่เครื่องจักรที่ไม่มีอิทธิพลทางอารมณ์และความคิดที่เลวร้ายอย่างที่มนุษย์อาจมี หนึ่งในวิธีที่พบบ่อยที่สุดของ AI ที่ตกอยู่ในอคติและความไม่เท่าเทียมกันเกิดขึ้นเมื่อใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ซึ่งส่วนหนึ่งเป็นผลมาจากการอาศัยข้อมูลที่เก็บรวบรวมเกี่ยวกับวิธีการตัดสินใจของมนุษย์

ให้เวลาฉันอธิบายรายละเอียดสักครู่

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณด้วย Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึมหรือ ADM ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

กำลังคิดค้นระบบ AI ที่มีทั้งการเลือกปฏิบัติโดยตรงและการเลือกปฏิบัติทางอ้อมหรือทางพร็อกซีที่ลอบเร้น ตามรายงานการวิจัยที่อ้างถึงก่อนหน้านี้: “อย่างไรก็ตาม ระบบการเรียนรู้ของเครื่องถูกสร้างขึ้นบนพื้นฐานของข้อมูลเชิงสังเกตจากโลกแห่งความเป็นจริง โดยมีอคติทางประวัติศาสตร์หรือเชิงสถาบันมากมาย เป็นผลให้พวกเขาสืบทอดอคติและการเลือกปฏิบัติที่มีอยู่ในข้อมูล การนำระบบดังกล่าวมาใช้จะนำไปสู่ผลลัพธ์ที่ไม่เป็นธรรมและความลำเอียงที่คงอยู่ตลอดไป ตัวอย่างมีมากมาย: การแข่งขันที่เกี่ยวข้องกับการทำนายการกระทำผิดซ้ำ; เพศที่ส่งผลต่อโฆษณาที่แสดงเกี่ยวกับงาน; การแข่งขันที่ส่งผลต่อโฆษณาบนการค้นหาที่แสดง แอพ Street Bump ของบอสตันเน้นการซ่อมแซมหลุมบ่อในย่านที่ร่ำรวย การจัดส่งในวันเดียวกันของ Amazon ไม่มีให้บริการในละแวกใกล้เคียงที่เป็นสีดำ และ Facebook ที่แสดงตัวอย่างภาพยนตร์ "สีขาว" หรือ "สีดำ" ตาม "การเข้าร่วมทางชาติพันธุ์" กฎหมายห้ามไม่ให้มีการเลือกปฏิบัติหลายกรณี”

ถ้าเรามี AI ที่ฝังอยู่เพียงอย่างเดียว โดยตรง ปัญหาการเลือกปฏิบัติ เป็นไปได้ว่าเราอาจมีโอกาสในการต่อสู้ที่เพิ่มขึ้น เพื่อที่จะกำจัดโรคจากการคำนวณดังกล่าว น่าเสียดายที่โลกไม่ง่ายนัก AI ในปัจจุบันน่าจะเป็นไปได้เช่นเดียวกัน หากไม่มีแนวโน้มว่าจะหลอกลวงพร็อกซี่หรือการเลือกปฏิบัติทางอ้อม นั่นเป็นสถานการณ์หน้าเศร้า ความสกปรกในการคำนวณที่ลึกซึ้งยิ่งขึ้นที่สนับสนุนการเลือกปฏิบัติพร็อกซี่สามารถเป็นหนึ่งในสิ่งที่ยากต่อการถอดรหัส

ตามที่ระบุไว้โดยคณะกรรมาธิการการค้าแห่งสหพันธรัฐ (FTC): “เมื่อระบบอัลกอรึทึมมีส่วนร่วมในการเลือกปฏิบัติแบบพร็อกซี่ พวกเขาใช้ตัวแปรที่เป็นกลางทางใบหน้าอย่างน้อยหนึ่งตัวแปรเพื่อยืนหยัดในคุณสมบัติที่ได้รับการคุ้มครองตามกฎหมาย ซึ่งมักส่งผลให้เกิดการปฏิบัติที่แตกต่างกันหรือผลกระทบที่แตกต่างกัน ชั้นเรียนที่ได้รับการคุ้มครองสำหรับโอกาสทางเศรษฐกิจ สังคม และพลเมืองบางอย่าง กล่าวอีกนัยหนึ่ง อัลกอริธึมเหล่านี้ระบุลักษณะที่ดูเหมือนเป็นกลางเพื่อสร้างกลุ่มที่สะท้อนถึงคลาสที่ได้รับการคุ้มครองอย่างใกล้ชิด และ 'ผู้รับมอบฉันทะ' เหล่านี้ใช้สำหรับการรวมหรือการยกเว้น” (ตามที่ระบุไว้ในบทความเรื่อง “อัลกอริทึมและความยุติธรรมทางเศรษฐกิจ: อนุกรมวิธานของอันตรายและ เส้นทางไปข้างหน้าสำหรับ Federal Trade Commission” เผยแพร่ใน วารสารกฎหมายและเทคโนโลยีเยล, โดยผู้บัญชาการ Rebecca Kelly Slaughter, สิงหาคม 2021)

แง่มุมหนึ่งที่ต้องจำไว้คือ AI ไม่ได้อยู่เพียงลำพังในการฝึกการเลือกปฏิบัติแบบพร็อกซี่ หรือการเลือกปฏิบัติพร็อกซี่บางส่วนผสมที่มีเขี้ยวใหม่ เรามีการเลือกปฏิบัติพร็อกซีมาเป็นเวลานาน นานพอสมควรก่อนการถือกำเนิดของ AI กรรมาธิการ FTC สะท้อนความเข้าใจที่สำคัญเช่นเดียวกันนี้: “การเลือกปฏิบัติพร็อกซี่ไม่ใช่ปัญหาใหม่ — การใช้ปัจจัยที่เป็นกลางทางใบหน้าซึ่งก่อให้เกิดผลการเลือกปฏิบัติเป็นสิ่งที่สังคมและกฎหมายสิทธิพลเมืองต้องเผชิญมานานหลายทศวรรษ” (อีกครั้งใน วารสารกฎหมายและเทคโนโลยีเยล).

นักพัฒนา AI ตั้งใจสร้างระบบ AI ของตนเพื่อให้มีการเลือกปฏิบัติพร็อกซีหรือไม่?

คุณสามารถแบ่งความพยายามของ AI ออกเป็นกลุ่มที่พึ่งพาการเลือกปฏิบัติโดยไม่ได้ตั้งใจและผู้ที่ตั้งใจทำเช่นนั้น ฉันเดาว่าโดยส่วนใหญ่แล้ว ผู้สร้าง AI ส่วนใหญ่กำลังตกอยู่ในปัญหาการคำนวณการเลือกปฏิบัติพร็อกซี่จากการกระทำโดยบังเอิญหรือโดยบังเอิญ แม้ว่านี่ไม่ใช่ข้อแก้ตัวสำหรับสิ่งที่พวกเขาทำ พวกเขายังคงรับผิดชอบต่อ AI ที่พวกเขาคิดขึ้นและไม่สามารถโบกมือและประกาศว่าพวกเขาไม่รู้ว่าเกิดอะไรขึ้น มันอยู่บนบ่าของพวกเขาที่จะพยายามทำให้แน่ใจว่าไม่มีการเลือกปฏิบัติเกิดขึ้นโดย AI ของพวกเขา ในขณะเดียวกัน บรรดาผู้ที่สร้าง AI อย่างคดเคี้ยวและจงใจด้วยการเลือกปฏิบัติแบบพร็อกซี่ จะต้องถูกนำไปทำหน้าที่และรับผิดชอบตามนั้น

ฉันต้องการเพิ่มความบิดเบี้ยวที่อาจทำให้หัวของคุณหมุนได้

บางคนยืนยันว่ายิ่งเราคิดค้น AI ได้ดีขึ้นเท่าไร มีโอกาสที่เราจะได้เห็นกรณีของ AI ที่แฝงไว้ด้วยการเลือกปฏิบัติพร็อกซี่มากขึ้น คุณอาจสงสัยว่าทำไมถึงเป็นเช่นนั้น ความหวังและความฝันก็คือความก้าวหน้าใน AI จะลดโอกาสที่ฝันร้ายจากการคำนวณที่เกิดจากการลงจอดในน่านน้ำที่ไม่เหมาะสมของการเลือกปฏิบัติแบบตัวแทน

มีการระบุมุมที่น่าสนใจในการศึกษานี้ที่ตีพิมพ์ใน ทบทวนกฎหมายไอโอวา: “แต่ AI ใช้ข้อมูลการฝึกอบรมเพื่อค้นหาด้วยตนเองว่าคุณลักษณะใดบ้างที่สามารถใช้เพื่อทำนายตัวแปรเป้าหมายได้ แม้ว่ากระบวนการนี้จะเพิกเฉยต่อสาเหตุโดยสิ้นเชิง แต่ก็ส่งผลให้ AI 'ค้นหา' พร็อกซี่สำหรับลักษณะการทำนายโดยตรงอย่างหลีกเลี่ยงไม่ได้เมื่อข้อมูลเกี่ยวกับลักษณะเหล่านี้ไม่ปรากฏแก่ AI เนื่องจากข้อห้ามทางกฎหมาย การปฏิเสธไม่ให้ AI เข้าถึงพร็อกซีที่ใช้งานง่ายที่สุดสำหรับตัวแปรการทำนายโดยตรงนั้นแทบจะไม่สามารถขัดขวางกระบวนการนี้ได้ แทนที่จะเป็นเพียงแค่ทำให้ AIs สร้างแบบจำลองที่พึ่งพาพร็อกซีที่ใช้งานง่ายน้อยกว่า ดังนั้น อาร์กิวเมนต์หลักของบทความนี้ก็คือ เมื่อ AI ฉลาดขึ้นและบิ๊กดาต้าก็ยิ่งใหญ่ขึ้น การเลือกปฏิบัติแบบตัวแทนจะเป็นตัวแทนของความท้าทายขั้นพื้นฐานที่เพิ่มมากขึ้นต่อระบอบต่อต้านการเลือกปฏิบัติที่พยายามห้ามการเลือกปฏิบัติตามลักษณะการทำนายโดยตรง” (ดังที่กล่าวไว้ในบทความ ชื่อเรื่อง การเลือกปฏิบัติพร็อกซี่ในยุคปัญญาประดิษฐ์และบิ๊กดาต้าโดย Anya Prince และ Daniel Schwarcz)

ลองวางตรรกะของการทำนายที่เยือกเย็นนี้

สมมติว่านักพัฒนา AI ตระหนักอย่างไม่ลดละว่าพวกเขาควรหลีกเลี่ยงการยอมให้โมเดลการเรียนรู้ของเครื่องและการเรียนรู้เชิงลึกของตนมุ่งไปสู่การเลือกปฏิบัติแบบพรอกซี (เราหวังว่าพวกเขาจะมองหาการเลือกปฏิบัติโดยตรงอยู่แล้ว) โอเค ผู้สร้าง AI ทำในสิ่งที่ทำได้เพื่อหลีกเลี่ยงการผูกมัดทางคอมพิวเตอร์กับปัจจัยที่ได้รับการป้องกัน แต่สมมุติว่าสิ่งนี้ทำบนพื้นฐานที่ค่อนข้างชัดเจน เช่น การจำกัดประเภทพร็อกซีหนึ่งหรือสองขั้นตอนใดๆ

แบบจำลองการคำนวณจะเจาะลึกลงไปในข้อมูลและค้นหาการเชื่อมโยงสามขั้นตอนหรือสิบขั้นตอนของการเลือกปฏิบัติพร็อกซี่ ดูเหมือนว่านักพัฒนา AI จะมีความสุขที่ XNUMX ขั้นตอนสามารถแสดงให้เห็นว่าไม่ได้เป็นส่วนหนึ่งของระบบ ML/DL ของตน ในขณะเดียวกัน พวกเขาอาจไม่ทราบว่ามีการค้นพบทางคณิตศาสตร์สามขั้นตอนหรือสิบขั้นตอนหรือระดับอื่นๆ พึงระลึกไว้เสมอว่า AI นั้นไม่มีความรู้สึกและไม่ได้พยายามทำสิ่งนี้อย่างตั้งใจ เรายังคงหมายถึง AI ที่ไม่มีความรู้สึกและดำเนินการตามตัวเลขและการคำนวณ

อ๊ะ ข้อเท็จจริงที่น่าอึดอัดใจว่า AI กำลัง "ก้าวหน้า" และดูเหมือนว่าเรากำลังมุ่งหน้าไปสู่สถานการณ์ที่มืดมนยิ่งขึ้นนั้นค่อนข้างทำให้โกรธเคืองและอาจทำให้โกรธเคือง ในขณะที่ในด้านหนึ่ง เราอาจมีความยินดีที่การตระหนักรู้ในการหลีกเลี่ยงการเลือกปฏิบัติพร็อกซีกำลังได้รับความสนใจมากขึ้น ปัญหาจะไม่หายไปง่ายๆ ความพยายามในการหลีกเลี่ยงการเลือกปฏิบัติพร็อกซี่ที่ใช้ AI อาจผลักดันการค้นพบทางคอมพิวเตอร์ที่แยกแยะได้ลึกซึ้งและลึกซึ้งยิ่งขึ้นจากการถูกเปิดเผยหรือคิดออกโดยมนุษย์

เรื่องนี้ทำให้ฉันนึกถึงการ์ตูนสมัยก่อนเมื่อมีคนเข้าไปในทรายดูด ยิ่งพวกเขาฟาดฟันไปรอบๆ ก็ยิ่งมีสิ่งเลวร้ายมากขึ้นเท่านั้น ในแง่หนึ่ง บุคคลนั้นทำให้เกิดความตายโดยการต่อสู้กับทรายดูดอย่างดุเดือด นี่เป็นเรื่องน่าขันเพราะโดยปกติคุณคาดหวังว่าการต่อสู้กับบางสิ่งจะทำให้คุณหลบหนีหรือปล่อยตัว

ไม่จำเป็นต้องเป็นเช่นนั้น

ผู้เชี่ยวชาญจะบอกคุณว่าหากคุณเคยโดนทรายดูด ทางเลือกที่สมเหตุสมผลของคุณคือพยายามผ่อนคลายจากสถานการณ์เลวร้าย คุณควรพยายามลอยบนทรายดูด โดยอาจเอนไปข้างหลังและยกเท้าให้อยู่ในระดับเดียวกับศีรษะ การฟาดฟันอย่างดุเดือดเป็นสิ่งที่ไม่พึงปรารถนาและจะลดโอกาสในการหลบหนีอย่างไม่ต้องสงสัย โอกาสที่ดีกว่าคือคุณพยายามลอยหรือว่ายเบา ๆ หรืออย่างน้อยก็ไปถึงตำแหน่งในทรายดูดซึ่งคุณสามารถไปถึงกิ่งไม้หรืออย่างอื่นเพื่อดึงตัวเองออกไป

เราสามารถใช้คำแนะนำประเภทนั้นเพื่อต่อสู้กับ AI ที่สนับสนุนการเลือกปฏิบัติพร็อกซี่ได้หรือไม่

ชนิดของ

ประการแรก การรู้ว่าการเลือกปฏิบัติพร็อกซีอาจเกิดขึ้นได้เป็นองค์ประกอบหลักสำหรับผู้ที่คิดค้นและใช้งานระบบ AI ภาคสนาม ผู้มีส่วนได้ส่วนเสียทั้งหมดต้องคิดเกี่ยวกับเรื่องนี้ การจัดการที่ดูแลโครงการ AI จะต้องอยู่เหนือสิ่งนี้ เนื่องจากไม่ใช่แค่ "ผู้เข้ารหัส AI" เท่านั้นที่เป็นส่วนหนึ่งของสถานการณ์ นอกจากนี้เรายังมีแนวโน้มที่จะเห็นหน่วยงานกำกับดูแลชั่งน้ำหนักด้วยเช่นกัน เช่น การออกกฎหมายใหม่เพื่อพยายามลดจำนวนหรืออย่างน้อยก็จับ AI ที่ฝังแนวทางการเลือกปฏิบัติ เป็นต้น

เป็นต่อ ทบทวนกฎหมายไอโอวา ศึกษา เราอาจพยายามให้มีกฎหมายและข้อบังคับของ AI ที่กำหนดหน้าที่ในการแสดงข้อมูลที่ใช้สำหรับ ML/DL: “ตัวอย่างเช่น ระบบการต่อต้านการเลือกปฏิบัติที่ได้รับผลกระทบอาจยอมให้หรืออาจจำเป็นต้องให้บริษัทที่ใช้ AI คาดการณ์ล่วงหน้ารวบรวมข้อมูลเกี่ยวกับ การเป็นสมาชิกที่เป็นไปได้ของบุคคลในชั้นเรียนที่ได้รับการคุ้มครองตามกฎหมาย ในบางกรณี ข้อมูลนี้ควรแชร์กับหน่วยงานกำกับดูแล และ/หรือเปิดเผยต่อสาธารณะในรูปแบบสรุป ข้อมูลดังกล่าวจำเป็นสำหรับบริษัท หน่วยงานกำกับดูแล ผู้ฟ้องคดี และอื่น ๆ เพื่อทดสอบว่า AI ใด ๆ ที่เกี่ยวข้องกับการเลือกปฏิบัติพร็อกซี่จริงหรือไม่” (ตามบทความโดย Anya Prince และ Daniel Schwarcz)

ความเป็นไปได้อื่นๆ ได้แก่ การใช้ข้อมูลที่หลากหลายมากขึ้นและชุดแหล่งข้อมูลที่กว้างขึ้นเมื่อสร้างแบบจำลองการเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก อีกประการหนึ่งคือนักพัฒนา AI อาจต้องแสดงให้เห็นว่าระบบ AI ของพวกเขาไม่ได้ใช้การเลือกปฏิบัติพร็อกซี การพยายามแสดงหรือพิสูจน์ทางคณิตศาสตร์ว่านี่คือการขาดหรือไม่มีการเลือกปฏิบัติแบบพร็อกซี่ซึ่งเป็นสิ่งที่ท้าทายอย่างยิ่งที่จะพูดให้น้อยที่สุด

ในแนวความคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหาเกี่ยวกับ AI โดยต่อสู้กับไฟด้วยไฟในลักษณะการคิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ควบคุมดูแลเพื่อติดตามและตรวจจับเมื่อ AI ตัวอื่นเข้าสู่ขุมนรกการเลือกปฏิบัติพร็อกซี่ (ดูการวิเคราะห์ความสามารถดังกล่าวได้ที่ ลิงค์ที่นี่).

ในช่วงหัวเลี้ยวหัวต่อของการสนทนานี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างเพิ่มเติมที่อาจแสดงปริศนาของการเลือกปฏิบัติพร็อกซีที่ใช้ AI

ฉันดีใจที่คุณถาม

มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI รวมถึงการแตกสาขาตามหลักจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้าน AI ที่มีจริยธรรมนี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการสนทนาอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI นั้นให้ความกระจ่างเกี่ยวกับการเลือกปฏิบัติพร็อกซีที่ใช้ AI หรือไม่ และหากเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอะไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อเป็นการชี้แจงว่ารถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถยนต์ที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมดและไม่มีความช่วยเหลือจากมนุษย์ในระหว่างการขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงในระดับ 5 ซึ่งเรายังไม่รู้ด้วยซ้ำว่าสิ่งนี้จะเป็นไปได้หรือไม่และจะใช้เวลานานแค่ไหนในการเดินทาง

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ที่ขับด้วยตนเองและการเลือกปฏิบัติพร็อกซีที่ใช้ AI

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง

ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและความเป็นไปได้ของ AI ที่มีจริยธรรมซึ่งเกี่ยวข้องกับการสำรวจการเลือกปฏิบัติพร็อกซีที่ใช้ AI

ลองนึกภาพว่ารถยนต์ไร้คนขับที่ใช้ AI กำลังดำเนินการอยู่บนถนนในละแวกของคุณ และดูเหมือนว่าจะขับขี่ได้อย่างปลอดภัย ในตอนแรก คุณให้ความสนใจเป็นพิเศษกับทุกครั้งที่คุณมีโอกาสได้เห็นรถที่ขับด้วยตัวเอง รถยนต์ไร้คนขับโดดเด่นด้วยชั้นวางเซ็นเซอร์อิเล็กทรอนิกส์ที่มีกล้องวิดีโอ หน่วยเรดาร์ อุปกรณ์ LIDAR และอื่นๆ หลังจากใช้เวลาหลายสัปดาห์ของรถยนต์ไร้คนขับที่แล่นไปรอบๆ ชุมชนของคุณ ตอนนี้คุณแทบจะไม่สังเกตเห็นเลย เท่าที่คุณทราบ มันเป็นเพียงรถอีกคันบนถนนสาธารณะที่พลุกพล่านอยู่แล้ว

เพื่อไม่ให้คุณคิดว่าเป็นไปไม่ได้หรือเป็นไปไม่ได้ที่จะทำความคุ้นเคยกับการเห็นรถที่ขับด้วยตนเอง ฉันได้เขียนบ่อยครั้งเกี่ยวกับสถานที่ที่อยู่ภายในขอบเขตของการทดลองใช้รถยนต์ไร้คนขับค่อย ๆ ชินกับการได้เห็นรถที่ตกแต่งแล้ว ดูการวิเคราะห์ของฉันที่ ลิงค์นี้. ในที่สุด ชาวบ้านหลายคนก็เปลี่ยนจากการเฆี่ยนตีอ้าปากค้าง มาเป็นการเปล่งเสียงหาวอย่างเบื่อหน่ายเมื่อได้เห็นรถที่ขับเองที่คดเคี้ยว

อาจเป็นสาเหตุหลักในตอนนี้ที่พวกเขาอาจสังเกตเห็นรถยนต์ไร้คนขับเพราะความระคายเคืองและปัจจัยที่ทำให้โกรธเคือง ระบบการขับขี่แบบ AI ที่จัดทำโดยหนังสือช่วยให้แน่ใจว่ารถยนต์ปฏิบัติตามการจำกัดความเร็วและกฎจราจรทั้งหมด สำหรับผู้ขับขี่ที่เป็นมนุษย์ที่วุ่นวายในรถยนต์ที่ขับเคลื่อนโดยมนุษย์แบบดั้งเดิม คุณอาจรู้สึกหงุดหงิดเมื่อต้องติดอยู่กับรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปฏิบัติตามกฎหมายอย่างเคร่งครัด

นั่นคือสิ่งที่เราทุกคนอาจต้องคุ้นเคย ไม่ว่าจะถูกหรือผิด

กลับมาที่เรื่องของเรา

ปรากฎว่าความกังวลที่ไม่เหมาะสมสองประการเริ่มเกิดขึ้นเกี่ยวกับรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ที่ไม่มีพิษภัยและเป็นที่ต้อนรับโดยทั่วไป โดยเฉพาะ:

ก. ที่ซึ่ง AI กำลังสัญจรไปมาในรถยนต์ที่ขับด้วยตนเองสำหรับขึ้นรถกำลังปรากฏเป็นเสียงกังวล

ข. วิธีที่ AI ปฏิบัติต่อคนเดินถนนที่ไม่ได้รับสิทธิ์ในเส้นทางนั้นกลายเป็นประเด็นเร่งด่วน

ในตอนแรก AI กำลังสัญจรไปมาในรถยนต์ที่ขับเคลื่อนด้วยตนเองทั่วทั้งเมือง ใครก็ตามที่ต้องการขอนั่งในรถที่ขับด้วยตนเองมีโอกาสเท่าเทียมกันในการเรียกรถ ค่อยๆ AI เริ่มให้รถยนต์ที่ขับเคลื่อนด้วยตนเองส่วนใหญ่สัญจรไปมาเพียงส่วนหนึ่งของเมือง ส่วนนี้สร้างรายได้มากขึ้น และระบบ AI ได้รับการตั้งโปรแกรมให้พยายามและเพิ่มรายได้ให้สูงสุดโดยเป็นส่วนหนึ่งของการใช้งานในชุมชน

สมาชิกในชุมชนในส่วนที่ยากจนของเมืองมีโอกาสน้อยที่จะสามารถนั่งรถที่ขับเองได้ เนื่องจากรถยนต์ที่ขับด้วยตนเองอยู่ไกลออกไปและสัญจรไปมาในส่วนรายได้ที่สูงขึ้นของสถานที่นั้น เมื่อมีคำขอเข้ามาจากส่วนไกลของเมือง คำขอใดๆ จากสถานที่ที่อยู่ใกล้กว่าซึ่งน่าจะอยู่ในส่วนที่ "น่านับถือ" ของเมืองจะได้รับความสำคัญสูงกว่า ในที่สุด ความพร้อมใช้งานของรถยนต์ไร้คนขับในที่อื่นใดนอกจากในส่วนที่ร่ำรวยกว่าของเมืองนั้นแทบจะเป็นไปไม่ได้เลย ซึ่งทำให้ผู้ที่อาศัยอยู่ในพื้นที่ที่ขาดแคลนทรัพยากรในขณะนี้

คุณสามารถยืนยันได้ว่า AI นั้นค่อนข้างจะอยู่ในรูปแบบของการเลือกปฏิบัติแบบตัวแทน (หรือมักเรียกกันว่าการเลือกปฏิบัติทางอ้อม) AI ไม่ได้ถูกตั้งโปรแกรมให้หลีกเลี่ยงย่านที่ยากจนเหล่านั้น แต่ “เรียนรู้” ที่จะทำเช่นนั้นผ่านการใช้ ML/DL

ประเด็นก็คือ การที่คนขับรถร่วมกันเป็นคนขับนั้นเป็นที่รู้กันดีว่าทำสิ่งเดียวกัน แม้ว่าจะไม่จำเป็นเพียงเพราะมุมการทำเงินเท่านั้น มีคนขับรถที่ส่งผู้โดยสารบางคนมีอคติที่ไม่ดีเกี่ยวกับการรับผู้โดยสารในบางส่วนของเมือง นี่เป็นปรากฏการณ์ที่ทราบกันดีอยู่แล้ว และเมืองได้วางแนวทางการตรวจสอบเพื่อจับคนขับรถที่ทำเช่นนี้ คนขับที่เป็นมนุษย์อาจประสบปัญหาในการดำเนินการคัดเลือกที่ไม่น่าพอใจ

สันนิษฐานว่า AI จะไม่มีวันตกลงไปในทรายดูดชนิดเดียวกัน ไม่มีการตั้งค่าการตรวจสอบเฉพาะทางเพื่อติดตามว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI กำลังไปอยู่ที่ใด หลังจากที่สมาชิกในชุมชนเริ่มบ่น พวกผู้นำเมืองก็ตระหนักได้ว่ากำลังเกิดอะไรขึ้น สำหรับข้อมูลเพิ่มเติมเกี่ยวกับปัญหาทั่วเมืองประเภทนี้ที่จะมีขึ้นในรถยนต์ไร้คนขับและรถยนต์ไร้คนขับ โปรดดูการรายงานข่าวของฉันที่ ลิงค์นี้ และอธิบายการศึกษาที่นำโดยฮาร์วาร์ดที่ฉันร่วมเขียนในหัวข้อนี้

ตัวอย่างของลักษณะการโรมมิ่งของรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI นี้แสดงให้เห็นถึงข้อบ่งชี้ก่อนหน้านี้ว่าอาจมีสถานการณ์ที่เกี่ยวข้องกับมนุษย์ที่มีอคติที่ไม่เหมาะสม ซึ่งจะมีการควบคุม และ AI ที่แทนที่ไดรเวอร์ที่เป็นมนุษย์นั้นถูกทิ้งไว้ ฟรี. น่าเสียดายที่ AI สามารถเพิ่มขึ้นทีละน้อยในอคติที่คล้ายกันและทำโดยไม่มีรั้วกั้นเพียงพอ

สิ่งนี้แสดงให้เห็นว่าการเลือกปฏิบัติพร็อกซีที่ใช้ AI สามารถเกิดขึ้นได้อย่างไร

ตัวอย่างที่สองเกี่ยวข้องกับ AI ในการพิจารณาว่าจะหยุดรอคนเดินถนนที่ไม่มีสิทธิ์ข้ามถนนหรือไม่

ไม่ต้องสงสัยเลยว่าคุณเคยขับรถมาและพบกับคนเดินถนนที่รอข้ามถนน แต่พวกเขาไม่มีสิทธิ์ทำเช่นนั้น นี่หมายความว่าคุณมีดุลยพินิจว่าจะหยุดและปล่อยให้พวกเขาข้ามไปหรือไม่ คุณสามารถดำเนินการได้โดยไม่ปล่อยให้ข้ามไป และยังคงอยู่ภายใต้กฎการขับขี่ที่ถูกกฎหมายโดยสมบูรณ์ในการทำเช่นนั้น

การศึกษาวิธีที่คนขับตัดสินใจหยุดหรือไม่หยุดสำหรับคนเดินถนนดังกล่าว ได้เสนอแนะว่าบางครั้งคนขับที่เป็นมนุษย์อาจเลือกโดยพิจารณาจากอคติที่ไม่ดี คนขับที่เป็นมนุษย์อาจมองคนเดินถนนและเลือกที่จะไม่หยุด แม้ว่าพวกเขาจะหยุดแล้วก็ตามหากคนเดินถนนมีรูปลักษณ์ที่ต่างออกไป เช่น ตามเชื้อชาติหรือเพศ ฉันได้ตรวจสอบสิ่งนี้ที่ ลิงค์ที่นี่.

ลองนึกภาพว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ได้รับการตั้งโปรแกรมให้จัดการกับคำถามว่าจะหยุดหรือไม่หยุดสำหรับคนเดินถนนที่ไม่มีสิทธิ์เดินทาง นี่คือวิธีที่นักพัฒนา AI ตัดสินใจตั้งโปรแกรมงานนี้ พวกเขารวบรวมข้อมูลจากกล้องวิดีโอของเมืองที่วางอยู่ทั่วเมือง ข้อมูลนี้แสดงให้เห็นคนขับรถที่จอดสำหรับคนเดินถนนที่ไม่มีสิทธิ์ของทางและคนขับที่ไม่หยุดนิ่ง มันถูกรวบรวมเป็นชุดข้อมูลขนาดใหญ่

โดยใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ข้อมูลจะถูกจำลองด้วยการคำนวณ จากนั้นระบบขับเคลื่อน AI จะใช้โมเดลนี้ในการตัดสินใจว่าจะหยุดหรือไม่หยุด โดยทั่วไปแล้ว แนวคิดก็คือไม่ว่าประเพณีท้องถิ่นจะประกอบด้วยอะไรก็ตาม นี่คือวิธีที่ AI ขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเอง

สร้างความประหลาดใจให้กับผู้นำเมืองและผู้อยู่อาศัย เห็นได้ชัดว่า AI เลือกที่จะหยุดหรือไม่หยุดตามอายุของคนเดินเท้า มันเกิดขึ้นได้อย่างไร?

จากการตรวจสอบอย่างละเอียดถี่ถ้วนของวิดีโอเกี่ยวกับดุลยพินิจของผู้ขับขี่ พบว่ามีหลายกรณีที่คนเดินถนนไม่หยุดยั้งซึ่งมีไม้เท้าสำหรับผู้สูงอายุ ดูเหมือนคนขับจะไม่เต็มใจที่จะหยุดรถและปล่อยให้ผู้สูงวัยเดินข้ามถนน สันนิษฐานว่าคงเป็นเพราะระยะเวลาที่สันนิษฐานไว้ซึ่งบางคนอาจต้องใช้ในการเดินทาง หากคนเดินถนนดูเหมือนสามารถวิ่งข้ามถนนได้อย่างรวดเร็วและลดเวลารอของคนขับ คนขับจะยอมให้คนข้ามถนนได้ง่ายขึ้น

สิ่งนี้ถูกฝังลึกในระบบการขับขี่ของ AI เซ็นเซอร์ของรถยนต์ที่ขับด้วยตนเองจะสแกนคนเดินถนนที่รออยู่ ป้อนข้อมูลนี้ลงในแบบจำลอง ML/DL และแบบจำลองจะปล่อยไปยัง AI ว่าจะหยุดหรือดำเนินการต่อ บ่งชี้ด้วยภาพว่าคนเดินถนนอาจข้ามได้ช้า เช่น การใช้ไม้เท้าเดิน ในทางคณิตศาสตร์ ถูกนำมาใช้เพื่อพิจารณาว่าระบบขับเคลื่อน AI ควรปล่อยให้คนเดินถนนที่รออยู่ข้ามหรือไม่ คุณสามารถโต้แย้งได้ว่านี่คือรูปแบบหนึ่งของการเลือกปฏิบัติโดยตัวแทนตามอายุ

สรุป

มีหลายวิธีในการพยายามและหลีกเลี่ยงการประดิษฐ์ AI ที่มีการเลือกปฏิบัติพร็อกซี่หรือที่รวบรวมอคติดังกล่าวเมื่อเวลาผ่านไป ให้มากที่สุดเท่าที่จะเป็นไปได้ แนวคิดคือจับปัญหาก่อนที่คุณจะเข้าสู่เกียร์สูงและปรับใช้ AI หวังว่าจะไม่มีการเลือกปฏิบัติโดยตรงหรือการเลือกปฏิบัติโดยตัวแทน

ดังที่ได้กล่าวไว้ก่อนหน้านี้ แนวทางหนึ่งเกี่ยวข้องกับการสร้างความมั่นใจว่านักพัฒนา AI และผู้มีส่วนได้ส่วนเสียอื่นๆ ตระหนักถึงจรรยาบรรณของ AI และด้วยเหตุนี้จึงกระตุ้นให้พวกเขามุ่งมั่นที่จะประดิษฐ์ AI เพื่อหลีกเลี่ยงเรื่องเหล่านี้ อีกทางหนึ่งประกอบด้วยให้ AI เฝ้าสังเกตตัวเองสำหรับพฤติกรรมที่ผิดจรรยาบรรณ และ/หรือมี AI อีกชิ้นหนึ่งที่ตรวจสอบระบบ AI อื่น ๆ สำหรับพฤติกรรมที่อาจผิดจรรยาบรรณ ฉันได้กล่าวถึงวิธีแก้ปัญหาที่เป็นไปได้อื่น ๆ มากมายในงานเขียนของฉัน

ความคิดสุดท้ายสำหรับตอนนี้

คุณอาจรู้ว่า Lou Gehrig เคยกล่าวไว้ว่าไม่มีที่ว่างในกีฬาเบสบอลสำหรับการเลือกปฏิบัติ จากแนวความคิดเดียวกันนั้น คุณสามารถประกาศอย่างกล้าหาญได้ว่า AI ไม่มีที่ว่างสำหรับการเลือกปฏิบัติ

เราทุกคนต้องลุกขึ้นสู้และหาวิธีป้องกันการเลือกปฏิบัติไม่ให้แทรกซึมเข้าไปในระบบ AI เพื่อเห็นแก่พวกเราทุกคน เราต้องตีสิ่งนี้ออกจากสนามเบสบอล

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/04/08/insidious-ai-based-proxy-discrimination-against-humans-is-dauntingly-vexing-for-ai-ethics-which- สามารถเกิดขึ้นได้แม้ในกรณีที่เป็นรถยนต์ที่ขับเคลื่อนด้วยตัวเองอัตโนมัติ /