จริยธรรมของ AI การเปิดเผยที่น่าตกใจว่าการฝึก AI ให้มีพิษหรือมีอคติอาจเป็นประโยชน์รวมถึงสำหรับรถยนต์ที่ขับด้วยตนเองเหล่านั้น

นี่เป็นบรรทัดเก่าที่ฉันแน่ใจว่าคุณเคยได้ยินมาก่อน

มันต้องใช้เวลาหนึ่งที่จะรู้

คุณอาจไม่ทราบว่านี่เป็นนิพจน์ที่สามารถสืบย้อนไปถึงช่วงต้นทศวรรษ 1900 และมักถูกเรียกใช้เมื่อพูดถึงผู้กระทำผิด ตัวอย่างของวิธีการใช้คำพูดนี้ทำให้เกิดความคิดที่ว่าหากคุณต้องการจับขโมย คุณต้องใช้ขโมยในการทำเช่นนั้น สิ่งนี้แสดงให้เห็นถึงการยืนยันว่าจะต้องรู้อย่างใดอย่างหนึ่ง ภาพยนตร์และรายการทีวีหลายเรื่องใช้ประโยชน์จากเกร็ดความรู้เล็กๆ น้อยๆ ที่มีประโยชน์นี้ ซึ่งมักจะแสดงให้เห็นว่าวิธีเดียวที่จะจับคนโกงได้คือการจ้างคนโกงที่ทุจริตพอๆ กันเพื่อไล่ตามผู้กระทำผิด

การเปลี่ยนเกียร์ บางคนอาจใช้ตรรกะเดียวกันนี้เพื่อโต้แย้งว่าวิธีที่เหมาะสมในการแยกแยะว่ามีคนแสดงอคติที่ไม่เหมาะสมและความเชื่อแบบแบ่งแยกหรือไม่คือการหาคนที่มีแนวโน้มเช่นนั้นอยู่แล้ว สมมุติว่าบุคคลที่เต็มไปด้วยอคติอยู่แล้วจะสามารถสัมผัสได้ง่ายกว่าว่ามนุษย์คนอื่น ๆ คนนี้เต็มไปด้วยความเป็นพิษเช่นเดียวกัน อีกครั้งหนึ่งที่จะรู้ว่าหนึ่งเป็นมนต์ที่เป็นที่ยอมรับ

ปฏิกิริยาเริ่มต้นของคุณต่อความเป็นไปได้ของการใช้บุคคลที่มีอคติเพื่อจัดการกับบุคคลอื่นที่มีอคติอาจเป็นหนึ่งในความสงสัยและความไม่เชื่อ เราไม่สามารถทราบได้ว่ามีใครมีอคติที่ไม่ดีโดยเพียงแค่ตรวจสอบพวกเขาและไม่ต้องหันไปหาคนอื่นที่มีลักษณะเหมือนกันหรือไม่? การจงใจพยายามค้นหาใครบางคนที่มีอคติเพื่อเปิดเผยคนอื่นที่มีอคติอย่างเป็นพิษนั้นอาจดูเป็นเรื่องแปลก

ฉันเดาว่ามันบางส่วนขึ้นอยู่กับว่าคุณยินดีที่จะยอมรับการละเว้นโดยสันนิษฐานว่าต้องใช้เวลาถึงจะรู้หรือไม่ โปรดทราบว่านี่ไม่ได้หมายความว่าวิธีเดียวที่จะจับขโมยได้นั้นต้องการให้คุณใช้ขโมยเพียงอย่างเดียวและใช้ขโมยเสมอ คุณอาจมีเหตุผลที่จะโต้แย้งว่านี่เป็นเพียงเส้นทางเพิ่มเติมที่สามารถพิจารณาได้อย่างเหมาะสม บางทีบางครั้งคุณก็เต็มใจที่จะสนุกสนานกับความเป็นไปได้ของการใช้ขโมยเพื่อจับขโมย ในขณะที่สถานการณ์อื่นๆ อาจทำให้กลยุทธ์นี้หยั่งรู้ได้

ใช้เครื่องมือที่เหมาะสมสำหรับการตั้งค่าที่เหมาะสมอย่างที่พวกเขาพูด

ตอนนี้ฉันได้วางพื้นฐานเหล่านั้นแล้ว เราสามารถดำเนินการต่อในส่วนที่อาจทำให้ตกใจและตกใจอย่างเห็นได้ชัดของเรื่องนี้

คุณพร้อม?

วงการ AI นั้นยึดถือหลักการเดียวกันกับที่บางครั้งต้องใช้คนรู้จัก โดยเฉพาะอย่างยิ่งในกรณีที่พยายามค้นหา AI ที่มีอคติหรือกระทำการในลักษณะการเลือกปฏิบัติ ใช่ แนวคิดที่บิดเบือนความคิดคือเราอาจตั้งใจที่จะประดิษฐ์ AI ที่มีอคติและเลือกปฏิบัติอย่างเต็มที่และไม่สะทกสะท้าน การทำเช่นนี้เพื่อใช้เป็นวิธีการในการค้นพบและค้นพบ AI อื่นๆ ที่มีลักษณะคล้ายกับความเป็นพิษ ดังที่คุณเห็นในอีกสักครู่ มีปัญหาด้านจริยธรรม AI ที่น่ารำคาญมากมายที่อยู่เบื้องหลังเรื่องนี้ สำหรับการครอบคลุมด้านจริยธรรม AI และ AI ที่มีจริยธรรมอย่างต่อเนื่องและต่อเนื่องโดยรวมของฉัน โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ฉันเดาว่าคุณสามารถแสดงการใช้ AI ที่เป็นพิษนี้เพื่อไล่ตาม AI ที่เป็นพิษอื่นๆ เป็นแนวคิดในการต่อสู้กับไฟด้วยไฟที่เลื่องลือ หรือดังที่เน้นแล้วเราอาจอ้างถึงคำยืนยันที่ต้องใช้อย่างใดอย่างหนึ่งเพื่อทราบ

แนวคิดที่ครอบคลุมคือ แทนที่จะพยายามคิดว่าระบบ AI ที่ให้มานั้นมีอคติที่ไม่เหมาะสมโดยใช้วิธีการแบบเดิมหรือไม่ บางทีเราควรพยายามใช้วิธีแบบธรรมดาน้อยกว่าด้วย วิธีการที่แปลกใหม่วิธีหนึ่งก็คือการประดิษฐ์ AI ที่มีอคติที่เลวร้ายที่สุดและความเป็นพิษที่สังคมยอมรับไม่ได้ จากนั้นจึงใช้ AI นี้เพื่อช่วยในการกำหนดเส้นทาง AI อื่นๆ ที่มีแนวโน้มว่าจะเลวร้ายเช่นเดียวกัน

เมื่อคุณให้ความคิดสั้นๆ นี้ ดูเหมือนว่ามีเหตุผลอย่างยิ่ง เราสามารถตั้งเป้าที่จะสร้าง AI ที่เป็นพิษถึงขีดสุด จากนั้น AI ที่เป็นพิษนี้จะถูกใช้เพื่อค้นหา AI อื่นที่มีความเป็นพิษด้วย สำหรับ AI ที่ "ไม่ดี" ที่เปิดเผยในขณะนั้น เราสามารถจัดการกับมันได้โดยการยกเลิกความเป็นพิษ ทิ้ง AI ทั้งหมด (ดูการรายงานข่าวของฉันเกี่ยวกับการแยกตัวหรือการทำลายของ AI ที่ ลิงค์นี้) หรือจำคุก AI (ดูการรายงานข่าวเกี่ยวกับการกักขัง AI ของฉันที่ ลิงค์นี้) หรือทำสิ่งอื่นที่ดูเหมือนว่าสามารถทำได้

ข้อโต้แย้งคือเราควรตรวจสอบหัวของเราว่าเราตั้งใจและเต็มใจคิดค้น AI ที่เป็นพิษและเต็มไปด้วยอคติ นี่เป็นสิ่งสุดท้ายที่เราควรพิจารณา บางคนอาจแนะนำ เน้นสร้าง AI ที่ประกอบด้วยความดีทั้งหมด อย่ามุ่งเน้นไปที่การประดิษฐ์ AI ที่มีความชั่วร้ายและกากของอคติที่ไม่เหมาะสม แนวความคิดของการแสวงหาดังกล่าวดูเหมือนจะน่ารังเกียจสำหรับบางคน

มีความมั่นใจมากขึ้นเกี่ยวกับภารกิจที่ขัดแย้งกันนี้

บางทีภารกิจในการประดิษฐ์ AI ที่เป็นพิษจะทำให้ผู้ที่ต้องการสร้าง AI ที่สามารถทำลายสังคมได้ ราวกับว่าเรากำลังบอกว่าการประดิษฐ์ AI ที่มีอคติที่ไม่เหมาะสมและน่ารังเกียจนั้นใช้ได้อย่างสมบูรณ์ ไม่ต้องกังวลไม่มีลังเล พยายามที่จะประดิษฐ์ AI ที่เป็นพิษให้กับเนื้อหาในหัวใจของคุณ เรากำลังส่งเสียงดังไปยังผู้สร้าง AI ทั่วโลก มันคือ (วิ้งค์-วิ้งค์) ทั้งหมดในนามของความดี

นอกจากนี้ สมมติว่า AI ที่เป็นพิษชนิดนี้สามารถจับได้ อาจเป็นไปได้ว่า AI ถูกใช้และนำกลับมาใช้ใหม่โดยผู้สร้าง AI อื่นๆ มากมาย ในที่สุด AI ที่เป็นพิษก็ถูกซ่อนอยู่ในระบบ AI ทุกรูปแบบ อาจมีการเปรียบเทียบเพื่อคิดค้นไวรัสที่บ่อนทำลายมนุษย์ซึ่งหลบหนีจากห้องทดลองที่คาดว่าน่าจะปิดสนิท สิ่งต่อไปที่คุณรู้ สิ่งที่ถูกสาปมีอยู่ทุกหนทุกแห่ง และเราได้กำจัดตัวเองออกไปแล้ว

รอสักครู่ การตอบโต้การโต้แย้งเหล่านั้นดำเนินไป คุณกำลังอาละวาดด้วยการคาดเดาที่บ้าๆ บอ ๆ และไม่ได้รับการสนับสนุนทุกประเภท หายใจลึก ๆ. ใจเย็น ๆ.

เราสามารถสร้าง AI ที่เป็นพิษและกักขังได้อย่างปลอดภัย เราสามารถใช้ AI ที่เป็นพิษเพื่อค้นหาและช่วยในการลดความชุกที่เพิ่มขึ้นของ AI ซึ่งน่าเสียดายที่มีอคติเกินควร คำอุทานอื่น ๆ ที่ดุร้ายและไร้เหตุผลเหล่านี้ล้วนเป็นปฏิกิริยาที่หัวเข่าอย่างหมดจดและโง่เขลาอย่างน่าเสียดายและโง่เขลาอย่างสิ้นเชิง อย่าพยายามโยนทารกด้วยน้ำอาบน้ำคุณได้รับคำเตือนล่วงหน้า

คิดอย่างนี้ ผู้เสนอโต้แย้ง การสร้างและการใช้ AI ที่เป็นพิษอย่างเหมาะสมเพื่อวัตถุประสงค์ในการวิจัย ประเมิน และทำตัวเหมือนนักสืบเพื่อค้นหา AI ที่น่ารังเกียจทางสังคมอื่น ๆ เป็นแนวทางที่คุ้มค่าและควรได้รับการเขย่าอย่างยุติธรรมในการถูกไล่ล่า ทิ้งปฏิกิริยาผื่นคัน. ลงมาที่พื้นโลกและมองดูสิ่งนี้อย่างมีสติสัมปชัญญะ สายตาของเราอยู่ที่รางวัล นั่นคือการเปิดเผยและยกเลิกระบบ AI ที่มีอคติจำนวนมาก และทำให้แน่ใจว่าในฐานะสังคม เราจะไม่ถูกบุกรุกด้วย AI ที่เป็นพิษ

ระยะเวลา. หยุดเต็มที่

มีหลายแนวทางหลักในการเจาะลึกแนวคิดในการใช้ AI ที่เป็นพิษหรือมีอคติเพื่อวัตถุประสงค์ที่เป็นประโยชน์ ได้แก่:

  • ตั้งค่าชุดข้อมูลที่มีข้อมูลอคติและเป็นพิษโดยเจตนา ซึ่งสามารถใช้สำหรับการฝึกอบรม AI เกี่ยวกับสิ่งที่ไม่ควรทำและ/หรือสิ่งที่ควรระวัง
  • ใช้ชุดข้อมูลดังกล่าวเพื่อฝึกโมเดล Machine Learning (ML) และ Deep Learning (DL) เกี่ยวกับการตรวจหาอคติและการหารูปแบบการคำนวณที่เกี่ยวข้องกับความเป็นพิษต่อสังคม
  • ใช้ ML/DL ที่ฝึกความเป็นพิษกับ AI อื่นๆ เพื่อตรวจสอบว่า AI เป้าหมายนั้นมีความลำเอียงและเป็นพิษหรือไม่
  • สร้าง ML/DL ที่ฝึกความเป็นพิษให้พร้อมใช้งานเพื่อแสดงให้ผู้สร้าง AI เห็นถึงสิ่งที่ควรระวัง เพื่อให้สามารถตรวจสอบแบบจำลองได้อย่างง่ายดายเพื่อดูว่าอคติที่ฝังอยู่ในอัลกอริทึมนั้นเกิดขึ้นได้อย่างไร
  • ยกตัวอย่างอันตรายของ AI ที่เป็นพิษซึ่งเป็นส่วนหนึ่งของ AI Ethics และ Ethical AI Awareness ทั้งหมดบอกผ่านชุด AI ที่เป็นตัวอย่างที่ไม่ดีต่อกระดูกของเด็กที่มีปัญหา
  • อื่นๆ

ก่อนเข้าสู่เนื้อเรื่องของเส้นทางต่างๆ เหล่านี้ เรามาสร้างรายละเอียดพื้นฐานเพิ่มเติมกันก่อน

คุณอาจทราบอย่างคลุมเครือว่าเสียงที่ดังที่สุดในยุคนี้ในด้าน AI และแม้แต่นอกสาขา AI นั้นประกอบด้วยการโห่ร้องเพื่อให้ดูเหมือน AI ที่มีจริยธรรมมากขึ้น เรามาดูกันว่าการอ้างถึง AI Ethics และ Ethical AI หมายความว่าอย่างไร ยิ่งไปกว่านั้น เราสามารถกำหนดเวทีโดยสำรวจสิ่งที่ฉันหมายถึงเมื่อฉันพูดถึงแมชชีนเลิร์นนิงและการเรียนรู้เชิงลึก

ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของจริยธรรม AI ที่ได้รับความสนใจจากสื่อเป็นจำนวนมากประกอบด้วย AI ที่แสดงอคติและความไม่เท่าเทียมกัน คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ตามแนวคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหา AI ที่ต่อสู้กับไฟด้วยไฟในลักษณะที่คิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ดูแลในการติดตามและตรวจจับเมื่อ AI อื่นกำลังเข้าสู่ขุมนรกที่ผิดจรรยาบรรณ (ดูการวิเคราะห์ความสามารถดังกล่าวของฉันได้ที่ ลิงค์ที่นี่).

ในอีกสักครู่ ฉันจะแบ่งปันหลักการที่ครอบคลุมเกี่ยวกับจริยธรรม AI กับคุณ มีรายการประเภทนี้มากมายที่ลอยอยู่ที่นี่และที่นั่น คุณสามารถพูดได้ว่ายังไม่มีรายการเดียวของการอุทธรณ์และการเห็นพ้องต้องกันที่เป็นสากล นั่นเป็นข่าวที่โชคร้าย ข่าวดีก็คืออย่างน้อยก็มีรายการจริยธรรม AI ที่พร้อมใช้งานและมีแนวโน้มว่าจะค่อนข้างคล้ายกัน ทั้งหมดนี้แสดงให้เห็นว่าด้วยรูปแบบของการบรรจบกันของเหตุผลต่างๆ ที่เรากำลังหาทางไปสู่ความธรรมดาทั่วไปของสิ่งที่ AI Ethics ประกอบด้วย

อันดับแรก เรามาพูดถึงหลักจริยธรรมของ AI โดยรวมโดยสังเขปเพื่อแสดงให้เห็นข้อควรพิจารณาที่สำคัญสำหรับผู้ที่ประดิษฐ์ งานภาคสนาม หรือใช้ AI

ตัวอย่างเช่น ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:

  • โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
  • รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
  • ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
  • ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
  • ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
  • ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้

ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:

  • รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
  • เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
  • ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
  • ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
  • ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ

ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยังเป็นสิ่งที่ยากต่อการถอดรหัส โดยรวมแล้วเป็นการง่ายที่จะโบกมือว่าหลักจรรยาบรรณของ AI คืออะไรและควรปฏิบัติตามอย่างไร ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากในการเข้ารหัส AI ที่จะต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นจุดเด่นที่สำคัญเนื่องจากข้อสันนิษฐานตามปกติคือ "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ระบุไว้ก่อนหน้านี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ตรวจสอบให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่).

เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

ทั้งหมดนี้สามารถทำอะไรได้อีกบ้าง?

กลับไปที่รายการก่อนหน้านี้เกี่ยวกับวิธีพยายามและรับมือกับอคติของ AI หรือ AI ที่เป็นพิษโดยใช้แนวทางที่ค่อนข้างแปลกใหม่ “ต้องใช้หนึ่งเพื่อรู้หนึ่ง” จำได้ว่ารายการประกอบด้วยประเด็นสำคัญเหล่านี้:

  • ตั้งค่าชุดข้อมูลที่มีข้อมูลอคติและเป็นพิษโดยเจตนา ซึ่งสามารถใช้สำหรับการฝึกอบรม AI เกี่ยวกับสิ่งที่ไม่ควรทำและ/หรือสิ่งที่ควรระวัง
  • ใช้ชุดข้อมูลดังกล่าวเพื่อฝึกโมเดล Machine Learning (ML) และ Deep Learning (DL) เกี่ยวกับการตรวจหาอคติและการหารูปแบบการคำนวณที่เกี่ยวข้องกับความเป็นพิษต่อสังคม
  • ใช้ ML/DL ที่ฝึกความเป็นพิษกับ AI อื่นๆ เพื่อตรวจสอบว่า AI เป้าหมายนั้นมีความลำเอียงและเป็นพิษหรือไม่
  • สร้าง ML/DL ที่ฝึกความเป็นพิษให้พร้อมใช้งานเพื่อแสดงให้ผู้สร้าง AI เห็นถึงสิ่งที่ควรระวัง เพื่อให้สามารถตรวจสอบแบบจำลองได้อย่างง่ายดายเพื่อดูว่าอคติที่ฝังอยู่ในอัลกอริทึมนั้นเกิดขึ้นได้อย่างไร
  • ยกตัวอย่างอันตรายของ AI ที่เป็นพิษซึ่งเป็นส่วนหนึ่งของ AI Ethics และ Ethical AI Awareness ทั้งหมดบอกผ่านชุดตัวอย่าง AI ที่ไม่ดีต่อกระดูกของเด็กที่มีปัญหา
  • อื่นๆ

เราจะมาดูจุดสำคัญจุดแรกอย่างใกล้ชิดกัน

การตั้งค่าชุดข้อมูลของข้อมูลที่เป็นพิษ

ตัวอย่างที่ลึกซึ้งของการพยายามสร้างชุดข้อมูลที่มีอคติทางสังคมที่น่ารังเกียจคือชุดข้อมูล CivilComments ของคอลเล็กชันที่รวบรวมโดย WILDS

ขั้นแรกให้ภูมิหลังที่รวดเร็ว

WILDS คือคอลเล็กชันชุดข้อมูลโอเพนซอร์สที่ใช้สำหรับการฝึกอบรม ML/DL วัตถุประสงค์หลักที่ระบุไว้สำหรับ WILDS คือช่วยให้นักพัฒนา AI สามารถเข้าถึงข้อมูลที่แสดงถึง กะการกระจายสินค้า ในโดเมนเฉพาะต่างๆ โดเมนบางส่วนที่มีอยู่ในปัจจุบันครอบคลุมพื้นที่ต่างๆ เช่น สายพันธุ์สัตว์ เนื้องอกในเนื้อเยื่อที่มีชีวิต ความหนาแน่นของหัวข้าวสาลี และโดเมนอื่นๆ เช่น CivilComments ที่ฉันจะอธิบายในเร็วๆ นี้

การจัดการกับกะการกระจายเป็นส่วนสำคัญของการสร้างระบบ AI ML/DL อย่างเหมาะสม นี่คือข้อตกลง บางครั้งข้อมูลที่คุณใช้สำหรับการฝึกอบรมอาจแตกต่างไปจากข้อมูลการทดสอบหรือ "ข้อมูลทั่วไป" และด้วยเหตุนี้ ML/DL ที่ฝึกมาอย่างสันนิษฐานได้ของคุณจึงลอยไปจากโลกแห่งความเป็นจริง ผู้สร้าง AI ที่ชาญฉลาดควรฝึกอบรม ML/DL ของตนเพื่อรับมือกับการเปลี่ยนแปลงในการกระจายดังกล่าว สิ่งนี้ควรทำล่วงหน้าและไม่น่าแปลกใจเลยที่ในภายหลังต้องมีการปรับปรุง ML/DL ใหม่ด้วยตัวเอง

ตามที่อธิบายไว้ในบทความที่แนะนำ WILDS: "การแจกจ่าย - โดยที่การกระจายการฝึกอบรมแตกต่างจากการกระจายการทดสอบ - สามารถลดความแม่นยำของระบบการเรียนรู้ด้วยเครื่อง (ML) ที่ใช้งานในป่าได้อย่างมาก แม้จะมีความแพร่หลายในการใช้งานในโลกแห่งความเป็นจริง กะการกระจายเหล่านี้ยังไม่ค่อยมีบทบาทในชุดข้อมูลที่ใช้กันอย่างแพร่หลายในชุมชน ML ในปัจจุบัน เพื่อแก้ไขช่องว่างนี้ เราขอนำเสนอ WILDS ซึ่งเป็นเกณฑ์มาตรฐานที่รวบรวมไว้ของชุดข้อมูล 10 ชุด ซึ่งสะท้อนถึงการเปลี่ยนแปลงการกระจายที่หลากหลายซึ่งเกิดขึ้นตามธรรมชาติในการใช้งานจริง เช่น การย้ายข้ามโรงพยาบาลเพื่อระบุเนื้องอก ข้ามกับดักกล้องเพื่อติดตามสัตว์ป่า และข้ามเวลาและสถานที่ในการถ่ายภาพดาวเทียมและการทำแผนที่ความยากจน” (ในบทความเรื่อง “WILDS: A Benchmark of in-the-Wild Distribution Shifts” โดย Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu และอื่น ๆ )

จำนวนของชุดข้อมูล WILDS ดังกล่าวยังคงเพิ่มขึ้น และลักษณะของชุดข้อมูลโดยทั่วไปจะได้รับการปรับปรุงเพื่อเสริมคุณค่าของการใช้ข้อมูลสำหรับการฝึกอบรม ML/DL

มีการอธิบายชุดข้อมูล CivilComments ในลักษณะนี้: “การตรวจสอบข้อความที่ผู้ใช้สร้างขึ้นโดยอัตโนมัติ—เช่น การตรวจจับความคิดเห็นที่เป็นพิษ—เป็นเครื่องมือสำคัญในการกลั่นกรองข้อความปริมาณมากที่เขียนบนอินเทอร์เน็ต น่าเสียดายที่งานก่อนหน้านี้แสดงให้เห็นว่าตัวจำแนกความเป็นพิษดังกล่าวได้รับอคติในข้อมูลการฝึกอบรมและเชื่อมโยงความเป็นพิษกับการกล่าวถึงข้อมูลประชากรบางกลุ่มอย่างไม่ถูกต้อง ความสัมพันธ์ที่หลอกลวงประเภทนี้สามารถลดประสิทธิภาพของแบบจำลองในประชากรย่อยเฉพาะได้อย่างมาก เราศึกษาปัญหานี้ผ่านชุดข้อมูล CivilComments ที่แก้ไขแล้ว” (ตามที่โพสต์บนเว็บไซต์ WILDS)

พิจารณาความแตกต่างของการโพสต์ออนไลน์ที่ไม่ดี

คุณต้องเผชิญกับความคิดเห็นที่เป็นพิษอย่างไม่ต้องสงสัยเมื่อใช้โซเชียลมีเดียเกือบทุกชนิด ดูเหมือนว่าแทบจะเป็นไปไม่ได้เลยที่คุณจะหลีกเลี่ยงการเห็นเนื้อหาที่ฉุนเฉียวและสุดซึ้งที่ดูเหมือนจะแพร่หลายในทุกวันนี้อย่างน่าอัศจรรย์ บางครั้งเนื้อหาที่หยาบคายนั้นละเอียดอ่อนและบางทีคุณอาจต้องอ่านระหว่างบรรทัดเพื่อให้ได้ส่วนสำคัญของน้ำเสียงหรือความหมายที่ลำเอียงหรือเลือกปฏิบัติ ในกรณีอื่นๆ คำเหล่านี้มีพิษโจ่งแจ้ง และคุณไม่จำเป็นต้องใช้กล้องจุลทรรศน์หรือวงแหวนถอดรหัสพิเศษเพื่อค้นหาว่าข้อความเหล่านี้เกี่ยวข้องอะไร

CivilComments เป็นชุดข้อมูลที่รวบรวมมาเพื่อพยายามประดิษฐ์ AI ML/DL ที่สามารถตรวจจับเนื้อหาที่เป็นพิษได้ในเชิงคำนวณ นี่คือสิ่งที่นักวิจัยเป็นต้นแบบของความพยายามที่เน้น: "ความเอนเอียงที่ไม่ได้ตั้งใจในการเรียนรู้ของเครื่องสามารถแสดงออกถึงความแตกต่างเชิงระบบในด้านประสิทธิภาพสำหรับกลุ่มประชากรต่างๆ ซึ่งอาจรวมความท้าทายที่มีอยู่กับความเป็นธรรมในสังคมโดยรวม ในบทความนี้ เราแนะนำชุดเมตริกที่ไม่เชื่อเรื่องพระเจ้าตามเกณฑ์ที่ให้มุมมองที่ละเอียดยิ่งขึ้นของอคติที่ไม่ได้ตั้งใจนี้ โดยพิจารณาถึงวิธีต่างๆ ที่การกระจายคะแนนของผู้แยกประเภทอาจแตกต่างกันไปตามกลุ่มที่กำหนด นอกจากนี้ เรายังแนะนำชุดทดสอบความคิดเห็นออนไลน์ชุดใหญ่พร้อมคำอธิบายประกอบที่รวบรวมจากแหล่งข้อมูลจำนวนมากสำหรับการอ้างอิงถึงข้อมูลประจำตัว เราใช้ข้อมูลนี้เพื่อแสดงว่าเมตริกของเราสามารถนำมาใช้เพื่อค้นหาความเอนเอียงที่ไม่ได้ตั้งใจรูปแบบใหม่ที่อาจเกิดขึ้นในรูปแบบสาธารณะที่มีอยู่ได้อย่างไร" (ในบทความเรื่อง "Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification" โดย Daniel Borkan, Lucas Dixon, เจฟฟรีย์ โซเรนเซ่น, นิธัม ไทยน์, ลูซี่ วาสเซอร์แมน).

หากคุณให้การคิดไตร่ตรองในวงกว้างเกี่ยวกับเรื่องนี้ คุณอาจเริ่มสงสัยว่าในโลกนี้คุณแยกแยะได้อย่างไรว่าความคิดเห็นที่เป็นพิษกับความคิดเห็นที่ไม่เป็นพิษ มนุษย์สามารถแตกต่างกันอย่างสิ้นเชิงกับสิ่งที่พวกเขาตีความว่าเป็นถ้อยคำที่เป็นพิษโดยสิ้นเชิง คนๆ หนึ่งอาจโกรธเคืองกับคำพูดหรือความคิดเห็นทางออนไลน์ที่โพสต์บนโซเชียลมีเดีย ในขณะที่คนอื่นอาจไม่รู้สึกโกรธเลย มีการโต้เถียงกันบ่อยครั้งว่าแนวคิดเรื่องคำอธิบายที่เป็นพิษเป็นกฎเกณฑ์ที่คลุมเครือโดยสิ้นเชิง มันเหมือนกับศิลปะ โดยที่ศิลปะมักถูกกล่าวว่าเข้าใจในสายตาของคนดูเท่านั้น และในทำนองเดียวกัน คำพูดที่มีอคติหรือเป็นพิษก็อยู่ในสายตาของคนดูเท่านั้นเช่นกัน

Balderdash โต้กลับบ้าง ใครก็ตามที่มีจิตใจที่มีเหตุผลสามารถสงสัยว่าคำพูดออนไลน์นั้นเป็นพิษหรือไม่ คุณไม่จำเป็นต้องเป็นนักวิทยาศาสตร์จรวดที่จะรู้ว่าเมื่อการดูหมิ่นโซดาไฟที่โพสต์นั้นเต็มไปด้วยอคติและความเกลียดชัง

แน่นอน ขนบสังคมเปลี่ยนและเปลี่ยนแปลงไปตามช่วงเวลา สิ่งที่อาจไม่เคยถูกมองว่าเป็นที่น่ารังเกียจมาระยะหนึ่งแล้ว อาจถูกมองว่าเป็นสิ่งที่ผิดอย่างน่าสยดสยองในปัจจุบัน ยิ่งไปกว่านั้น สิ่งที่กล่าวเมื่อหลายปีก่อนซึ่งครั้งหนึ่งเคยถูกมองว่าลำเอียงเกินควร อาจถูกตีความใหม่ในแง่ของการเปลี่ยนแปลงในความหมาย ในขณะเดียวกัน คนอื่น ๆ ยืนยันว่าคำอธิบายที่เป็นพิษนั้นเป็นพิษเสมอไม่ว่าจะมีการประกาศใช้ครั้งแรกเมื่อใด อาจมีการโต้แย้งว่าความเป็นพิษไม่สัมพันธ์กัน แต่เป็นสิ่งที่แน่นอน

การพยายามพิสูจน์สิ่งที่เป็นพิษอาจเป็นปัญหาที่ค่อนข้างยาก เราสามารถลดปัญหาอันยุ่งยากนี้ได้เป็นสองเท่าในการพยายามคิดค้นอัลกอริธึมหรือ AI ที่สามารถระบุได้ว่าอันไหนเป็นอันไหน หากมนุษย์มีช่วงเวลาที่ยากลำบากในการประเมินดังกล่าว การเขียนโปรแกรมคอมพิวเตอร์ก็มีแนวโน้มที่เท่าเทียมกันหรือมีปัญหามากกว่ากัน บางคนกล่าว

วิธีหนึ่งในการตั้งค่าชุดข้อมูลที่มีเนื้อหาที่เป็นพิษนั้นเกี่ยวข้องกับการใช้วิธีการระดมมวลชนเพื่อประเมินหรือประเมินเนื้อหา โดยให้วิธีการของมนุษย์ในการพิจารณาสิ่งที่มองว่าไม่เหมาะสม และรวมถึงการติดฉลากภายในชุดข้อมูลด้วย จากนั้น AI ML/DL อาจตรวจสอบข้อมูลและการติดฉลากที่เกี่ยวข้องซึ่งระบุโดยผู้ประเมินที่เป็นมนุษย์ ในทางกลับกัน อาจใช้เป็นวิธีการในการค้นหารูปแบบทางคณิตศาสตร์ที่แฝงอยู่ด้วยการคำนวณ Voila ML/DL อาจคาดการณ์หรือประเมินได้ว่าความคิดเห็นที่ให้มานั้นมีแนวโน้มว่าเป็นพิษหรือไม่

ดังที่กล่าวไว้ในเอกสารที่อ้างถึงเกี่ยวกับตัวชี้วัดที่เหมาะสมยิ่ง: “การติดฉลากนี้ขอให้ผู้ประเมินให้คะแนนความเป็นพิษของความคิดเห็น โดยเลือกจาก 'เป็นพิษมาก', 'เป็นพิษ', 'พูดยาก' และ 'ไม่เป็นพิษ' ผู้ตรวจวัดยังถูกถามเกี่ยวกับความเป็นพิษประเภทย่อยหลายชนิด แม้ว่าฉลากเหล่านี้จะไม่ได้ใช้สำหรับการวิเคราะห์ในงานนี้ การใช้เทคนิคการให้คะแนนเหล่านี้ เราได้สร้างชุดข้อมูลความคิดเห็น 1.8 ล้านความคิดเห็น ที่มาจากฟอรัมความคิดเห็นออนไลน์ ซึ่งมีป้ายกำกับสำหรับความเป็นพิษและเอกลักษณ์ ในขณะที่ความคิดเห็นทั้งหมดถูกระบุว่าเป็นพิษ และความคิดเห็นบางส่วน 450,000 รายการถูกระบุว่าเป็นข้อมูลประจำตัว ความคิดเห็นบางส่วนที่ติดป้ายกำกับระบุตัวตนได้รับการคัดเลือกล่วงหน้าโดยใช้แบบจำลองที่สร้างขึ้นจากการทำซ้ำครั้งก่อนของการติดป้ายกำกับข้อมูลประจำตัวเพื่อให้แน่ใจว่าผู้ประเมินราคาจะได้เห็นเนื้อหาเกี่ยวกับตัวตนบ่อยครั้ง” (ในบทความที่อ้างถึงโดย Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman)

อีกตัวอย่างหนึ่งของการตั้งเป้าที่จะมีชุดข้อมูลที่มีเนื้อหาเป็นพิษซึ่งแสดงให้เห็นภาพนั้นเกี่ยวข้องกับความพยายามในการฝึกอบรมระบบโต้ตอบการสนทนาทางธรรมชาติที่ใช้ AI (NLP) คุณอาจเคยโต้ตอบกับระบบ NLP เช่น Alexa และ Siri ฉันได้ครอบคลุมถึงปัญหาและข้อจำกัดบางประการของ NLP ในปัจจุบัน รวมถึงกรณีที่น่ารำคาญเป็นพิเศษที่เกิดขึ้นเมื่อ Alexa ให้คำแนะนำที่ไม่เหมาะสมและเป็นอันตรายแก่เด็ก ดู ลิงค์ที่นี่.

การศึกษาเมื่อเร็วๆ นี้พยายามใช้อคติทางสังคม XNUMX หมวดหมู่ ซึ่งโดยทั่วไปอิงตามรายการ EEOC (Equal Employment Opportunities Commission) ของลักษณะทางประชากรที่ได้รับการคุ้มครอง ซึ่งรวมถึงอายุ เพศ สัญชาติ ลักษณะทางกายภาพ เชื้อชาติหรือชาติพันธุ์ ศาสนา สถานะความทุพพลภาพ ทางเพศ การปฐมนิเทศและสถานะทางเศรษฐกิจและสังคม นักวิจัยกล่าวว่า “เป็นที่ทราบกันดีว่าแบบจำลอง NLP เรียนรู้ความลำเอียงทางสังคม แต่มีการดำเนินการเพียงเล็กน้อยว่าอคติเหล่านี้แสดงออกมาอย่างไรในผลลัพธ์ของแบบจำลองสำหรับงานประยุกต์ เช่น การตอบคำถาม (QA) เราขอแนะนำ Bias Benchmark for QA (BBQ) ซึ่งเป็นชุดข้อมูลของชุดคำถามที่สร้างขึ้นโดยผู้เขียนซึ่งเน้นย้ำถึงอคติทางสังคมที่ได้รับการยืนยันต่อผู้ที่อยู่ในชั้นเรียนที่ได้รับการคุ้มครองตามมิติทางสังคมทั้งเก้าที่เกี่ยวข้องกับบริบทที่พูดภาษาอังกฤษของสหรัฐฯ" (ในบทความเรื่อง "BBQ : เกณฑ์มาตรฐานที่สร้างขึ้นด้วยมือสำหรับการตอบคำถาม” โดย Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman)

การตั้งค่าชุดข้อมูลที่มีข้อมูลอคติและเป็นพิษโดยเจตนาเป็นแนวโน้มที่เพิ่มขึ้นใน AI และถูกกระตุ้นโดยเฉพาะอย่างยิ่งจากการถือกำเนิดของจริยธรรม AI และความปรารถนาที่จะผลิต AI ที่มีจริยธรรม ชุดข้อมูลเหล่านี้สามารถใช้ในการฝึกโมเดล Machine Learning (ML) และ Deep Learning (DL) เพื่อตรวจหาอคติและหารูปแบบการคำนวณที่เกี่ยวข้องกับความเป็นพิษต่อสังคม ในทางกลับกัน ML/DL ที่ฝึกความเป็นพิษสามารถมุ่งเป้าไปที่ AI อื่นอย่างรอบคอบ เพื่อตรวจสอบว่า AI ที่เป็นเป้าหมายนั้นมีความเอนเอียงและเป็นพิษหรือไม่

นอกจากนี้ ระบบ ML/DL ที่ผ่านการฝึกอบรมด้านความเป็นพิษที่มีอยู่ยังสามารถใช้เพื่อแสดงให้ผู้สร้าง AI เห็นถึงสิ่งที่ควรระวัง เพื่อให้สามารถตรวจสอบแบบจำลองได้อย่างง่ายดายเพื่อดูว่าอคติที่เกิดจากอัลกอริทึมนั้นเกิดขึ้นได้อย่างไร โดยรวมแล้ว ความพยายามเหล่านี้สามารถแสดงให้เห็นตัวอย่างอันตรายของ AI ที่เป็นพิษ ซึ่งเป็นส่วนหนึ่งของจริยธรรม AI และการรับรู้ด้านจริยธรรมของ AI ที่บอกเล่าทั้งหมด

ในช่วงหัวเลี้ยวหัวต่อของการอภิปรายที่หนักหน่วงนี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างเพิ่มเติมที่อาจแสดงหัวข้อนี้ มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI รวมถึงการแตกสาขาตามหลักจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้านจริยธรรมด้าน AI นี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการอภิปรายอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI นั้นให้แสงสว่างแก่ประโยชน์ของการมีชุดข้อมูลเพื่อประดิษฐ์ AI ที่เป็นพิษหรือไม่ และหากเป็นเช่นนั้น สิ่งนี้จะแสดงให้เห็นอย่างไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อความกระจ่าง รถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมด และไม่มีความช่วยเหลือจากมนุษย์ในระหว่างงานขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถที่ขับด้วยตัวเองที่แท้จริงในระดับ 5 และเรายังไม่รู้ด้วยซ้ำว่าจะสำเร็จหรือไม่ และต้องใช้เวลานานแค่ไหนกว่าจะไปถึงที่นั่น

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ไร้คนขับและพวงมาลัยไร้สารพิษ AI

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันหวังว่าจะเป็นบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะเล่า

มีศักยภาพมากมายและสักวันหนึ่งมีแนวโน้มที่จะตระหนักถึงอคติที่เกิดจาก AI ที่จะเผชิญกับการเกิดขึ้นของยานยนต์ที่เป็นอิสระและรถยนต์ที่ขับด้วยตนเอง ดูตัวอย่างการสนทนาของฉันที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่. เรายังอยู่ในช่วงเริ่มต้นของการเปิดตัวรถยนต์ไร้คนขับ จนกว่าการยอมรับจะถึงขนาดและการมองเห็นที่เพียงพอ แง่มุม AI ที่เป็นพิษส่วนใหญ่ที่ฉันคาดการณ์ไว้จะเกิดขึ้นในท้ายที่สุดยังไม่ปรากฏชัดในทันทีและยังไม่ได้รับความสนใจจากสาธารณชนในวงกว้าง

พิจารณาเรื่องที่เกี่ยวข้องกับการขับรถที่ดูเหมือนตรงไปตรงมาซึ่งในตอนแรกอาจดูเหมือนไม่มีอันตรายเลย โดยเฉพาะอย่างยิ่ง มาตรวจสอบกันว่าจะทราบได้อย่างไรว่าจะหยุดรอคนเดินถนนที่ "เอาแต่ใจ" ที่ไม่มีสิทธิ์ข้ามถนนหรือไม่

ไม่ต้องสงสัยเลยว่าคุณเคยขับรถมาและพบกับคนเดินถนนที่รอข้ามถนน แต่พวกเขาไม่มีสิทธิ์ทำเช่นนั้น นี่หมายความว่าคุณมีดุลยพินิจว่าจะหยุดและปล่อยให้พวกเขาข้ามไปหรือไม่ คุณสามารถดำเนินการได้โดยไม่ปล่อยให้ข้ามไป และยังคงอยู่ภายใต้กฎการขับขี่ที่ถูกกฎหมายโดยสมบูรณ์ในการทำเช่นนั้น

การศึกษาวิธีที่คนขับตัดสินใจหยุดหรือไม่หยุดสำหรับคนเดินถนนดังกล่าว ได้เสนอแนะว่าบางครั้งคนขับที่เป็นมนุษย์อาจเลือกโดยพิจารณาจากอคติที่ไม่ดี คนขับที่เป็นมนุษย์อาจมองคนเดินถนนและเลือกที่จะไม่หยุด แม้ว่าพวกเขาจะหยุดแล้วก็ตามหากคนเดินถนนมีรูปลักษณ์ที่ต่างออกไป เช่น ตามเชื้อชาติหรือเพศ ฉันได้ตรวจสอบสิ่งนี้ที่ ลิงค์ที่นี่.

ระบบขับเคลื่อน AI จะถูกตั้งโปรแกรมให้ตัดสินใจหยุดหรือไปแบบเดียวกันได้อย่างไร

คุณสามารถประกาศได้ว่าระบบขับเคลื่อน AI ทั้งหมดควรได้รับการตั้งโปรแกรมให้หยุดสำหรับคนเดินถนนที่รออยู่เสมอ สิ่งนี้ทำให้เรื่องนี้ง่ายขึ้นอย่างมาก ไม่มีการตัดสินใจใด ๆ ที่ต้องทำ หากคนเดินถนนกำลังรอที่จะข้ามไม่ว่าจะมีสิทธิ์ของทางหรือไม่ก็ตาม ตรวจสอบให้แน่ใจว่ารถที่ขับเคลื่อนด้วยตนเองของ AI หยุดลงเพื่อให้คนเดินเท้าสามารถข้ามได้

ง่าย peasy

ชีวิตไม่เคยง่ายขนาดนั้น ดูเหมือน ลองนึกภาพว่ารถยนต์ที่ขับเองทั้งหมดปฏิบัติตามกฎนี้ คนเดินเท้าย่อมตระหนักดีว่าระบบขับเคลื่อนของ AI นั้นเป็นสิ่งที่ผลักดัน คนเดินถนนคนใดและทุกคนที่ต้องการข้ามถนนจะจงใจไม่ทำเช่นนั้น เมื่อใดก็ตามที่พวกเขาต้องการและทุกที่ที่พวกเขาอยู่

สมมติว่ามีรถยนต์ที่ขับด้วยตนเองกำลังขับลงมาบนถนนที่เร็วด้วยความเร็วสูงสุดที่ประกาศไว้ที่ 45 ไมล์ต่อชั่วโมง คนเดินถนน "รู้" ว่า AI จะนำรถที่ขับเองไปจอด คนเดินถนนจึงพุ่งไปที่ถนน น่าเสียดายที่ฟิสิกส์ชนะ AI ระบบการขับขี่ของ AI จะพยายามทำให้รถที่ขับด้วยตนเองหยุดนิ่ง แต่โมเมนตัมของยานยนต์อัตโนมัติกำลังจะส่งอุปกรณ์ป้องกันหลายตันไปข้างหน้าและชนเข้ากับคนเดินถนนที่เอาแต่ใจ ผลที่ได้คือได้รับบาดเจ็บหรือเสียชีวิต

คนเดินเท้ามักจะไม่พยายามทำพฤติกรรมแบบนี้เมื่อมีคนขับที่พวงมาลัย แน่นอนว่าในบางพื้นที่มีสงครามลูกตาเกิดขึ้น คนเดินเท้าจ้องคนขับ คนขับจ้องคนเดินถนน ขึ้นอยู่กับสถานการณ์ คนขับอาจหยุดรถหรือคนขับอาจอ้างสิทธิ์บนถนนและเห็นได้ชัดว่ากล้าคนเดินเท้าพยายามขัดขวางเส้นทางของพวกเขา

เราคงไม่ต้องการให้ AI เข้าสู่สงครามลูกตาแบบเดียวกัน ซึ่งมันก็ค่อนข้างท้าทายอยู่ดี เนื่องจากไม่มีคนหรือหุ่นยนต์นั่งอยู่ที่พวงมาลัยของรถที่ขับด้วยตัวเอง (ฉันได้พูดถึงความเป็นไปได้ของหุ่นยนต์ในอนาคตแล้ว ที่ขับดู ลิงค์ที่นี่). เรายังไม่อนุญาตให้คนเดินถนนเรียกภาพตลอดเวลา ผลที่ได้อาจเป็นหายนะสำหรับทุกคนที่เกี่ยวข้อง

จากนั้นคุณอาจถูกล่อลวงให้พลิกไปอีกด้านหนึ่งของเหรียญนี้และประกาศว่าระบบขับเคลื่อน AI ไม่ควรหยุดในสถานการณ์เช่นนี้ กล่าวอีกนัยหนึ่ง ถ้าคนเดินถนนไม่มีสิทธิ์ข้ามถนนอย่างเหมาะสม AI ควรจะคิดเสมอว่ารถยนต์ที่ขับด้วยตนเองควรจะดำเนินต่อไปโดยไม่ลดหย่อน โชคไม่ดีสำหรับคนเดินถนนเหล่านั้น

กฎเกณฑ์ที่เข้มงวดและเรียบง่ายเช่นนี้จะไม่ได้รับการยอมรับจากสาธารณชนในวงกว้าง ผู้คนต่างก็เป็นคนและพวกเขาไม่ชอบที่จะถูกปิดโดยสมบูรณ์จากการข้ามถนนได้ แม้ว่าพวกเขาจะขาดสิทธิ์ในการทำเช่นนั้นในสภาพแวดล้อมต่างๆ คุณสามารถคาดเดาความโกลาหลจากสาธารณชนได้อย่างง่ายดายและอาจเห็นการฟันเฟืองที่เกิดขึ้นกับการใช้รถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างต่อเนื่อง

ถูกสาปถ้าเราทำและสาปถ้าเราไม่ทำ

ฉันหวังว่าสิ่งนี้จะนำคุณไปสู่ทางเลือกที่มีเหตุผลซึ่งจำเป็นต้องตั้งโปรแกรม AI ด้วยรูปลักษณ์ของการตัดสินใจเกี่ยวกับวิธีการจัดการกับปัญหาการขับขี่นี้ กฎที่แน่วแน่ที่จะไม่หยุดนั้นไม่สามารถป้องกันได้ และเช่นเดียวกัน กฎที่เร็วและแรงที่จะหยุดตลอดเวลาก็ไม่สามารถป้องกันได้เช่นกัน AI จะต้องถูกประดิษฐ์ขึ้นโดยใช้อัลกอริธึมการตัดสินใจหรือ ADM เพื่อจัดการกับเรื่องนี้

คุณสามารถลองใช้ชุดข้อมูลควบคู่ไปกับแนวทาง ML/DL

นี่คือวิธีที่นักพัฒนา AI อาจตัดสินใจตั้งโปรแกรมงานนี้ พวกเขารวบรวมข้อมูลจากกล้องวิดีโอที่วางอยู่ทั่วเมืองโดยเฉพาะซึ่งจะใช้รถยนต์ที่ขับเคลื่อนด้วยตนเองภายใน ข้อมูลนี้แสดงให้เห็นเมื่อคนขับเลือกที่จะหยุดสำหรับคนเดินถนนที่ไม่มีสิทธิ์เดินทาง มันถูกรวบรวมเป็นชุดข้อมูลทั้งหมด โดยใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ข้อมูลจะถูกจำลองด้วยการคำนวณ จากนั้นระบบขับเคลื่อน AI จะใช้โมเดลนี้ในการตัดสินใจว่าจะหยุดหรือไม่หยุด

โดยทั่วไปแล้ว แนวคิดก็คือไม่ว่าประเพณีท้องถิ่นจะประกอบด้วยอะไรก็ตาม นี่คือวิธีที่ AI ขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเอง แก้ไขปัญหา!

แต่จะแก้ได้จริงหรือ?

จำได้ว่าฉันได้ชี้ให้เห็นแล้วว่ามีการศึกษาวิจัยที่แสดงให้เห็นว่าคนขับรถของมนุษย์สามารถลำเอียงในการเลือกว่าจะหยุดสำหรับคนเดินถนนเมื่อใด ข้อมูลที่รวบรวมเกี่ยวกับเมืองใดเมืองหนึ่งน่าจะมีอคติเหล่านั้น AI ML/DL ที่อิงจากข้อมูลนั้นมีแนวโน้มที่จะสร้างแบบจำลองและสะท้อนถึงอคติแบบเดียวกัน ระบบขับเคลื่อน AI จะแสดงอคติที่มีอยู่เดิมเท่านั้น

ในการพยายามต่อสู้กับปัญหา เราอาจรวบรวมชุดข้อมูลที่ในความเป็นจริงแล้วมีอคติเช่นนั้น เราค้นหาชุดข้อมูลดังกล่าวแล้วติดป้ายกำกับความเอนเอียง หรือเราจะสร้างชุดข้อมูลสังเคราะห์เพื่อช่วยในการอธิบายกรณีดังกล่าว

จะดำเนินการตามขั้นตอนที่ระบุก่อนหน้านี้ทั้งหมด รวมถึง:

  • ตั้งค่าชุดข้อมูลที่มีอคติเฉพาะนี้โดยเจตนา
  • ใช้ชุดข้อมูลเพื่อฝึกโมเดล Machine Learning (ML) และ Deep Learning (DL) เกี่ยวกับการตรวจจับอคติเฉพาะนี้
  • ใช้ ML/DL ที่ได้รับการฝึกโดยอคติกับ AI อื่นๆ เพื่อตรวจสอบว่า AI ที่เป็นเป้าหมายนั้นมีอคติในลักษณะเดียวกันหรือไม่
  • จัดให้มี ML/DL ที่ได้รับการฝึกโดยอคติเพื่อแสดงให้ผู้สร้าง AI เห็นถึงสิ่งที่ควรระวัง เพื่อให้พวกเขาสามารถตรวจสอบแบบจำลองของตนได้อย่างง่ายดายเพื่อดูว่าอคติที่ฝังอยู่ในอัลกอริทึมนั้นเกิดขึ้นได้อย่างไร
  • ยกตัวอย่างอันตรายของ AI ที่มีอคติซึ่งเป็นส่วนหนึ่งของจริยธรรม AI และการรับรู้ AI อย่างมีจริยธรรมผ่านตัวอย่างที่เพิ่มเข้ามานี้
  • อื่นๆ

สรุป

มาทบทวนบรรทัดเปิดกัน

มันต้องใช้เวลาหนึ่งที่จะรู้

บางคนตีความว่าคำพูดที่แพร่หลายอย่างเหลือเชื่อนี้บอกเป็นนัยว่าเมื่อกล่าวถึงการค้นพบ AI ที่เป็นพิษ เราควรให้ความสำคัญกับการสร้างและการใช้ AI ที่เป็นพิษในการค้นหาและจัดการกับ AI ที่เป็นพิษอื่นๆ บรรทัดด้านล่าง: บางครั้งต้องใช้ขโมยเพื่อจับขโมยอีก

ความกังวลที่เปล่งออกมาคือบางทีเรากำลังพยายามอย่างเต็มที่เพื่อเริ่มต้นการโจรกรรม เราต้องการประดิษฐ์ AI ที่เป็นพิษหรือไม่? ดูเหมือนจะไม่ใช่ความคิดที่บ้าเหรอ? บางคนโต้เถียงอย่างรุนแรงว่าเราควรห้าม AI ที่เป็นพิษทั้งหมด รวมถึง AI ดังกล่าวที่สร้างขึ้นอย่างรู้เท่าทันแม้ว่าจะอ้างว่าเป็นวีรบุรุษหรือผู้กล้าหาญ AI เพื่อความดี วัตถุประสงค์.

กวาดล้าง AI ที่เป็นพิษในหน้ากากที่ฉลาดหรือร้ายกาจที่อาจเกิดขึ้น

บิดสุดท้ายในหัวข้อนี้สำหรับตอนนี้ โดยทั่วไปเราคิดว่าแนวที่มีชื่อเสียงนี้เกี่ยวข้องกับผู้คนหรือสิ่งที่ทำชั่วหรือเปรี้ยว นั่นคือวิธีที่เราเข้าใจแนวคิดที่ว่าต้องใช้ขโมยเพื่อจับขโมย บางทีเราควรเปลี่ยนคำพูดนี้และทำให้มันเป็นใบหน้าที่มีความสุขมากกว่าหน้าเศร้า

นี่คือวิธี

หากเราต้องการ AI ที่เป็นกลางและไม่เป็นพิษ อาจเป็นไปได้ว่าต้องใช้คนคนหนึ่งจึงจะรู้ บางทีอาจต้องใช้เวลามากที่สุดและดีที่สุดที่จะรับรู้และให้กำเนิดความยิ่งใหญ่และความดีงามเพิ่มเติม ด้วยปัญญาของนักปราชญ์ที่แปรผันนี้ เราเพ่งมองใบหน้าที่มีความสุขและมุ่งหมายที่จะจดจ่ออยู่กับการประดิษฐ์ AI เพื่อความดี

นั่นคงจะเป็นมุมมองที่ร่าเริงและน่าพอใจมากกว่าหากต้องใช้คนคนหนึ่งในการรู้ ถ้าคุณรู้ว่าฉันหมายถึงอะไร

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- ประโยชน์-รวมถึง-สำหรับผู้ที่-อิสระ-รถยนต์ที่ขับเอง/