จรรยาบรรณของ AI ส่งเสียงกริ่งเตือนเกี่ยวกับอคติที่ปรากฏขึ้นของอคติ AI ในระดับสากลอย่างมหาศาล โดยเฉพาะอย่างยิ่งการเติมเชื้อเพลิงผ่านระบบที่เป็นอิสระอย่างเต็มที่

เพลโตกล่าวอย่างมีชื่อเสียงว่าการตัดสินใจที่ดีนั้นขึ้นอยู่กับความรู้ไม่ใช่ตัวเลข

ความเข้าใจที่เฉียบแหลมนี้ดูเหมือนจะมีความเข้าใจอย่างน่าอัศจรรย์เกี่ยวกับปัญญาประดิษฐ์ (AI) ในปัจจุบัน

คุณเห็นไหม ว่าแม้ว่ากระแสข่าวที่พาดหัวข่าวว่า AI ได้เข้าถึงความรู้สึกและรวบรวมความรู้และการให้เหตุผลของมนุษย์แล้วก็ตาม โปรดทราบว่าการกล่าวเกินจริงของ AI นั้นเป็นคำกล่าวอ้างที่ร้ายกาจอย่างร้ายกาจ เนื่องจากเรายังคงอาศัยการกระทืบตัวเลขในการตัดสินใจอัลกอริธึมในปัจจุบัน (ADM) ) ตามที่ดำเนินการโดยระบบ AI แม้แต่ Machine Learning (ML) และ Deep Learning (DL) ที่ถูกโอ้อวดก็ประกอบด้วยการจับคู่รูปแบบการคำนวณ ซึ่งหมายความว่าตัวเลขยังคงเป็นแกนหลักของการใช้ ML/DL อันสูงส่ง

เราไม่รู้ว่า AI จะเข้าถึงความรู้สึกได้หรือไม่ ได้ อาจจะไม่ก็ได้ ไม่มีใครสามารถพูดได้อย่างแน่นอนว่าสิ่งนี้จะเกิดขึ้นได้อย่างไร บางคนเชื่อว่าเราจะค่อยๆ พัฒนาความพยายามด้าน AI เชิงคำนวณของเรามากขึ้นเรื่อยๆ เพื่อให้เกิดความรู้สึกนึกคิดขึ้นเองตามธรรมชาติ คนอื่นคิดว่า AI อาจเข้าสู่ซูเปอร์โนวาทางคอมพิวเตอร์และเข้าถึงความรู้สึกได้ค่อนข้างมาก (โดยทั่วไปจะเรียกว่าภาวะเอกฐาน) สำหรับข้อมูลเพิ่มเติมเกี่ยวกับทฤษฎีเหล่านี้เกี่ยวกับอนาคตของ AI โปรดดูที่ ลิงค์ที่นี่.

ดังนั้นอย่าหลอกตัวเองและเชื่ออย่างผิด ๆ ว่า AI ร่วมสมัยสามารถคิดได้เหมือนมนุษย์ ฉันคิดว่าคำถามนั้นมาถึงแนวหน้าเกี่ยวกับคำพูดของเพลโตว่าเราสามารถมีการตัดสินใจที่ดีโดยอาศัย AI เชิงคำนวณมากกว่า AI ที่มีความรู้สึกหรือไม่ คุณอาจแปลกใจที่รู้ว่าฉันจะยืนยันว่าเราสามารถมีการตัดสินใจที่ดีโดยระบบ AI ในชีวิตประจำวัน

อีกด้านหนึ่งของเหรียญนั้นก็คือเราสามารถมีระบบ AI ในชีวิตประจำวันที่ทำการตัดสินใจที่ไม่ดีได้ การตัดสินใจที่เน่าเสีย การตัดสินใจที่เต็มไปด้วยอคติและความไม่เท่าเทียมกัน คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ข้อมูลที่ครอบคลุมเกี่ยวกับจริยธรรม AI และจริยธรรม AI ของฉันสามารถดูได้ที่ ลิงค์นี้ และ ลิงค์นี้เพียงเพื่อชื่อไม่กี่

สำหรับการอภิปรายในที่นี้ ฉันต้องการนำเสนอแง่มุมที่น่าเป็นห่วงเป็นพิเศษเกี่ยวกับ AI ซึ่งผู้ที่อยู่ในเวทีจริยธรรมของ AI นั้นกำลังคร่ำครวญอย่างถูกต้องและพยายามสร้างความตระหนักรู้เกี่ยวกับ AI ประเด็นที่เงียบขรึมและสับสนนั้นค่อนข้างตรงไปตรงมาที่จะชี้ให้เห็น

นี่มันคือ: AI มีศักยภาพในโลกแห่งความเป็นจริงในการเผยแพร่ความเอนเอียงของ AI ในระดับโลกที่น่าตกใจ

และเมื่อฉันพูดว่า "ในขนาด" นี่แสดงให้เห็นอย่างชัดเจนว่ามีขนาดมหึมาทั่วโลก ขนาดมหึมา สเกลที่หลุดจากสเกล

ก่อนที่ฉันจะลงลึกถึงวิธีการปรับขนาดของอคติที่เกิดจาก AI นี้ มาทำให้มั่นใจว่าเราทุกคนมีความคล้ายคลึงกันว่า AI สามารถรวมอคติและความไม่เท่าเทียมกันที่ไม่เหมาะสมได้อย่างไร จำไว้อีกครั้งว่านี่ไม่ใช่ความหลากหลายของความรู้สึก นี่คือความสามารถทางคอมพิวเตอร์ทั้งหมด

คุณอาจสับสนว่า AI สามารถเติมอคติและความไม่เท่าเทียมกันที่ไม่พึงประสงค์แบบเดียวกับที่มนุษย์ทำได้อย่างไร เรามักจะคิดว่า AI นั้นเป็นกลาง ไม่เอนเอียง เป็นเพียงแค่เครื่องจักรที่ไม่มีอิทธิพลทางอารมณ์และความคิดที่เลวร้ายอย่างที่มนุษย์อาจมี หนึ่งในวิธีที่พบบ่อยที่สุดของ AI ที่ตกอยู่ในอคติและความไม่เท่าเทียมกันเกิดขึ้นเมื่อใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ซึ่งส่วนหนึ่งเป็นผลมาจากการอาศัยข้อมูลที่เก็บรวบรวมเกี่ยวกับวิธีการตัดสินใจของมนุษย์

ให้เวลาฉันอธิบายรายละเอียดสักครู่

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณด้วย Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึมหรือ ADM ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

สิ่งนี้นำเราไปสู่เรื่องของความเอนเอียงของ AI เมื่ออยู่ในขอบเขต

อันดับแรก ลองมาดูว่าอคติของมนุษย์อาจสร้างความไม่เท่าเทียมกันได้อย่างไร บริษัทที่ทำสินเชื่อจำนองตัดสินใจจ้างตัวแทนสินเชื่อจำนอง ตัวแทนควรตรวจสอบคำขอจากผู้บริโภคที่ต้องการขอสินเชื่อบ้าน หลังจากประเมินใบสมัครแล้ว ตัวแทนจะตัดสินใจให้เงินกู้หรือปฏิเสธเงินกู้ สบายๆ.

เพื่อประโยชน์ในการอภิปราย สมมติว่าตัวแทนสินเชื่อบุคคลสามารถวิเคราะห์สินเชื่อได้ 8 รายการต่อวัน ใช้เวลาประมาณหนึ่งชั่วโมงต่อการตรวจสอบ ในสัปดาห์ทำงานห้าวัน ตัวแทนจะทำการตรวจสอบสินเชื่อประมาณ 40 ครั้ง เป็นประจำทุกปี ตัวแทนมักจะตรวจสอบสินเชื่อประมาณ 2,000 รายการ ให้หรือรับเงินเล็กน้อย

บริษัทต้องการเพิ่มปริมาณการตรวจสอบสินเชื่อ ดังนั้นบริษัทจึงจ้างตัวแทนสินเชื่อเพิ่มเติม 100 ราย สมมติว่าพวกเขาทั้งหมดมีผลผลิตใกล้เคียงกัน และนั่นก็หมายความว่าขณะนี้เราสามารถจัดการเงินกู้ได้ประมาณ 200,000 รายการต่อปี (ในอัตรา 2,000 รีวิวสินเชื่อต่อปีต่อตัวแทน) ดูเหมือนว่าเราได้เร่งดำเนินการสมัครสินเชื่อของเราแล้ว

ปรากฎว่าบริษัทได้คิดค้นระบบ AI ที่สามารถทำการตรวจสอบสินเชื่อแบบเดียวกับตัวแทนที่เป็นมนุษย์ได้ AI ทำงานบนเซิร์ฟเวอร์คอมพิวเตอร์ในระบบคลาวด์ ผ่านโครงสร้างพื้นฐานระบบคลาวด์ บริษัทสามารถเพิ่มพลังการประมวลผลให้มากขึ้นเพื่อรองรับการตรวจสอบสินเชื่อในปริมาณเท่าใดก็ได้ที่อาจจำเป็น

ด้วยการกำหนดค่า AI ที่มีอยู่ พวกเขาสามารถตรวจสอบสินเชื่อได้ 1,000 ครั้งต่อชั่วโมง สิ่งนี้สามารถเกิดขึ้นได้ 24×7 ไม่มีเวลาพักร้อนที่จำเป็นสำหรับ AI ไม่มีช่วงพักกลางวัน AI ทำงานตลอดเวลาโดยไม่บ่นว่าทำงานหนักเกินไป เราจะบอกว่าด้วยความเร็วโดยประมาณนั้น AI สามารถดำเนินการขอสินเชื่อได้เกือบ 9 ล้านครั้งต่อปี

สังเกตว่าเราเปลี่ยนจากการมีตัวแทนที่เป็นมนุษย์ 100 คนที่สามารถให้สินเชื่อได้ 200,000 ต่อปี และเพิ่มขึ้นหลายต่อหลายครั้งไปจนถึงจำนวนรีวิวที่เพิ่มสูงขึ้นมากจาก 9 ล้านรีวิวต่อปีผ่านระบบ AI เราได้ขยายการประมวลผลคำขอเงินกู้ของเราอย่างมาก ไม่ต้องสงสัยเลย

เตรียมตัวให้พร้อมสำหรับนักเตะที่อาจทำให้คุณตกเก้าอี้

สมมติว่าตัวแทนที่เป็นมนุษย์ของเรากำลังตัดสินใจกู้เงินบนพื้นฐานของอคติที่ไม่เหมาะสม บางทีบางคนอาจให้ปัจจัยทางเชื้อชาติมีบทบาทสำคัญในการตัดสินใจกู้เงิน อาจมีบางคนใช้เพศ คนอื่นใช้อายุ และอื่นๆ.

จากการตรวจสอบสินเชื่อประจำปี 200,000 รายการ มีการดำเนินการกี่ครั้งภายใต้การดูหมิ่นอคติและความไม่เท่าเทียมกันที่ไม่พึงประสงค์ บางที 10% ซึ่งประมาณ 20,000 ของคำขอเงินกู้ ที่แย่กว่านั้นคือ สมมติว่าเป็น 50% ของคำขอเงินกู้ ซึ่งในกรณีนี้มีการตัดสินใจกู้เงินปีละ 100,000 ครั้งที่ค่อนข้างลำบากใจซึ่งตัดสินใจผิดพลาด

เลวร้าย. แต่เรายังไม่ได้พิจารณาถึงความเป็นไปได้ที่น่ากลัวกว่านี้

สมมติว่า AI มีอคติที่ซ่อนอยู่ซึ่งประกอบด้วยปัจจัยต่างๆ เช่น เชื้อชาติ เพศ อายุ และอื่นๆ หาก 10% ของการวิเคราะห์สินเชื่อรายปีอยู่ภายใต้ความไม่ชอบมาพากลนี้ เรามีคำขอสินเชื่อ 900,000 รายการที่ได้รับการจัดการอย่างไม่เหมาะสม นั่นเป็นมากกว่าสิ่งที่เจ้าหน้าที่ของมนุษย์สามารถทำได้ สาเหตุหลักมาจากเพียงด้านปริมาณ ตัวแทน 100 คนเหล่านี้หากทั้งหมดทำการตรวจสอบอย่างไม่ยุติธรรมสามารถทำได้มากที่สุดในการทบทวนสินเชื่อ 200,000 ครั้งต่อปี AI สามารถทำได้เช่นเดียวกันกับบทวิจารณ์ประจำปีจำนวน 9,000,000 ครั้ง

อ๊ะ!

นี่เป็นอคติที่เกิดจาก AI อย่างแท้จริงในระดับมหาศาล

เมื่ออคติที่ไม่ดีถูกฝังอยู่ในระบบ AI การปรับขนาดแบบเดียวกับที่ดูเหมือนจะเป็นประโยชน์ได้หันมาใช้หัวของมันแล้วและกลายเป็นผลลัพธ์การปรับขนาดที่หลอกลวง ในอีกด้านหนึ่ง AI สามารถระดมกำลังอย่างเป็นประโยชน์เพื่อรองรับผู้คนที่ขอสินเชื่อบ้านมากขึ้น บนพื้นผิวที่ดูยิ่งใหญ่ AI เพื่อความดี. เราควรตบหลังตัวเองเพื่อเพิ่มโอกาสที่มนุษย์จะได้รับเงินกู้ที่จำเป็น ในขณะเดียวกัน หาก AI ฝังอคติ การปรับขนาดจะส่งผลเสียอย่างมหาศาล และเราพบว่าตัวเองจมอยู่ในความเศร้า AI สำหรับไม่ดีในระดับมหึมาอย่างแท้จริง

ดาบสองคมสุภาษิต.

AI สามารถเพิ่มการเข้าถึงการตัดสินใจได้อย่างมากสำหรับผู้ที่กำลังมองหาบริการและผลิตภัณฑ์ที่ต้องการ ไม่มีคอขวดของแรงงานที่ถูกจำกัดโดยมนุษย์อีกต่อไป โดดเด่น! อีกด้านของดาบก็คือ หาก AI มีความชั่วร้าย เช่น ความไม่เท่าเทียมกันที่ซ่อนอยู่ การสเกลขนาดใหญ่แบบเดียวกันจะเผยแพร่พฤติกรรมที่เลวร้ายนั้นในระดับที่ไม่สามารถจินตนาการได้ น่าโมโห ผิด น่าละอาย และเราไม่สามารถปล่อยให้สังคมตกอยู่ในขุมนรกที่น่าเกลียดเช่นนี้ได้

ใครก็ตามที่สับสนว่าทำไมเราถึงต้องละทิ้งความสำคัญของจริยธรรม AI ตอนนี้ควรตระหนักว่าปรากฏการณ์การปรับขนาด AI เป็นเหตุผลสำคัญที่สาปแช่งในการไล่ตามจริยธรรม AI มาใช้เวลาสักครู่เพื่อพิจารณาสั้น ๆ เกี่ยวกับหลักจริยธรรม AI หลักบางประการเพื่อแสดงให้เห็นสิ่งที่ควรจะเป็นจุดสนใจที่สำคัญสำหรับทุกคนที่ประดิษฐ์ ลงสนาม หรือใช้ AI

ตัวอย่างเช่น ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:

  • โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
  • รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
  • ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
  • ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
  • ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
  • ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้

ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:

  • รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
  • เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
  • ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
  • ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
  • ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ

ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยากต่อการถอดรหัสเช่นกัน โดยรวมแล้วเป็นการง่ายที่จะโบกมือเกี่ยวกับหลักจรรยาบรรณของ AI และวิธีการปฏิบัติโดยทั่วไป ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากเมื่อการเข้ารหัส AI ต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics โปรดทราบว่าต้องใช้หมู่บ้านในการประดิษฐ์และฟิลด์ AI ซึ่งทั้งหมู่บ้านต้องคอยจับตาดูจริยธรรม AI

การปรับขนาดอคติแบบ AI-Steed ทำงานอย่างไร

ตอนนี้ฉันเริ่มเข้าใจแล้วว่า AI สามารถบรรจุอคติได้ เราก็พร้อมที่จะตรวจสอบสาเหตุบางประการที่ว่าทำไม AI scaling จึงก้าวก่าย

พิจารณารายการหลักสำคัญนี้จากเหตุผลพื้นฐานสิบประการ:

  1. ทำซ้ำได้อย่างง่ายดาย
  2. ต้นทุนขั้นต่ำในการปรับขนาด
  3. สม่ำเสมออย่างน่ารังเกียจ
  4. ขาดการไตร่ตรองในตนเอง
  5. เชื่อฟังคนตาบอด
  6. ไม่เอียงมือ
  7. ผู้รับไม่สงสัย
  8. มีแนวโน้มที่จะไม่กระตุ้นการยั่วยุ
  9. ออร่าความเป็นธรรมเท็จ
  10. ยากที่จะหักล้าง

ฉันจะสำรวจจุดสำคัญแต่ละจุดโดยสังเขป

เมื่อคุณพยายามที่จะขยายขนาดด้วยแรงงานมนุษย์ โอกาสที่การทำเช่นนี้จะซับซ้อนอย่างมาก คุณต้องค้นหาและจ้างคน คุณต้องฝึกให้พวกเขาทำงาน คุณต้องจ่ายเงินและคำนึงถึงความต้องการและความต้องการของมนุษย์ เปรียบเทียบกับระบบ AI คุณพัฒนาและนำไปใช้ นอกเหนือจากการดูแลรักษา AI อย่างต่อเนื่อง คุณสามารถนั่งลงและปล่อยให้มันประมวลผลได้ไม่รู้จบ

ซึ่งหมายความว่า AI นั้นสามารถจำลองได้อย่างง่ายดาย คุณสามารถเพิ่มพลังในการประมวลผลได้ตามที่งานและปริมาณอาจต้องการ (คุณไม่ได้จ้างหรือเลิกจ้าง) การใช้งานทั่วโลกทำได้ด้วยการกดปุ่มเพียงปุ่มเดียวและเข้าถึงได้จากความพร้อมใช้งานของอินเทอร์เน็ตทั่วโลก การปรับขยายเป็นต้นทุนที่ต่ำที่สุดเมื่อเปรียบเทียบกับการทำงานในลักษณะเดียวกันกับแรงงานมนุษย์

แรงงานมนุษย์มีความไม่สอดคล้องกันอย่างฉาวโฉ่ เมื่อคุณมีทีมขนาดใหญ่ คุณจะมีกล่องช็อกโกแลตแท้ ๆ ที่คุณไม่มีทางรู้ได้เลยว่ามีอะไรอยู่ในมือ ระบบ AI มีแนวโน้มที่จะมีความสอดคล้องกันอย่างมาก มันทำกิจกรรมเดิมซ้ำแล้วซ้ำเล่า แต่ละครั้งจะเหมือนกับครั้งสุดท้าย

โดยปกติ เราจะชอบความสอดคล้องของ AI หากมนุษย์มีแนวโน้มที่จะมีอคติ เราก็จะมีส่วนหนึ่งของแรงงานมนุษย์ที่หลงทางอยู่เสมอ AI หากปราศจากอคติอย่างหมดจดในการก่อสร้างและความพยายามในการคำนวณ ก็จะมีความสอดคล้องกันมากขึ้น ปัญหาคือว่าหาก AI มีอคติซ่อนเร้น ความสอดคล้องกันในตอนนี้ก็น่ารังเกียจอย่างเจ็บปวด โอกาสเป็นไปได้ที่พฤติกรรมลำเอียงจะเกิดขึ้นอย่างต่อเนื่องครั้งแล้วครั้งเล่า

หวังว่ามนุษย์จะมีความเฉลียวฉลาดในการไตร่ตรองตนเองและอาจจับได้ว่าตนเองตัดสินใจลำเอียง ฉันไม่ได้บอกว่าทุกคนจะทำเช่นนั้น ฉันไม่ได้บอกว่าคนที่จับตัวเองได้จะต้องแก้ไขความผิดของพวกเขา ไม่ว่าในกรณีใด อย่างน้อยบางครั้งมนุษย์บางคนก็แก้ไขตนเองได้

AI ไม่น่าจะมีการสะท้อนตนเองด้วยคอมพิวเตอร์ในรูปแบบใด ๆ ซึ่งหมายความว่า AI ยังคงทำในสิ่งที่กำลังทำอยู่ ดูเหมือนว่าจะมีโอกาสเป็นศูนย์ที่ AI จะตรวจพบว่ากำลังดำเนินการตามส่วนได้เสีย ดังที่กล่าวไปแล้ว ฉันได้อธิบายความพยายามบางอย่างในการจัดการกับสิ่งนี้ เช่น การสร้างองค์ประกอบ AI Ethics ภายใน AI (ดู ลิงค์ที่นี่) และประดิษฐ์ AI ที่ติดตาม AI อื่น ๆ เพื่อแยกแยะกิจกรรม AI ที่ผิดจรรยาบรรณ (ดู ลิงค์ที่นี่).

หากไม่มีการไตร่ตรองในตนเองใด ๆ AI ก็มีแนวโน้มที่จะเชื่อฟังคำสั่งอย่างตาบอดต่อสิ่งที่ได้รับคำสั่งให้ทำ มนุษย์อาจไม่เชื่อฟังมากนัก มีโอกาสเป็นไปได้ที่มนุษย์บางคนที่ทำงานอยู่จะตั้งคำถามว่าพวกเขาอาจถูกชี้นำสู่ดินแดนที่ไม่เท่าเทียมกันหรือไม่ พวกเขามักจะปฏิเสธคำสั่งที่ผิดจรรยาบรรณหรืออาจจะไปตามเส้นทางของผู้แจ้งเบาะแส (ดูการรายงานข่าวของฉันที่ ลิงค์นี้). อย่าคาดหวังให้ AI ร่วมสมัยทุกวันตั้งคำถามกับการเขียนโปรแกรม

ต่อไปเราจะหันไปหาผู้ที่ใช้ AI หากคุณกำลังหาสินเชื่อบ้านและพูดคุยกับมนุษย์ คุณอาจกำลังตื่นตัวว่ามนุษย์กำลังทำให้คุณสั่นคลอนอย่างยุติธรรมหรือไม่ เมื่อใช้ระบบ AI คนส่วนใหญ่ดูเหมือนจะไม่ค่อยน่าสงสัย พวกเขามักจะคิดว่า AI นั้นยุติธรรมและไม่ได้โกรธเคืองอย่างรวดเร็ว ดูเหมือนว่า AI จะกล่อมผู้คนให้เข้าสู่ภวังค์ "มันเป็นเพียงเครื่องจักร" ยิ่งไปกว่านั้น การพยายามประท้วง AI อาจเป็นเรื่องยาก ในทางตรงกันข้าม การประท้วงว่าคุณได้รับการปฏิบัติอย่างไรจากตัวแทนที่เป็นมนุษย์นั้นง่ายกว่ามากและเป็นที่ยอมรับกันโดยทั่วไปและถือว่าเป็นไปได้

ทั้งหมดบอกว่า AI ที่มีอคติอยู่เต็มไปหมดมีจุดยืนที่น่าอับอายเหนือมนุษย์ที่มีอคติ นั่นคือในแง่ของความสามารถในการให้ AI ปรับใช้อคติเหล่านั้นอย่างหนาแน่นในระดับมหึมาโดยที่ไม่ถูกจับหรือมีผู้บริโภค ตระหนักถึงสิ่งที่เกิดขึ้นรบกวน

ในช่วงหัวเลี้ยวหัวต่อของการสนทนานี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างเพิ่มเติมที่อาจแสดงปริศนาของอคติที่ AI เพิ่มขึ้นอย่างมากในวงกว้าง

ฉันดีใจที่คุณถาม

มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI รวมถึงการแตกสาขาตามหลักจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้าน AI ที่มีจริยธรรมนี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการสนทนาอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI นั้นให้แสงสว่างแก่สิ่งใดเกี่ยวกับอคติที่เพิ่มขึ้นของ AI หรือไม่ และหากเป็นเช่นนั้น สิ่งนี้จะแสดงให้เห็นอะไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อเป็นการชี้แจงว่ารถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถยนต์ที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมดและไม่มีความช่วยเหลือจากมนุษย์ในระหว่างการขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงในระดับ 5 ซึ่งเรายังไม่รู้ด้วยซ้ำว่าสิ่งนี้จะเป็นไปได้หรือไม่และจะใช้เวลานานแค่ไหนในการเดินทาง

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ที่ขับเคลื่อนด้วยตนเองและ AI ที่มีอคติในระดับต่างๆ

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง

ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและความเป็นไปได้ของ AI ที่มีจริยธรรมซึ่งเกี่ยวข้องกับการสำรวจอคติที่เกิดจาก AI ที่เผยแพร่ในวงกว้าง

ลองใช้ตัวอย่างที่ตรงไปตรงมา รถยนต์ไร้คนขับแบบ AI กำลังดำเนินการอยู่บนถนนในละแวกของคุณ และดูเหมือนว่าจะขับขี่ได้อย่างปลอดภัย ในตอนแรก คุณให้ความสนใจเป็นพิเศษกับทุกครั้งที่คุณมีโอกาสได้เห็นรถที่ขับด้วยตัวเอง รถยนต์ไร้คนขับโดดเด่นด้วยชั้นวางเซ็นเซอร์อิเล็กทรอนิกส์ที่มีกล้องวิดีโอ หน่วยเรดาร์ อุปกรณ์ LIDAR และอื่นๆ หลังจากใช้เวลาหลายสัปดาห์ของรถยนต์ไร้คนขับที่แล่นไปรอบๆ ชุมชนของคุณ ตอนนี้คุณแทบจะไม่สังเกตเห็นเลย เท่าที่คุณทราบ มันเป็นเพียงรถอีกคันบนถนนสาธารณะที่พลุกพล่านอยู่แล้ว

เพื่อไม่ให้คุณคิดว่าเป็นไปไม่ได้หรือเป็นไปไม่ได้ที่จะทำความคุ้นเคยกับการเห็นรถที่ขับด้วยตนเอง ฉันได้เขียนบ่อยครั้งเกี่ยวกับสถานที่ที่อยู่ภายในขอบเขตของการทดลองใช้รถยนต์ไร้คนขับค่อย ๆ ชินกับการได้เห็นรถที่ตกแต่งแล้ว ดูการวิเคราะห์ของฉันที่ ลิงค์นี้. ในที่สุด ชาวบ้านหลายคนก็เปลี่ยนจากการเฆี่ยนตีอ้าปากค้าง มาเป็นการเปล่งเสียงหาวอย่างเบื่อหน่ายเมื่อได้เห็นรถที่ขับเองที่คดเคี้ยว

อาจเป็นสาเหตุหลักในตอนนี้ที่พวกเขาอาจสังเกตเห็นรถยนต์ไร้คนขับเพราะความระคายเคืองและปัจจัยที่ทำให้โกรธเคือง ระบบการขับขี่แบบ AI ที่จัดทำโดยหนังสือช่วยให้แน่ใจว่ารถยนต์ปฏิบัติตามการจำกัดความเร็วและกฎจราจรทั้งหมด สำหรับผู้ขับขี่ที่เป็นมนุษย์ที่วุ่นวายในรถยนต์ที่ขับเคลื่อนโดยมนุษย์แบบดั้งเดิม คุณอาจรู้สึกหงุดหงิดเมื่อต้องติดอยู่กับรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปฏิบัติตามกฎหมายอย่างเคร่งครัด

นั่นคือสิ่งที่เราทุกคนอาจต้องคุ้นเคย ไม่ว่าจะถูกหรือผิด

กลับมาที่เรื่องของเรา

ปรากฎว่าความกังวลที่ไม่เหมาะสมสองประการเริ่มเกิดขึ้นเกี่ยวกับรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ที่ไม่มีพิษภัยและเป็นที่ต้อนรับโดยทั่วไป โดยเฉพาะ:

ก. ที่ซึ่ง AI กำลังสัญจรไปมาในรถยนต์ที่ขับด้วยตนเองสำหรับขึ้นรถกำลังปรากฏเป็นเสียงกังวล

ข. วิธีที่ AI ปฏิบัติต่อคนเดินถนนที่ไม่ได้รับสิทธิ์ในเส้นทางนั้นกลายเป็นประเด็นเร่งด่วน

ในตอนแรก AI กำลังสัญจรไปมาในรถยนต์ที่ขับเคลื่อนด้วยตนเองทั่วทั้งเมือง ใครก็ตามที่ต้องการขอนั่งในรถที่ขับด้วยตนเองมีโอกาสเท่าเทียมกันในการเรียกรถ ค่อยๆ AI เริ่มให้รถยนต์ที่ขับเคลื่อนด้วยตนเองส่วนใหญ่สัญจรไปมาเพียงส่วนหนึ่งของเมือง ส่วนนี้สร้างรายได้มากขึ้น และระบบ AI ได้รับการตั้งโปรแกรมให้พยายามและเพิ่มรายได้ให้สูงสุดโดยเป็นส่วนหนึ่งของการใช้งานในชุมชน

สมาชิกในชุมชนในส่วนที่ยากจนของเมืองมีโอกาสน้อยที่จะสามารถนั่งรถที่ขับเองได้ เนื่องจากรถยนต์ที่ขับด้วยตนเองอยู่ไกลออกไปและสัญจรไปมาในส่วนรายได้ที่สูงขึ้นของสถานที่นั้น เมื่อมีคำขอเข้ามาจากส่วนไกลของเมือง คำขอใดๆ จากสถานที่ที่อยู่ใกล้กว่าซึ่งน่าจะอยู่ในส่วนที่ "น่านับถือ" ของเมืองจะได้รับความสำคัญสูงกว่า ในที่สุด ความพร้อมใช้งานของรถยนต์ไร้คนขับในที่อื่นใดนอกจากในส่วนที่ร่ำรวยกว่าของเมืองนั้นแทบจะเป็นไปไม่ได้เลย ซึ่งทำให้ผู้ที่อาศัยอยู่ในพื้นที่ที่ขาดแคลนทรัพยากรในขณะนี้

คุณสามารถยืนยันได้ว่า AI นั้นค่อนข้างจะอยู่ในรูปแบบของการเลือกปฏิบัติแบบตัวแทน (หรือมักเรียกกันว่าการเลือกปฏิบัติทางอ้อม) AI ไม่ได้ถูกตั้งโปรแกรมให้หลีกเลี่ยงย่านที่ยากจนเหล่านั้น แต่ “เรียนรู้” ที่จะทำเช่นนั้นผ่านการใช้ ML/DL

ประเด็นก็คือ การที่คนขับรถร่วมกันเป็นคนขับนั้นเป็นที่รู้กันดีว่าทำสิ่งเดียวกัน แม้ว่าจะไม่จำเป็นเพียงเพราะมุมการทำเงินเท่านั้น มีคนขับรถที่ส่งผู้โดยสารบางคนมีอคติที่ไม่ดีเกี่ยวกับการรับผู้โดยสารในบางส่วนของเมือง นี่เป็นปรากฏการณ์ที่ทราบกันดีอยู่แล้ว และเมืองได้วางแนวทางการตรวจสอบเพื่อจับคนขับรถที่ทำเช่นนี้ คนขับที่เป็นมนุษย์อาจประสบปัญหาในการดำเนินการคัดเลือกที่ไม่น่าพอใจ

สันนิษฐานว่า AI จะไม่มีวันตกลงไปในทรายดูดชนิดเดียวกัน ไม่มีการตั้งค่าการตรวจสอบเฉพาะทางเพื่อติดตามว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI กำลังไปอยู่ที่ใด หลังจากที่สมาชิกในชุมชนเริ่มบ่น พวกผู้นำเมืองก็ตระหนักได้ว่ากำลังเกิดอะไรขึ้น สำหรับข้อมูลเพิ่มเติมเกี่ยวกับปัญหาทั่วเมืองประเภทนี้ที่จะมีขึ้นในรถยนต์ไร้คนขับและรถยนต์ไร้คนขับ โปรดดูการรายงานข่าวของฉันที่ ลิงค์นี้ และอธิบายการศึกษาที่นำโดยฮาร์วาร์ดที่ฉันร่วมเขียนในหัวข้อนี้

ตัวอย่างของลักษณะการโรมมิ่งของรถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI นี้แสดงให้เห็นถึงข้อบ่งชี้ก่อนหน้านี้ว่าอาจมีสถานการณ์ที่เกี่ยวข้องกับมนุษย์ที่มีอคติที่ไม่เหมาะสม ซึ่งจะมีการควบคุม และ AI ที่แทนที่ไดรเวอร์ที่เป็นมนุษย์นั้นถูกทิ้งไว้ ฟรี. น่าเสียดายที่ AI สามารถเพิ่มขึ้นทีละน้อยในอคติที่คล้ายกันและทำโดยไม่มีรั้วกั้นเพียงพอ

นอกจากนี้ยังแสดงให้เห็นถึงความลำเอียงของ AI ในระดับปัญหา

ในกรณีของคนขับรถ เราอาจมีความเหลื่อมล้ำบางรูปแบบที่นี่หรือที่นั่น สำหรับระบบการขับขี่ของ AI นั้นมักจะเป็น AI ที่รวมกันเป็นหนึ่งเดียวสำหรับรถยนต์ที่ขับเคลื่อนด้วยตนเองทั้งหมด ดังนั้น เราอาจเริ่มด้วยรถยนต์ที่ขับเองได้ 500 คันในเมือง (ทั้งหมดใช้รหัส AI เดียวกัน) และค่อยๆ เพิ่มขึ้นจนเป็นรถยนต์ที่ขับเองได้ XNUMX คัน (ทั้งหมดใช้รหัส AI เดียวกัน) เนื่องจากรถยนต์ที่ขับด้วยตนเองจำนวนห้าร้อยคันนั้นใช้ AI เดียวกัน จึงมีความลำเอียงและความเหลื่อมล้ำที่ฝังอยู่ภายใน AI เหมือนกัน

การปรับขนาดทำร้ายเราในเรื่องนั้น

ตัวอย่างที่สองเกี่ยวข้องกับ AI ในการพิจารณาว่าจะหยุดรอคนเดินถนนที่ไม่มีสิทธิ์ข้ามถนนหรือไม่

ไม่ต้องสงสัยเลยว่าคุณเคยขับรถมาและพบกับคนเดินถนนที่รอข้ามถนน แต่พวกเขาไม่มีสิทธิ์ทำเช่นนั้น นี่หมายความว่าคุณมีดุลยพินิจว่าจะหยุดและปล่อยให้พวกเขาข้ามไปหรือไม่ คุณสามารถดำเนินการได้โดยไม่ปล่อยให้ข้ามไป และยังคงอยู่ภายใต้กฎการขับขี่ที่ถูกกฎหมายโดยสมบูรณ์ในการทำเช่นนั้น

การศึกษาวิธีที่คนขับตัดสินใจหยุดหรือไม่หยุดสำหรับคนเดินถนนดังกล่าว ได้เสนอแนะว่าบางครั้งคนขับที่เป็นมนุษย์อาจเลือกโดยพิจารณาจากอคติที่ไม่ดี คนขับที่เป็นมนุษย์อาจมองคนเดินถนนและเลือกที่จะไม่หยุด แม้ว่าพวกเขาจะหยุดแล้วก็ตามหากคนเดินถนนมีรูปลักษณ์ที่ต่างออกไป เช่น ตามเชื้อชาติหรือเพศ ฉันได้ตรวจสอบสิ่งนี้ที่ ลิงค์ที่นี่.

ลองนึกภาพว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองที่ใช้ AI ได้รับการตั้งโปรแกรมให้จัดการกับคำถามว่าจะหยุดหรือไม่หยุดสำหรับคนเดินถนนที่ไม่มีสิทธิ์เดินทาง นี่คือวิธีที่นักพัฒนา AI ตัดสินใจตั้งโปรแกรมงานนี้ พวกเขารวบรวมข้อมูลจากกล้องวิดีโอของเมืองที่วางอยู่ทั่วเมือง ข้อมูลนี้แสดงให้เห็นคนขับรถที่จอดสำหรับคนเดินถนนที่ไม่มีสิทธิ์ของทางและคนขับที่ไม่หยุดนิ่ง มันถูกรวบรวมเป็นชุดข้อมูลขนาดใหญ่

โดยใช้การเรียนรู้ของเครื่องและการเรียนรู้เชิงลึก ข้อมูลจะถูกจำลองด้วยการคำนวณ จากนั้นระบบขับเคลื่อน AI จะใช้โมเดลนี้ในการตัดสินใจว่าจะหยุดหรือไม่หยุด โดยทั่วไปแล้ว แนวคิดก็คือไม่ว่าประเพณีท้องถิ่นจะประกอบด้วยอะไรก็ตาม นี่คือวิธีที่ AI ขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเอง

สร้างความประหลาดใจให้กับบรรดาผู้นำเมืองและชาวเมือง เห็นได้ชัดว่า AI เลือกที่จะหยุดหรือไม่หยุดโดยพิจารณาจากรูปลักษณ์ของคนเดินถนน รวมถึงเชื้อชาติและเพศของพวกเขา เซ็นเซอร์ของรถยนต์ที่ขับด้วยตนเองจะสแกนคนเดินถนนที่รออยู่ ป้อนข้อมูลนี้ลงในแบบจำลอง ML/DL และแบบจำลองจะปล่อยไปยัง AI ว่าจะหยุดหรือดำเนินการต่อ น่าเศร้าที่เมืองนี้มีอคติเกี่ยวกับคนขับจำนวนมากอยู่แล้วในเรื่องนี้และตอนนี้ AI ก็เลียนแบบสิ่งเดียวกัน

ตัวอย่างนี้แสดงให้เห็นว่าระบบ AI อาจเพียงแค่ทำซ้ำอคติที่ไม่ดีที่มีอยู่ก่อนแล้วของมนุษย์ นอกจากนี้ยังทำในระดับ บางครั้งคนขับรถที่เป็นมนุษย์อาจได้รับการสอนให้ทำการเลือกรูปแบบที่ไม่ดีนี้หรือบางทีอาจได้รับเลือกเป็นการส่วนตัว แต่มีโอกาสเป็นไปได้ที่คนขับที่เป็นมนุษย์ส่วนใหญ่อาจไม่ทำเช่นนี้เป็นจำนวนมาก

ในทางตรงกันข้าม ระบบขับเคลื่อน AI ที่ใช้ในการขับเคลื่อนรถยนต์ที่ขับเคลื่อนด้วยตนเองนั้นมีแนวโน้มว่าจะทำให้เกิดอคติที่เกิดขึ้นอย่างต่อเนื่องและแน่นอน

สรุป

มีหลายวิธีในการพยายามและหลีกเลี่ยงการประดิษฐ์ AI ที่มีอคติที่ไม่ดีหรือรวบรวมอคติเมื่อเวลาผ่านไป ให้มากที่สุดเท่าที่จะเป็นไปได้ แนวคิดคือการจับปัญหาก่อนที่คุณจะเข้าสู่เกียร์สูงและเร่งความเร็วสำหรับการปรับขนาด หวังว่าอคติจะไม่หลุดออกจากประตู

สมมติว่ามีอคติไม่ทางใดก็ทางหนึ่งจะเกิดขึ้นใน AI เมื่อคุณปรับใช้ AI ในวงกว้างแล้ว คุณจะไม่สามารถทำหนึ่งในแนวคิด "ยิงแล้วลืม" ของนักเทคโนโลยีที่มักเรียกกันว่า คุณต้องคอยติดตามสิ่งที่ AI กำลังทำอยู่อย่างขยันขันแข็งและพยายามตรวจหาอคติที่ไม่ดีซึ่งจำเป็นต้องได้รับการแก้ไข

ดังที่ได้กล่าวไว้ก่อนหน้านี้ วิธีการหนึ่งเกี่ยวข้องกับการทำให้มั่นใจว่านักพัฒนา AI ตระหนักถึงจรรยาบรรณของ AI และด้วยเหตุนี้จึงกระตุ้นให้พวกเขาพร้อมที่จะตั้งโปรแกรม AI เพื่อหลีกเลี่ยงเรื่องเหล่านี้ อีกช่องทางหนึ่งประกอบด้วยให้ AI เฝ้าติดตามตัวเองสำหรับพฤติกรรมที่ผิดจรรยาบรรณ และ/หรือมี AI อีกชิ้นหนึ่งที่ตรวจสอบระบบ AI อื่น ๆ สำหรับพฤติกรรมที่อาจผิดจรรยาบรรณ ฉันได้กล่าวถึงวิธีแก้ปัญหาที่เป็นไปได้อื่น ๆ มากมายในงานเขียนของฉัน

ความคิดสุดท้ายสำหรับตอนนี้ เมื่อเริ่มการสนทนานี้ด้วยคำพูดของเพลโต อาจเป็นการเหมาะสมที่จะปิดวาทกรรมด้วยคำพูดที่เฉียบแหลมของเพลโต

เพลโตกล่าวว่าการทำความดีซ้ำซากไม่มีอันตราย

ความสะดวกในการขยายวงกว้างด้วย AI นั้นเป็นวิธีการที่เป็นไปได้ในการบรรลุความทะเยอทะยานที่มองโลกในแง่ดีเมื่อ AI เป็นของ AI เพื่อความดี ความหลากหลาย. เราลิ้มรสการทำซ้ำสิ่งที่ดี เมื่อ AI เป็น AI สำหรับไม่ดี และเต็มไปด้วยอคติและความไม่เท่าเทียมที่ไม่ดี เราอาจพึ่งพาคำพูดของเพลโตและกล่าวว่าการทำสิ่งเลวร้ายซ้ำๆ นั้นก่อให้เกิดอันตรายมากมาย

มาฟังคำพูดอันชาญฉลาดของเพลโตอย่างระมัดระวังและประดิษฐ์ AI ของเราตามนั้น

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- ระบบระดับโลก-โดยเฉพาะอย่างยิ่ง-เชื้อเพลิง-ผ่าน-ปรากฏ-อย่างเต็มที่-autonomous-systems/