จรรยาบรรณของ AI และกฎหมาย AI ชี้แจงข้อเท็จจริงที่น่าเชื่อถือ AI

ความไว้วางใจคือทุกสิ่งดังนั้นพวกเขาจึงพูด

นักปรัชญาชื่อดังเล่าจื๊อกล่าวว่าผู้ที่ไม่วางใจเพียงพอจะไม่ได้รับความไว้วางใจ เออร์เนสต์ เฮมิงเวย์ นักเขียนนวนิยายที่มีชื่อเสียงกล่าวว่าวิธีที่ดีที่สุดในการตรวจสอบว่าคุณไว้ใจใครซักคนได้หรือไม่คือการเชื่อใจพวกเขา

ในขณะเดียวกัน ดูเหมือนว่าความไว้วางใจนั้นมีค่าและเปราะบาง ความไว้วางใจที่มีสามารถพังทลายได้เหมือนบ้านไพ่หรือระเบิดอย่างกะทันหันเหมือนลูกโป่งแตก

โศกนาฏกรรมชาวกรีกโบราณ Sophocles ยืนยันว่าความเชื่อใจนั้นตายแต่ไม่ไว้วางใจผลิดอกออกผล นักปรัชญาและนักคณิตศาสตร์ชาวฝรั่งเศส Descartes แย้งว่า เป็นการรอบคอบที่จะไม่ไว้ใจผู้ที่หลอกลวงเราแม้แต่ครั้งเดียว วอร์เรน บัฟเฟตต์ มหาเศรษฐีนักลงทุนด้านธุรกิจ เตือนว่าต้องใช้เวลายี่สิบปีในการสร้างชื่อเสียงที่น่าเชื่อถือ และห้านาทีในการทำลายชื่อเสียง

คุณอาจแปลกใจที่รู้ว่ามุมมองที่หลากหลายเหล่านี้และความคิดเห็นที่ยั่วยุเกี่ยวกับความไว้วางใจมีความสำคัญต่อการถือกำเนิดของปัญญาประดิษฐ์ (AI)

ใช่ มีสิ่งที่เรียกว่า AI ที่น่าเชื่อถือ ที่ได้รับความสนใจอย่างมากในทุกวันนี้ รวมถึงการดึงมือจากภายในขอบเขตของ AI และการปะทุอย่างอึกทึกจากผู้ที่อยู่นอกขอบเขต AI แนวคิดโดยรวมระบุว่าสังคมจะเต็มใจให้ความไว้วางใจในระบบ AI หรือไม่

สมมุติว่าหากสังคมไม่เชื่อหรือไม่สามารถไว้วางใจ AI ได้ โอกาสที่ระบบ AI จะล้มเหลวในการดึง AI อย่างที่เราทราบตอนนี้จะถูกผลักออกไปและเก็บฝุ่นเท่านั้น น่าตกใจที่ AI อาจลงเอยที่กองขยะ ซึ่งในอดีตเคยตกชั้นไปเป็นอย่างอื่นนอกจากการทดลองไฮเทคที่พยายามอย่างยิ่งยวดแต่ล้มเหลวอย่างน่าทึ่ง ความพยายามใดๆ ในการชุบชีวิต AI ใหม่อาจต้องเผชิญกับการต่อสู้ที่ยากลำบากและถูกระงับจากการคัดค้านและการประท้วงอย่างตรงไปตรงมาทุกรูปแบบ อย่างเห็นได้ชัด เนื่องจากขาดความเชื่อมั่นใน AI

เราควรวางใจใน AI หรือไม่เชื่อ AI?

โดยพื้นฐานแล้วเราจะมี AI ที่น่าเชื่อถือจริง ๆ หรือไม่?

เหล่านี้เป็นคำถามที่ในอดีตและยังไม่ได้แก้ไข แกะกล่องกันเลย

จริยธรรม AI และการต่อสู้เพื่อ AI ที่น่าเชื่อถือ

ความเชื่อของหลายๆ คนใน AI ก็คือ นักพัฒนาระบบ AI สามารถสร้างความเชื่อมั่นใน AI ได้โดยการสร้าง AI ที่น่าเชื่อถืออย่างเหมาะสม สิ่งสำคัญคือคุณไม่สามารถหวังที่จะได้รับความไว้วางใจได้หาก AI ดูเหมือนจะไม่น่าเชื่อถือตั้งแต่เริ่มต้น การสร้างระบบ AI ในลักษณะที่ถือว่าเชื่อถือได้มีโอกาสสูงที่ผู้คนจะยอมรับ AI และนำ AI มาใช้

ความไม่พอใจอย่างหนึ่งที่จู้จี้กับการพิจารณา AI ที่น่าเชื่อถือนี้คือเราอาจอยู่ในa .แล้ว การขาดดุลความไว้วางใจสาธารณะ เมื่อพูดถึง AI คุณสามารถพูดได้ว่า AI ที่เราเคยเห็นได้ขุดหลุมและทำลายความไว้วางใจในปริมาณมหาศาล ดังนั้น แทนที่จะเริ่มต้นที่ฐานความน่าเชื่อถือที่เพียงพอ AI จะต้องปีนออกจากการขาดดุลอย่างน่าประหลาดใจ โดยพยายามหาความไว้วางใจเพิ่มแต่ละออนซ์ที่ต้องการ ซึ่งจำเป็นต่อการโน้มน้าวผู้คนว่า AI นั้นน่าเชื่อถือจริง ๆ

ความท้าทายนี้มาพร้อมกับจริยธรรม AI และกฎหมาย AI

จริยธรรม AI และกฎหมาย AI กำลังดิ้นรนอย่างมากกับการพยายามค้นหาว่าจะต้องทำอย่างไรเพื่อให้ AI น่าเชื่อถือ บางคนแนะนำว่ามีสูตรหรือกฎเหล็กที่จะนำ AI ไปสู่สวรรค์ที่น่าเชื่อถือ คนอื่น ๆ ระบุว่าจะต้องทำงานหนักและยึดมั่นในหลักจริยธรรม AI และกฎหมาย AI อย่างสม่ำเสมอและไม่หยุดยั้งเพื่อให้ได้รับความไว้วางใจจากสังคม

ปริศนาร่วมสมัยเกี่ยวกับความไว้วางใจใน AI ไม่ใช่เรื่องใหม่โดยเฉพาะ

คุณสามารถย้อนกลับไปช่วงปลายทศวรรษ 1990 ได้อย่างง่ายดายและติดตามการเกิดขึ้นของความต้องการ "การประมวลผลที่เชื่อถือได้" ที่แสวงหาจากสมัยนั้น นี่เป็นความพยายามของอุตสาหกรรมเทคโนโลยีขนาดใหญ่ในการพิจารณาว่าคอมพิวเตอร์ทั้งหมดสามารถสร้างขึ้นในลักษณะที่สังคมสามารถตีความได้ว่าเชื่อถือได้หรือไม่

คำถามสำคัญประกอบด้วย:

  • ฮาร์ดแวร์คอมพิวเตอร์สามารถสร้างขึ้นได้อย่างน่าเชื่อถือหรือไม่?
  • ซอฟต์แวร์สามารถสร้างขึ้นเพื่อให้เชื่อถือได้หรือไม่?
  • เราสามารถวางคอมพิวเตอร์เครือข่ายทั่วโลกที่น่าเชื่อถือได้หรือไม่?
  • เป็นต้น

ความรู้สึกที่แพร่หลายในตอนนั้นและที่ต่อเนื่องมาจนถึงทุกวันนี้ก็คือ คอมพิวเตอร์ที่เชื่อถือได้ยังคงเป็นจอกศักดิ์สิทธิ์ประเภทหนึ่งที่น่าเสียดายที่ยังไม่ถึงมือเรา (ดังที่ระบุไว้ในบทความเรื่อง “Trustworthy AI” ใน การสื่อสารของ ACM). คุณสามารถโต้แย้งได้อย่างน่าเชื่อถือว่า AI ยังเป็นองค์ประกอบอื่นของการห่อหุ้มความน่าเชื่อถือในการประมวลผล แต่ AI ทำให้การแสวงหาความไว้วางใจมีความท้าทายและไม่แน่นอนมากขึ้น AI ได้กลายเป็นผู้โจมตีที่มีศักยภาพในการต่อสู้เพื่อให้ได้คอมพิวเตอร์ที่น่าเชื่อถือ อาจเป็นจุดอ่อนที่สุดในห่วงโซ่เหมือนเดิม

มาดูกันว่าทำไม AI ถึงได้โกรธเคืองเกี่ยวกับการไม่น่าเชื่อถือ นอกจากนี้ เราจะสำรวจหลักการของจรรยาบรรณ AI ที่หวังว่าจะช่วยในการส่งเสริมความไว้วางใจที่รับรู้กึ่งใต้น้ำอยู่แล้ว (หรือความไม่ไว้วางใจในฟองสบู่) ของ AI ในปัจจุบัน สำหรับการครอบคลุมจรรยาบรรณ AI อย่างต่อเนื่องและกว้างขวางของฉัน โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของจริยธรรม AI ที่ได้รับความสนใจจากสื่อเป็นจำนวนมากประกอบด้วย AI ที่แสดงอคติและความไม่เท่าเทียมกัน คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ตามแนวคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหา AI ที่ต่อสู้กับไฟด้วยไฟในลักษณะที่คิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ดูแลในการติดตามและตรวจจับเมื่อ AI อื่นกำลังเข้าสู่ขุมนรกที่ผิดจรรยาบรรณ (ดูการวิเคราะห์ความสามารถดังกล่าวของฉันได้ที่ ลิงค์ที่นี่).

ในอีกสักครู่ ฉันจะแบ่งปันหลักการที่ครอบคลุมเกี่ยวกับจริยธรรม AI กับคุณ มีรายการประเภทนี้มากมายที่ลอยอยู่ที่นี่และที่นั่น คุณสามารถพูดได้ว่ายังไม่มีรายการเดียวของการอุทธรณ์และการเห็นพ้องต้องกันที่เป็นสากล นั่นเป็นข่าวที่โชคร้าย ข่าวดีก็คืออย่างน้อยก็มีรายการจริยธรรม AI ที่พร้อมใช้งานและมีแนวโน้มว่าจะค่อนข้างคล้ายกัน ทั้งหมดนี้แสดงให้เห็นว่าด้วยรูปแบบของการบรรจบกันของเหตุผลต่างๆ ที่เรากำลังหาทางไปสู่ความธรรมดาทั่วไปของสิ่งที่ AI Ethics ประกอบด้วย

อันดับแรก เรามาพูดถึงหลักจริยธรรมของ AI โดยรวมโดยสังเขปเพื่อแสดงให้เห็นข้อควรพิจารณาที่สำคัญสำหรับผู้ที่ประดิษฐ์ งานภาคสนาม หรือใช้ AI

ตัวอย่างเช่น ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:

  • โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
  • รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
  • ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
  • ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
  • ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
  • ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้

ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:

  • รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
  • เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
  • ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
  • ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
  • ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ

ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยังเป็นสิ่งที่ยากต่อการถอดรหัส โดยรวมแล้วเป็นการง่ายที่จะโบกมือว่าหลักจรรยาบรรณของ AI คืออะไรและควรปฏิบัติตามอย่างไร ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากในการเข้ารหัส AI ที่จะต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "ผู้เข้ารหัสเท่านั้น" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ระบุไว้ก่อนหน้านี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ตรวจสอบให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่).

เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

มาผูกสิ่งนี้กับคำถามเกี่ยวกับ AI ที่น่าเชื่อถือ

ดูเหมือนว่าเราจะไม่เต็มใจที่จะไว้วางใจ AI ที่แสดงอคติที่ไม่พึงประสงค์และการกระทำที่เลือกปฏิบัติ ความเชื่อของเราในกรณีนี้ก็คือว่า AI ดังกล่าวไม่น่าเชื่อถืออย่างเด็ดขาด ดังนั้นเราจะโน้มเอียงไปทางไม่ไว้วางใจ AI อย่างแข็งขัน โดยไม่ต้องไปลงน้ำในการเปรียบเทียบของมนุษย์ (ฉันจะพูดเพิ่มเติมเกี่ยวกับ AI anthropomorphizing ในชั่วขณะหนึ่ง) มนุษย์ที่แสดงอคติที่ไม่ดีก็จะได้รับการจัดอันดับว่าไม่น่าเชื่อถือเป็นพิเศษ

เจาะลึกความน่าเชื่อถือ

บางทีเราควรดูว่าเราหมายถึงอะไรเมื่อยืนยันว่าเราทำหรือไม่ไว้วางใจใครหรือบางสิ่งบางอย่าง ขั้นแรก ให้พิจารณาคำจำกัดความของความไว้วางใจในพจนานุกรมทุกวัน

ตัวอย่างของความหมายตามคำจำกัดความของความไว้วางใจคือ:

  • มั่นใจในลักษณะนิสัย ความสามารถ ความแข็งแกร่ง หรือความจริงของใครบางคนหรือบางสิ่งบางอย่าง (พจนานุกรมออนไลน์ของ Merriam-Webster)
  • อาศัยความซื่อตรง ความเข้มแข็ง ความสามารถ การค้ำประกัน ฯลฯ ของบุคคลหรือสิ่งของ (Dictionary.com)
  • เชื่อมั่นในความน่าเชื่อถือ ความจริง ความสามารถ หรือความแข็งแกร่งของใครบางคนหรือบางสิ่งบางอย่าง (พจนานุกรมออนไลน์ภาษาอ็อกซ์ฟอร์ด).

ฉันต้องการชี้ให้เห็นว่าคำจำกัดความทั้งหมดเหล่านี้หมายถึง "ใครบางคน" และในทำนองเดียวกันหมายถึง "บางสิ่ง" ว่าน่าเชื่อถือ สิ่งนี้เป็นที่น่าสังเกตเนื่องจากบางคนอาจยืนกรานว่าเราไว้วางใจมนุษย์เท่านั้นและการกระทำของความไว้วางใจนั้นสงวนไว้สำหรับมนุษยชาติโดยเฉพาะซึ่งเป็นเป้าหมายของความน่าเชื่อถือ ไม่อย่างนั้น คุณสามารถไว้วางใจในเครื่องปิ้งขนมปังในครัวของคุณ หากดูเหมือนว่าจะทำขนมปังปิ้งของคุณได้อย่างน่าเชื่อถือและทำงานเป็นประจำ คุณสามารถมีความคล้ายคลึงว่าเครื่องปิ้งขนมปังนั้นเชื่อถือได้จริงหรือไม่

ในแนวความคิดเดียวกันนั้น AI สามารถเป็นหัวข้อของมุมมองความไว้วางใจของเราได้ โอกาสที่ความไว้วางใจที่เกี่ยวข้องกับ AI จะซับซ้อนกว่าการพูดเครื่องปิ้งขนมปังธรรมดา เครื่องปิ้งขนมปังมักจะทำอะไรได้บ้าง ระบบ AI มีแนวโน้มที่จะซับซ้อนกว่ามากและดูเหมือนว่าจะทำงานไม่โปร่งใส ความสามารถของเราในการประเมินและยืนยันความน่าเชื่อถือของ AI นั้นยากกว่ามากและนำเสนอความท้าทายที่แตกต่างออกไป

นอกจากจะซับซ้อนมากขึ้นแล้ว ระบบ AI ทั่วไปยังกล่าวอีกว่าไม่มีการกำหนดและอาจควบคุมตนเองหรือปรับตัวเองได้ เราสามารถสำรวจแนวคิดนั้นโดยสังเขป

เครื่องกำหนดแนวโน้มที่จะทำสิ่งเดียวกันซ้ำแล้วซ้ำอีก คาดการณ์ได้และด้วยรูปแบบที่มองเห็นได้อย่างชัดเจนว่าเครื่องทำงานอย่างไร คุณอาจกล่าวได้ว่าเครื่องปิ้งขนมปังทั่วไปปิ้งในลักษณะเดียวกันและมีการควบคุมการปิ้งที่กลั่นกรองการปิ้ง ซึ่งโดยทั่วไปแล้วคนที่ใช้เครื่องปิ้งขนมปังสามารถคาดเดาได้ ในทางตรงกันข้าม ระบบ AI ที่ซับซ้อนมักถูกออกแบบให้ไม่สามารถกำหนดได้ ซึ่งหมายความว่าระบบอาจทำสิ่งต่าง ๆ ค่อนข้างแตกต่างไปจากที่คุณคาดไว้เป็นอย่างอื่น สิ่งนี้อาจถูกขยายเพิ่มเติมอีกบางส่วนหาก AI ถูกเขียนขึ้นเพื่อปรับตัวเอง ซึ่งเป็นแง่มุมที่เอื้อประโยชน์ให้ AI ปรับปรุงในกรณีของ ML/DL แม้ว่ายังอาจทำให้ AI สะดุดหรือเข้าสู่อันดับที่น่ารำคาญ ของความชั่วร้ายของ AI คุณอาจไม่รู้ว่าอะไรกระทบคุณในลักษณะการพูด เนื่องจากคุณถูกจับได้ว่าไม่ปลอดภัยจากการกระทำของ AI

เราจะทำอะไรได้บ้างเพื่อพยายามทำให้ AI เข้าใกล้ความน่าเชื่อถือมากขึ้น

แนวทางหนึ่งประกอบด้วยการพยายามทำให้แน่ใจว่าการสร้างและการวางระบบ AI เหล่านั้นปฏิบัติตามหลักจริยธรรมของ AI ตามที่นักวิจัย AI เหล่านี้กล่าวไว้: “ความไว้วางใจเป็นทัศนคติที่ตัวแทนจะมีพฤติกรรมตามที่คาดไว้และสามารถพึ่งพาได้เพื่อให้บรรลุเป้าหมาย ความเชื่อถือพังทลายลงหลังจากเกิดข้อผิดพลาดหรือความเข้าใจผิดระหว่างตัวแทนและบุคคลที่ไว้วางใจ สถานะทางจิตวิทยาของความไว้วางใจใน AI เป็นคุณสมบัติที่เกิดขึ้นใหม่ของระบบที่ซับซ้อน ซึ่งมักจะเกี่ยวข้องกับการออกแบบ การฝึกอบรม การปรับใช้ การวัดประสิทธิภาพ การควบคุม การออกแบบใหม่ และการฝึกอบรมซ้ำหลายครั้ง” (ระบุไว้ใน การสื่อสารของ ACM, “ความน่าเชื่อถือ ระเบียบข้อบังคับ และ AI ของมนุษย์ในวงรอบภายในภูมิภาคยุโรป” โดย Stuart Middleton, Emmanuel Letouze, Ali Hossaini และ Adriane Chapman, เมษายน 2022)

สิ่งสำคัญคือถ้าเราสามารถให้นักพัฒนา AI ปฏิบัติตามจริยธรรม AI ได้ พวกเขาหวังว่าจะจบลงด้วยการผลิต AI ที่น่าเชื่อถือ ทั้งหมดนี้เป็นสิ่งที่ดีและดี แต่ดูเหมือนว่าค่อนข้างใช้งานไม่ได้ในโลกแห่งความเป็นจริง แม้ว่ามันจะเป็นเส้นทางที่ควรค่าแก่การใฝ่หาอย่างแน่นอน

นี่คือสิ่งที่ฉันหมายถึง

สมมติว่ามีความพยายามอย่างขยันขันแข็งโดยนักพัฒนา AI ที่สร้างระบบ AI เพื่อจุดประสงค์บางอย่างซึ่งโดยทั่วไปเราจะเรียกว่า X พวกเขาต้องแน่ใจว่า AI ปฏิบัติตามกฎความโปร่งใสของจริยธรรม AI พวกเขามั่นใจอย่างยิ่งว่าความเป็นส่วนตัวถูกสร้างขึ้นอย่างเหมาะสมใน AI สำหรับหลักการทั่วไปของจริยธรรม AI เกือบทั้งหมด ผู้สร้าง AI ได้ตรวจสอบอย่างละเอียดถี่ถ้วนว่า AI นั้นตรงตามข้อกำหนดที่ให้ไว้

ตอนนี้คุณควรไว้วางใจ AI นั้นหรือไม่?

ให้ฉันช่วยกระจายความคิดของคุณเกี่ยวกับคำถามปลายเปิดนั้น

ปรากฎว่าอาชญากรไซเบอร์สามารถแทรกซึมเข้าไปใน AI และแอบเอา AI มาทำการ X และยังดึงข้อมูลทั้งหมดที่ AI กำลังรวบรวมมาให้กับแฮกเกอร์ไซเบอร์ โดยการทำเช่นนี้ ผู้กระทำความผิดเหล่านี้กำลังทำลายกฎความเป็นส่วนตัวอย่างร้ายกาจ คุณมีความสุขที่ไม่รู้ว่าสิ่งนี้กำลังเกิดขึ้นภายใต้ประทุนของ AI

ด้วยข้อมูลที่เพิ่มเข้ามา ฉันจะถามคำถามเดิมกับคุณอีกครั้ง

คุณเชื่อ AI นั้นหรือไม่?

กล้าพูดได้เลยว่าคนส่วนใหญ่จะประกาศทันทีว่าทำอย่างแน่นอน ไม่ ไว้วางใจ AI นี้โดยเฉพาะ พวกเขาอาจเชื่อถือมันก่อนหน้านี้ ตอนนี้พวกเขาเลือกที่จะไม่ถือว่า AI น่าเชื่อถืออีกต่อไป

ข้อมูลเชิงลึกที่สำคัญสองสามข้อจากตัวอย่างง่ายๆ นี้มีค่าควรแก่การไตร่ตรอง:

  • พลวัตของความน่าเชื่อถือ แม้แต่ความตั้งใจที่ดีที่สุดที่จะครอบคลุมฐานทั้งหมดเพื่อให้แน่ใจว่าจรรยาบรรณของ AI นั้นถูกสร้างขึ้นในระบบ AI ก็ไม่รับประกันว่า AI จะกลายเป็นหรือกลายเป็นอะไร เมื่อนำ AI ไปใช้แล้ว บุคคลภายนอกอาจบ่อนทำลายการสะสมของ AI อย่างมีจริยธรรม
  • การตัดราคาความไว้วางใจจากภายใน การตัดราคาความน่าเชื่อถือไม่จำเป็นต้องเป็นบุคคลภายนอก คนวงในที่ดูแลระบบ AI เป็นประจำอาจทำผิดพลาดและทำให้ AI อ่อนแอลงจนมีความน่าเชื่อถือน้อยลง นักพัฒนา AI คนนี้อาจไม่รู้เกี่ยวกับสิ่งที่พวกเขาทำ
  • การประนีประนอมของความไว้วางใจโดยไม่ตั้งใจ AI ที่ปรับตัวเองหรือควบคุมตนเองได้ในบางจุดอาจปรับตัวเองและหันเหความสนใจไปยังดินแดนที่ไม่น่าไว้วางใจ บางที AI พยายามที่จะสนับสนุนความโปร่งใสของ AI และยังพร้อมกันและประนีประนอมด้านความเป็นส่วนตัวอย่างไม่เหมาะสม
  • การกระจัดกระจายของความไว้วางใจ. การพยายามบรรลุหลักจรรยาบรรณของ AI ทั้งหมดในระดับความน่าเชื่อถือสูงสุดที่เท่ากันนั้นมักจะไม่สามารถทำได้ในทันที เนื่องจากมักเป็นไปเพื่อวัตถุประสงค์ต่าง ๆ หรือมีความขัดแย้งที่อาจเกิดขึ้นโดยธรรมชาติ เป็นมุมมองที่ค่อนข้างเป็นอุดมคติที่จะเชื่อว่าหลักจริยธรรมของ AI ทั้งหมดนั้นสอดคล้องกันอย่างฝันและทั้งหมดสามารถบรรลุถึงระดับสูงสุดที่เท่าเทียมกัน
  • ความไว้วางใจอาจมีราคาแพงกว่าจะได้รับ ค่าใช้จ่ายในการลองและบรรลุลักษณะที่คล้ายคลึงกันของ AI ที่เชื่อถือได้ผ่านการดำเนินการตามขั้นตอนที่กว้างขวางและละเอียดถี่ถ้วนและปฏิบัติตามบทสวดของหลักจริยธรรม AI นั้นค่อนข้างสูง คุณสามารถโต้แย้งได้อย่างง่ายดายว่าค่าใช้จ่ายจะถูกห้ามในแง่ของการนำระบบ AI บางตัวไปใช้ที่มีคุณค่าที่สำคัญต่อสังคมแม้ว่าเราจะพูดน้อยกว่าอุดมคติจากความปรารถนาที่น่าเชื่อถือ
  • เป็นต้น

อย่าตีความคำพูดก่อนหน้านี้อย่างผิด ๆ เพื่อแนะนำว่าเราควรหลีกเลี่ยงความพยายามในการสร้างอย่างละเอียดถี่ถ้วนและลงพื้นที่ AI ที่น่าเชื่อถือ คุณจะโยนทารกออกด้วยน้ำอาบน้ำอย่างคร่าวๆ เหมือนเดิม การตีความที่ถูกต้องคือเราจำเป็นต้องทำกิจกรรมที่ไว้วางใจเหล่านั้นเพื่อให้ AI ได้รับการพิจารณาที่น่าเชื่อถือ แต่นั่นก็ไม่ใช่วิธีรักษาทั้งหมดหรือกระสุนเงิน

เส้นทางหลายง่ามสู่ AI ที่น่าเชื่อถือ

มีวิธีหลากหลายที่สำคัญเพิ่มเติมในการมุ่งมั่นสู่ AI ที่น่าเชื่อถือ

ตัวอย่างเช่น ตามที่ฉันได้กล่าวถึงไปก่อนหน้านี้ในคอลัมน์ของฉัน กฎหมายและข้อบังคับใหม่ๆ มากมายเกี่ยวกับ AI มุ่งหวังที่จะผลักดันผู้ผลิต AI ไปสู่การประดิษฐ์ AI ที่น่าเชื่อถือ ดู ลิงค์ที่นี่ และ ลิงค์ที่นี่.

รั้วกั้นทางกฎหมายเหล่านี้มีความสำคัญในฐานะวิธีการที่ครอบคลุมเพื่อให้แน่ใจว่า AI ที่คิดค้นนั้นมีความรับผิดชอบอย่างเต็มที่สำหรับ AI ของพวกเขา หากปราศจากการเยียวยาทางกฎหมายที่อาจเกิดขึ้นและบทลงโทษที่ชอบด้วยกฎหมาย บรรดาผู้ที่ผลักดัน AI เข้าสู่ตลาดมักจะดำเนินการดังกล่าวต่อไปโดยไม่ต้องคำนึงถึงอย่างจริงจังในการบรรลุ AI ที่น่าเชื่อถือ ฉันอาจกล่าวเสริมว่าหากกฎหมายและข้อบังคับเหล่านั้นมีการวางแผนที่ไม่ดีหรือนำมาใช้อย่างไม่เหมาะสม พวกเขาอาจตัดราคาการแสวงหา AI ที่น่าเชื่อถืออย่างน่าเศร้า บางทีอาจส่งเสริม AI ที่ไม่น่าไว้วางใจอย่างน่าขันและแปลกประหลาดมากกว่า AI ที่น่าเชื่อถือ (ดูการสนทนาในคอลัมน์ของฉันสำหรับคำอธิบายเพิ่มเติม)

ฉันยังเป็นผู้ให้การสนับสนุนอย่างแข็งขันสำหรับสิ่งที่ฉันอ้างถึงอย่างกระตือรือร้นว่า บอทเทวดาผู้พิทักษ์ AI (ดูความคุ้มครองของฉันที่ ลิงค์ที่นี่). นี่เป็นวิธีการหรือแนวทางที่จะเกิดขึ้นในการพยายามต่อสู้กับไฟด้วยไฟ นั่นคือการใช้ AI เพื่อช่วยเราในการจัดการกับ AI อื่นๆ ที่อาจหรืออาจไม่น่าเชื่อถือ

อย่างแรก บริบทเบื้องหลังบางอย่างจะมีประโยชน์

สมมติว่าคุณเลือกที่จะพึ่งพาระบบ AI ที่คุณไม่มั่นใจในความน่าเชื่อถือของระบบ ข้อกังวลหลักอาจเป็นได้ว่าคุณอยู่คนเดียวในความพยายามที่จะคุ้ยเขี่ยว่า AI นั้นเชื่อถือได้หรือไม่ AI อาจคำนวณได้เร็วกว่าคุณและสามารถใช้ประโยชน์จากคุณได้ คุณต้องการใครสักคนหรือบางสิ่งบางอย่างที่อยู่เคียงข้างคุณเพื่อช่วย

มุมมองหนึ่งคือควรมีมนุษย์ในวงที่จะคอยช่วยเหลือคุณในขณะที่คุณใช้งานระบบ AI แม้ว่านี่จะเป็นวิธีแก้ปัญหา หาก AI ทำงานแบบเรียลไทม์ ซึ่งเราจะพูดคุยกันในเวลาสั้นๆ เกี่ยวกับการถือกำเนิดของรถยนต์ไร้คนขับที่ใช้ AI การมีมนุษย์อยู่ในวงจรอาจไม่เพียงพอ AI สามารถแสดงได้แบบเรียลไทม์ และเมื่อถึงเวลาที่มนุษย์ในวงที่กำหนดเข้าสู่ภาพเพื่อดูว่า AI ทำงานอย่างถูกต้องหรือไม่ ผลลัพธ์ที่ร้ายแรงอาจเกิดขึ้นแล้ว

ในทางกลับกัน สิ่งนี้ทำให้เกิดปัจจัยอื่นเกี่ยวกับความไว้วางใจ เรามักจะกำหนดระดับความน่าเชื่อถือตามบริบทหรือสถานการณ์ที่เรากำลังเผชิญ คุณอาจไว้วางใจลูกชายหรือลูกสาววัยเตาะแตะของคุณอย่างเต็มที่ว่าจะซื่อสัตย์ต่อคุณ แต่ถ้าคุณออกไปเดินป่าและตัดสินใจพึ่งพาเด็กวัยหัดเดินเพื่อบอกคุณว่าการเหยียบขอบหน้าผานั้นปลอดภัยหรือไม่ ฉันคิดว่าคุณน่าจะฉลาด เพื่อพิจารณาว่าลูกวัยเตาะแตะสามารถให้คำแนะนำเรื่องชีวิตหรือความตายแบบนั้นได้ เด็กอาจทำเช่นนั้นอย่างจริงจังและจริงใจ แต่กระนั้นก็ไม่สามารถให้คำแนะนำดังกล่าวได้อย่างเพียงพอ

แนวคิดเดียวกันนี้เกี่ยวข้องกับความไว้วางใจเมื่อพูดถึง AI ระบบ AI ที่คุณใช้ในการเล่นหมากฮอสหรือหมากรุกอาจไม่เกี่ยวข้องกับการพิจารณาเรื่องชีวิตหรือความตาย คุณจะรู้สึกสบายใจมากขึ้นกับงานมอบหมายความไว้วางใจของคุณ รถยนต์ที่ขับเคลื่อนด้วยตนเองโดยใช้ AI ซึ่งแล่นไปตามทางหลวงด้วยความเร็วสูงนั้นต้องการความไว้วางใจในระดับที่เข้มข้นกว่ามาก ระบบขับเคลื่อน AI ที่ผิดพลาดเพียงเล็กน้อยอาจนำไปสู่ความตายและการเสียชีวิตของผู้อื่นโดยตรง

ในบทสัมภาษณ์ของ Beena Ammanath ผู้อำนวยการบริหาร Global Deloitte AI Institute และผู้แต่งหนังสือ AI ที่น่าเชื่อถือ การเน้นที่คล้ายคลึงกันในการพิจารณาแง่มุมตามบริบทว่าความน่าเชื่อถือของ AI เข้ามามีบทบาทอย่างไร: “หากคุณกำลังสร้างโซลูชัน AI ที่ทำการวินิจฉัยผู้ป่วย ความยุติธรรมและอคติมีความสำคัญอย่างยิ่ง แต่ถ้าคุณกำลังสร้างอัลกอริธึมที่คาดการณ์ความล้มเหลวของเครื่องยนต์ไอพ่น ความเป็นธรรมและอคติก็ไม่สำคัญเท่า AI ที่น่าเชื่อถือนั้นเป็นโครงสร้างที่ช่วยให้คุณเริ่มคิดเกี่ยวกับมิติของความไว้วางใจภายในองค์กรของคุณ” (VentureBeat, 22 มีนาคม 2022).

เมื่อพูดถึง AI ที่น่าเชื่อถือ คุณสามารถตีความหัวข้อนี้ได้หลายวิธี

ตัวอย่างเช่น AI ที่น่าเชื่อถือ เป็นสิ่งที่เราทุกคนมองว่าเป็นเป้าหมายที่พึงปรารถนาและเป็นแรงบันดาลใจ กล่าวคือ เราควรปรารถนาที่จะคิดค้นและเผยแพร่ AI ที่น่าเชื่อถือ มีการใช้งานอื่นของบทกลอน อีกทางเลือกหนึ่งคือ AI ที่น่าเชื่อถือ เป็นสภาวะหรือการวัดที่บางคนอาจยืนยันว่าพวกเขาได้สร้างระบบ AI ที่เป็นตัวอย่างของ AI ที่น่าเชื่อถือ คุณสามารถใช้วลี AI ที่น่าเชื่อถือ เพื่อแนะนำวิธีการหรือแนวทางที่สามารถนำมาใช้เพื่อให้เกิดความน่าเชื่อถือของ AI เป็นต้น

ในบันทึกที่เกี่ยวข้อง ฉันเชื่อว่าคุณตระหนักดีว่า AI ทั้งหมดไม่เหมือนกัน และเราต้องระวังที่จะไม่สร้างข้อความครอบคลุมเกี่ยวกับ AI ทั้งหมด ระบบ AI ใดระบบหนึ่งมีแนวโน้มที่จะแตกต่างอย่างมากจากระบบ AI อื่น หนึ่งในระบบ AI เหล่านั้นอาจมีความน่าเชื่อถือสูง ในขณะที่ระบบอื่นอาจเชื่อถือได้เพียงเล็กน้อย โปรดใช้ความระมัดระวังในการสันนิษฐานว่า AI เป็นเสาหินที่น่าเชื่อถือทั้งหมดหรือไม่น่าเชื่อถือโดยสิ้นเชิง

นี่ไม่ใช่กรณี

ฉันอยากจะกล่าวถึงงานวิจัยที่กำลังดำเนินการอยู่ของฉันเกี่ยวกับ AI ที่น่าเชื่อถือซึ่งคุณอาจสนใจโดยครอบคลุมถึงบทบาทที่เกิดขึ้นของ บอทเทวดาผู้พิทักษ์ AI.

นี่คือวิธีที่มันไป

คุณจะติดอาวุธด้วยระบบ AI (บอทเทวดาผู้พิทักษ์ AI) ที่ออกแบบมาเพื่อวัดความน่าเชื่อถือของระบบ AI อื่น ๆ บอทเทวดาผู้พิทักษ์ AI มีความสำคัญยิ่งต่อความปลอดภัยของคุณ ลองนึกดูว่าคุณมีวิธีการตรวจสอบ AI ที่คุณพึ่งพาได้โดยการมีระบบ AI ที่แตกต่างกันในกระเป๋าของคุณ บางทีอาจทำงานบนสมาร์ทโฟนหรืออุปกรณ์อื่นๆ ดังกล่าว ผู้พิทักษ์ AI ที่เป็นที่เลื่องลือของคุณสามารถคำนวณบนพื้นฐานที่ AI ที่คุณพึ่งพาอยู่นั้นทำงานด้วยความเร็วที่รวดเร็วและคำนวณสถานการณ์ที่อยู่ในมือแบบเรียลไทม์ ซึ่งเร็วกว่าที่คนในวงทำได้มาก

แวบแรกคุณอาจคิดว่า AI ที่คุณวางใจอยู่แล้วควรจะมีบ้าง ภายใน ราวกันตก AI ที่ทำเช่นเดียวกันกับบอทเทวดาผู้พิทักษ์ AI ที่คำนวณแยกต่างหาก ใช่ว่าจะเป็นที่ต้องการอย่างแน่นอน ประการหนึ่งคือรั้ว AI ที่สร้างขึ้นในระบบ AI อาจมีความสอดคล้องกันและมีอคติกับ AI ต่อตัว ดังนั้น AI guardrail จึงไม่สามารถตรวจสอบหรือตรวจสอบ AI ได้อย่างอิสระ

แนวคิดที่แตกต่างคือบอทเทวดาผู้พิทักษ์ AI ของคุณเป็นกลไก AI อิสระหรือบุคคลที่สามซึ่งแตกต่างจาก AI ที่คุณพึ่งพา มันอยู่นอก AI อื่น ๆ ที่ยังคงอุทิศให้กับคุณและไม่ได้อุทิศให้กับ AI ที่ถูกตรวจสอบหรือประเมิน

วิธีคิดที่ตรงไปตรงมาเกี่ยวกับเรื่องนี้สามารถแสดงผ่านข้อความที่คล้ายสมการแบบง่ายต่อไปนี้ เราอาจกล่าวได้ว่า “P” ปรารถนาที่จะไว้วางใจ “R” เพื่อทำงานเฉพาะ “X”:

นี่จะเป็นสิ่งต่อไปนี้เมื่อมีคนที่เกี่ยวข้องเท่านั้น:

  • บุคคล P ไว้วางใจให้บุคคล R ทำงาน X

เมื่อเราเลือกที่จะพึ่งพา AI คำสั่งจะเปลี่ยนรูปร่างดังนี้:

  • Person P ไว้วางใจ AI instance-R ให้ทำงาน X

เราสามารถเพิ่มบอทเทวดาผู้พิทักษ์ AI โดยพูดว่า:

  • Person P ไว้วางใจ AI instance-R ให้ทำงาน X ว่าถูกตรวจสอบโดย AI Guardian angel bot instance-Z

บอทเทวดาผู้พิทักษ์ AI ประเมิน AI ที่คุณพึ่งพาอย่างไม่รู้จักเหน็ดเหนื่อยและไม่รู้จักเหน็ดเหนื่อย ด้วยเหตุนี้ ผู้พิทักษ์ AI ที่มีประโยชน์ของคุณจึงอาจเตือนคุณว่าความไว้วางใจของ AI อื่นนี้ไม่สมเหตุสมผล หรือผู้พิทักษ์ AI อาจโต้ตอบทางอิเล็กทรอนิกส์กับ AI อื่น ๆ เพื่อพยายามให้แน่ใจว่าสิ่งที่แตกต่างจากความน่าเชื่อถือนั้นถูกต้องอย่างรวดเร็วเป็นต้น (ดูรายละเอียดของฉันในรายละเอียดดังกล่าวได้ที่ ลิงค์ที่นี่).

คำอุปมาเกี่ยวกับอ่างเก็บน้ำ Trusty Trust

เนื่องจากเรากำลังพูดถึงระดับความไว้วางใจที่แตกต่างกัน คุณอาจพบการใช้คำอุปมาที่มีประโยชน์เกี่ยวกับความน่าเชื่อถือโดยพิจารณาถึงความไว้วางใจเป็นแหล่งข้อมูลประเภทหนึ่ง

คุณมีความไว้วางใจจำนวนหนึ่งสำหรับบุคคลหรือสิ่งของบางอย่างในสถานการณ์เฉพาะ ณ จุดใดเวลาหนึ่ง ระดับของความไว้วางใจจะเพิ่มขึ้นหรือลดลง ขึ้นอยู่กับสิ่งที่เกิดขึ้นที่เกี่ยวข้องกับบุคคลหรือสิ่งนั้น ความไว้วางใจอาจอยู่ในระดับศูนย์เมื่อคุณไม่มีความไว้วางใจใด ๆ สำหรับบุคคลหรือสิ่งของ ความไว้วางใจอาจเป็นลบเมื่อคุณเสี่ยงที่จะมีความไม่ไว้วางใจในบุคคลหรือสิ่งนั้น

ในกรณีของระบบ AI แหล่งความเชื่อถือของคุณสำหรับ AI ที่คุณพึ่งพาในสถานการณ์เฉพาะจะเพิ่มขึ้นหรือลดลงตามการประเมินความน่าเชื่อถือของ AI ของคุณ ในบางครั้ง คุณอาจตระหนักดีถึงระดับความเชื่อถือที่แตกต่างกันเกี่ยวกับ AI นี้ ในขณะที่ในบางกรณี คุณอาจตระหนักน้อยลงและมากขึ้นด้วยลางสังหรณ์เกี่ยวกับความน่าเชื่อถือ

วิธีที่เราได้พูดคุยกันในที่นี้เกี่ยวกับวิธีเพิ่มระดับความน่าเชื่อถือสำหรับ AI ได้แก่:

  • การปฏิบัติตามจรรยาบรรณ AI หาก AI ที่คุณพึ่งพาถูกคิดค้นขึ้นโดยพยายามปฏิบัติตามหลักจริยธรรม AI ที่เหมาะสม คุณอาจจะใช้ความเข้าใจนี้เพื่อเพิ่มระดับของแหล่งเก็บความไว้วางใจของคุณสำหรับระบบ AI นั้นโดยเฉพาะ ข้อสังเกต เป็นไปได้เช่นกันว่าคุณอาจสรุประบบ AI อื่น ๆ เกี่ยวกับความน่าเชื่อถือ เช่นเดียวกัน แม้ว่าบางครั้งอาจเป็นรูปแบบที่ทำให้เข้าใจผิดในสิ่งที่ฉันเรียกว่า AI เชื่อออร่ากระจาย (ระมัดระวังในการทำเช่นนี้!)
  • ใช้ Human-In-The-Loop หาก AI มีมนุษย์อยู่ในวง คุณอาจเพิ่มความเชื่อมั่นใน AI ที่คุณรับรู้ได้
  • กำหนดกฎหมายและข้อบังคับ. หากมีกฎหมายและข้อบังคับที่เกี่ยวข้องกับ AI ประเภทนี้ คุณอาจเพิ่มระดับความไว้วางใจของคุณได้เช่นกัน
  • จ้าง AI Guardian Angel Bot. หากคุณมีบอทเทวดาผู้พิทักษ์ AI พร้อม สิ่งนี้จะช่วยเพิ่มระดับความไว้วางใจของคุณ

ดังที่กล่าวไว้ก่อนหน้านี้ ความไว้วางใจอาจเปราะบางและแตกสลายในทันที

ลองนึกภาพว่าคุณอยู่ในรถยนต์ที่ขับเคลื่อนด้วยตัวเองโดยใช้ AI และการขับรถของ AI นั้นทำให้เลี้ยวขวาอย่างรุนแรง ทำให้ล้อส่งเสียงแหลมและเกือบจะบังคับให้รถยนต์อิสระต้องพลิกคว่ำที่ใกล้สูญพันธุ์ จะเกิดอะไรขึ้นกับระดับความไว้วางใจของคุณ? ดูเหมือนว่าแม้ว่าก่อนหน้านี้คุณถือ AI ไว้ในระดับความไว้วางใจที่สูงขึ้น คุณก็จะลดระดับความไว้วางใจของคุณลงอย่างมากและทันทีทันใดอย่างสมเหตุสมผล

ในช่วงหัวเลี้ยวหัวต่อของการอภิปรายที่หนักหน่วงนี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างเพิ่มเติมที่อาจแสดงลักษณะและขอบเขตของ AI ที่น่าเชื่อถือ มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI ซึ่งรวมถึงการขยายสาขาด้านจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นถึงประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้สามารถเข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้านจริยธรรมด้าน AI นี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงโดยใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการอภิปรายอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI นั้นให้แสงสว่างแก่การแสวงหา AI ที่น่าเชื่อถือหรือไม่ และหากเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอย่างไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อความกระจ่าง รถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมด และไม่มีความช่วยเหลือจากมนุษย์ในระหว่างงานขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถที่ขับด้วยตัวเองที่แท้จริงในระดับ 5 และเรายังไม่รู้ด้วยซ้ำว่าจะสำเร็จหรือไม่ และต้องใช้เวลานานแค่ไหนกว่าจะไปถึงที่นั่น

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ไร้คนขับและ AI ที่น่าเชื่อถือ

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันเชื่อว่ามีบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะพูดถึง

ตอนนี้เราพร้อมแล้วที่จะเจาะลึกลงไปในรถยนต์ที่ขับเคลื่อนด้วยตัวเองและ AI ที่น่าเชื่อถือ

ความไว้วางใจคือทุกสิ่ง โดยเฉพาะในกรณีของรถยนต์ที่ขับเคลื่อนด้วยตนเองโดยใช้ AI

ดูเหมือนว่าสังคมจะจับตาดูการเกิดขึ้นของรถยนต์ที่ขับด้วยตนเองอย่างระมัดระวัง ในอีกด้านหนึ่ง มีความหวังว่าการมาถึงของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงจะช่วยลดจำนวนผู้เสียชีวิตที่เกี่ยวข้องกับรถยนต์ในแต่ละปีลงได้ เฉพาะในสหรัฐอเมริกาประเทศเดียว มีผู้เสียชีวิตประมาณ 40,000 รายต่อปี และบาดเจ็บประมาณ 2.5 ล้านคนเนื่องจากอุบัติเหตุทางรถยนต์ ดูสถิติของฉันที่รวบรวมได้ที่ ลิงค์ที่นี่. มนุษย์ดื่มแล้วขับ มนุษย์ขับรถในขณะที่ฟุ้งซ่าน งานในการขับขี่รถยนต์ดูเหมือนจะประกอบด้วยการจดจ่ออยู่กับการขับขี่ซ้ำๆ และไม่ผิดเพี้ยน และหลีกเลี่ยงการเกิดอุบัติเหตุรถชน ด้วยเหตุนี้ เราอาจฝันอย่างฝันว่าระบบขับเคลื่อน AI จะนำทางรถยนต์ที่ขับด้วยตนเองซ้ำแล้วซ้ำอีกและไม่ผิดเพี้ยน คุณสามารถตีความรถยนต์ที่ขับด้วยตนเองเป็นสองส่วน ซึ่งประกอบด้วยการลดจำนวนผู้เสียชีวิตและการบาดเจ็บจากอุบัติเหตุทางรถยนต์ ควบคู่ไปกับการทำให้การสัญจรไปมาได้กว้างขึ้นและเข้าถึงได้

แต่ความกังวลในขณะเดียวกันก็ปรากฏขึ้นเหนือการรับรู้ของสังคมว่ารถยนต์ที่ขับด้วยตนเองจะปลอดภัยพอที่จะอยู่บนถนนสาธารณะของเราในวงกว้างหรือไม่

หากรถยนต์ที่ขับด้วยตนเองแม้เพียงคันเดียวชนหรือชนกันจนทำให้เสียชีวิตเพียงครั้งเดียวหรือได้รับบาดเจ็บสาหัส คุณคงคาดการณ์ได้ว่าความไว้วางใจที่สร้างขึ้นมาบ้างในปัจจุบันที่มีต่อรถยนต์ไร้คนขับที่ใช้ AI นั้นจะลดลงอย่างรวดเร็ว เราเห็นสิ่งนี้เกิดขึ้นเมื่อเหตุการณ์ที่น่าอับอายในขณะนี้เกิดขึ้นในรัฐแอริโซนาที่เกี่ยวข้องกับรถที่ขับเอง (ไม่จริง) ที่วิ่งชนและฆ่าคนเดินถนน (ดูรายงานของฉันที่ ลิงค์นี้).

ผู้เชี่ยวชาญบางคนชี้ให้เห็นว่า มันไม่ยุติธรรมและไม่เหมาะสมที่จะสร้างความเชื่อมั่นให้กับรถยนต์ที่ขับเคลื่อนด้วยตัวเองด้วย AI ในแง่ที่ว่าการชนหรือการชนกันที่ก่อให้เกิดการเสียชีวิตเพียงครั้งเดียวเท่านั้นที่จะบ่อนทำลายการทดลองใช้บนถนนสาธารณะที่ปราศจากการชน นอกจากนี้ บนพื้นฐานที่ไม่เป็นธรรมเพิ่มเติม อัตราต่อรองคือไม่ว่าแบรนด์รถยนต์ที่ขับเคลื่อนด้วยตนเองหรือรุ่นใดของ AI จะเข้าไปพัวพันกับเหตุการณ์ที่น่าเศร้า สังคมย่อมตำหนิแบรนด์รถยนต์ที่ขับด้วยตนเองทั้งหมดอย่างไม่ต้องสงสัย

รถยนต์ที่ขับเคลื่อนด้วยตนเองทั้งหมดอาจถูกละเลงโดยสรุป และอุตสาหกรรมโดยรวมอาจประสบปัญหาฟันเฟืองขนาดใหญ่ที่นำไปสู่การปิดการทดลองใช้บนถนนสาธารณะทั้งหมด

ผู้มีส่วนสนับสนุนให้เกิดการเปลี่ยนแปลงดังกล่าวพบได้ในถ้อยแถลงที่ไร้สาระโดยผู้เสนอรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างตรงไปตรงมาว่ารถยนต์ไร้คนขับทุกคันจะไม่มีใครชนได้ แนวคิดเรื่องการไม่พังทลายนี้ไม่เพียงแต่จะผิดโดยสิ้นเชิง (ดู ลิงค์ที่นี่) เป็นการสร้างอุตสาหกรรมรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างร้ายกาจสำหรับชุดความคาดหวังที่เกินคาด การประกาศที่แปลกประหลาดและไม่สามารถบรรลุผลได้เหล่านี้ว่าจะมีผู้เสียชีวิตเป็นศูนย์เนื่องจากรถยนต์ที่ขับด้วยตนเองทำให้เกิดความเข้าใจผิดว่ารถชนที่ไม่มีคนขับเป็นสัญญาณที่แน่ชัดว่าทั้งชุดและ kaboodle นั้นไร้ค่า

มีความเศร้าอย่างชัดเจนเมื่อตระหนักว่าความก้าวหน้าไปสู่รถยนต์ที่ขับด้วยตนเองและการสะสมความไว้วางใจในสังคมทีละนิดทีละน้อยอาจหายไปในทันที นั่นจะเป็นการสาธิตให้เห็นถึงความเปราะบางของความไว้วางใจ

สรุป

ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองจำนวนมากมักปฏิบัติตามหลักจริยธรรมของ AI การทำเช่นนี้เพื่อพยายามสร้างและจัดทำ AI ที่น่าเชื่อถือในแง่ของรถยนต์ที่ขับเคลื่อนด้วยตนเองด้วย AI ที่ปลอดภัยและเชื่อถือได้ โปรดทราบว่าบริษัทเหล่านั้นบางแห่งแข็งแกร่งและทุ่มเทให้กับหลักจริยธรรม AI มากกว่าบริษัทอื่นๆ นอกจากนี้ยังมีการเริ่มต้นที่เกี่ยวข้องกับรถยนต์ที่ขับเคลื่อนด้วยตัวเองเป็นครั้งคราวหรือมือใหม่ที่ดูเหมือนจะละทิ้งหลักจริยธรรม AI ส่วนใหญ่ (ดูความคิดเห็นของฉันที่ ลิงค์ที่นี่).

ในด้านอื่น ๆ กฎหมายและข้อบังคับใหม่ที่ครอบคลุมรถยนต์ที่ขับด้วยตนเองได้ค่อย ๆ ถูกนำมาใช้ในหนังสือกฎหมาย ไม่ว่าพวกเขาจะมีฟันที่จำเป็นในการสำรองข้อมูลหรือไม่นั้นก็อีกเรื่องหนึ่ง เช่นเดียวกับการบังคับใช้กฎหมายเหล่านั้นอย่างจริงจังหรือถูกมองข้าม (ดูคอลัมน์ของฉันสำหรับการวิเคราะห์ในเรื่องนี้)

นอกจากนี้ยังมีมุมไฮเทคในเรื่องนี้ด้วย ฉันได้คาดการณ์ไว้แล้วว่าเราจะค่อยๆ ได้เห็นหุ่นยนต์เทวดาผู้พิทักษ์ AI หลายรุ่นที่จะเข้ามามีบทบาทในยานยนต์ไร้คนขับและรถยนต์ไร้คนขับ เรายังไม่ได้อยู่ที่นั่น สิ่งนี้จะแพร่หลายมากขึ้นเมื่อความนิยมของรถยนต์ที่ขับด้วยตนเองนั้นแพร่หลายมากขึ้น

จุดสุดท้ายนี้นำเสนอบรรทัดที่มีชื่อเสียงเกี่ยวกับความไว้วางใจที่คุณรู้จักด้วยใจอย่างไม่ต้องสงสัย

เชื่อใจ แต่ยืนยัน

เราสามารถปล่อยให้ตัวเองขยายความไว้วางใจของเราได้ ในขณะเดียวกัน เราควรจับตามองอย่างเหยี่ยวด้วย เพื่อให้แน่ใจว่าความไว้วางใจที่เราสร้างขึ้นนั้นได้รับการยืนยันจากทั้งคำพูดและการกระทำ มาใส่ความไว้วางใจใน AI กัน แต่ตรวจสอบอย่างไม่สิ้นสุดว่าเราวางใจอย่างเหมาะสมและเปิดตาของเราให้กว้าง

คุณสามารถเชื่อใจฉันได้

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/