จริยธรรม AI สงสัยเกี่ยวกับการจัดตั้งสิ่งที่เรียกว่าธงแดง กฎหมาย AI สำหรับการเรียกอัลกอริทึมแบบลำเอียงในระบบ AI อิสระ

มาพูดถึงกฎหมายธงแดงกัน

คุณไม่ต้องสงสัยเลยว่าแนวคิดของกฎหมายธงแดงได้รับการกล่าวถึงอย่างกว้างขวางในข่าวเมื่อเร็ว ๆ นี้ หัวข้อข่าวมีมากมาย ความสนใจและการโต้เถียงกันอย่างเร่าร้อนในเรื่องดังกล่าวเป็นประเด็นที่สังคมกังวลและนำมาซึ่งกฎหมายปืนธงแดงในปัจจุบันและที่กำลังเกิดขึ้นอย่างรวดเร็ว

ฉันกล้าพูดว่าแม้ว่าคุณจะไม่คุ้นเคยกับกฎหมายธงแดงอื่น ๆ ที่ประกาศใช้ในช่วงปลายปี 1800 ที่เกี่ยวข้องกับยานยนต์และผู้บุกเบิกของรถยนต์สมัยใหม่ทุกวันในปัจจุบัน ใช่ ถูกต้อง Red Flag Laws ย้อนกลับไปในประวัติศาสตร์ แม้ว่าจะครอบคลุมหัวข้ออื่น ๆ เมื่อเปรียบเทียบกับประเด็นร่วมสมัยในปัจจุบัน โดยทั่วไปจะเรียกว่ากฎจราจรธงแดง

กฎหมายที่มีอายุหลายศตวรรษและหมดอายุขัยโดยสิ้นเชิงเหล่านี้กำหนดให้รถม้าหรือเครื่องยนต์ที่ขับเคลื่อนด้วยไอน้ำในเวลานั้นต้องมีผู้ใหญ่นำหน้ารถและถือธงสีแดงเพื่อจุดประสงค์ในการเตือน แนวคิดก็คือปศุสัตว์อาจตื่นตระหนกกับอุปกรณ์ควบคุมเสียงที่ส่งเสียงดังและกินน้ำขังซึ่งไหลลงสู่ดินหรือถนนลาดยางอย่างช้าๆ ไม่สม่ำเสมอและไม่สม่ำเสมอ ดังนั้นการที่ใครสักคนเดินไปตามทางด้านหน้าของสิ่งประดิษฐ์ในขณะที่โบกธงสีแดงอย่างแรงสามารถหวังว่าจะหลีกเลี่ยงภัยพิบัติที่เกิดขึ้นได้ ในกรณีที่คุณสงสัย รถไฟและรถไฟถือว่าไม่รวมอยู่ในกฎหมายฉบับเดียวกัน เนื่องจากเป็นยานพาหนะที่ผูกติดกับรางและมีกฎหมายอื่นที่ครอบคลุมการกระทำของตน

ลองนึกภาพว่าวันนี้ต้องโบกธงแดงเป็นข้อกำหนดสำหรับรถทุกคันบนถนนสาธารณะของเรา

ตัวอย่างเช่น ผู้ขับขี่รถยนต์ธรรมดาที่ลงมาตามถนนในละแวกบ้านของคุณจะต้องตรวจสอบให้แน่ใจว่ามีผู้ใหญ่โบกธงสีแดงและเดินขบวนอยู่หน้ารถที่กำลังเคลื่อนที่ สิ่งนี้จะต้องเกิดขึ้นกับรถทุกคันที่วิ่งผ่านถนนของคุณ บางทีคนอาจจะกลายเป็นคนจ้างงานติดธงแดงที่จ้างให้ขับรถผ่าน ซึ่งไม่มีเพื่อนหรือญาติที่สามารถอยู่ข้างหน้าพวกเขาและโบกมือตามที่กำหนดไว้ได้

ทุกวันนี้เรามักจะเชื่อมโยงการโบกธงแดงที่เกี่ยวข้องกับทางหลวงกับสถานที่ก่อสร้างถนน เมื่อคุณเข้าใกล้ถนนที่ขุดขึ้นมา คนงานจะถือธงสีแดงเพื่อดึงความสนใจของคุณ สิ่งนี้บอกคุณให้ช้าลงและตื่นตัว อาจมีรถปราบดินที่จะเข้ามาขวางทางคุณ หลุมขนาดใหญ่อาจอยู่ข้างหน้า และคุณจะต้องสำรวจไปรอบๆ อย่างระมัดระวัง

แต่กลับไปที่การใช้ธงสีแดงในปี 1800

เชื่อหรือไม่ โบกธงแดงควรจะเคลื่อนไปข้างหน้าอย่างน้อยหนึ่งในแปดของไมล์ล่วงหน้าของเครื่องยนต์ที่จะมาถึง ดูเหมือนระยะทางค่อนข้างยาว มีคนคิดว่าสิ่งนี้ทำให้รู้สึกมากมายในสมัยนั้น เสียงที่น่าตกใจของเครื่องยนต์และบางทีเพียงแค่การมองเห็นของยานพาหนะก็เพียงพอแล้วที่จะทำให้สัตว์หมดสติ กฎธงแดงบางฉบับในยุคนั้นจำเป็นต้องมีแสงสีแดงเป็นประกายในยามค่ำคืนเช่นกัน เพื่อให้มองเห็นคำเตือนล่วงหน้าสีแดงที่มองเห็นได้ชัดเจนจากระยะที่มืดลง

โดยทั่วไป ฉันคิดว่าเป็นการยุติธรรมที่จะยืนยันว่าเราในฐานะสังคมมักจะเชื่อมโยงธงสีแดงเป็นสัญญาณหรือป้ายว่ามีสิ่งผิดปกติหรืออย่างน้อยก็ต้องการการเอาใจใส่จากศรัทธาของเรา

เตรียมตัวให้พร้อมสำหรับการบิดของปรากฏการณ์ธงแดงนี้

มีการโต้แย้งว่าเราควรกำหนดให้มีธงแดงเมื่อพูดถึงปัญญาประดิษฐ์ (AI)

นั่นค่อนข้างน่าตกใจและเป็นแนวคิดที่น่าประหลาดใจที่ทำให้หลาย ๆ คนเกา คุณอาจสงสัยว่าทำไมถึงมีสิ่งที่เรียกว่า ธงแดง AI กฎหมาย. โปรดทราบว่าฉันกำลังระบุว่านี่เป็นกฎหมาย Red Flag AI เพื่อแยกความแตกต่างจากกฎหมายจราจรธงแดง (เช่นในช่วงปลายปี 1800) และเพื่อให้แตกต่างจากกฎหมายปืนธงแดงที่แพร่หลายมากขึ้นในปัจจุบัน

จริง ๆ แล้วเราต้องการกฎหมาย Red Flag AI ที่เน้นเรื่อง AI อย่างชัดเจนและเพียงอย่างเดียวหรือไม่?

ผู้ที่สนับสนุนแนวทางที่เสนอจะยืนยันว่าเราต้องการบทบัญญัติทางกฎหมายที่จะช่วยปราบปราม AI ที่มีอคติที่ไม่เหมาะสมและดำเนินการในลักษณะที่เลือกปฏิบัติ ตอนนี้ การสร้างและการใช้งาน AI นั้นคล้ายกับสถานการณ์ Wild West ในทุกกรณี ความพยายามในการควบคุม AI ที่ไม่ดีในปัจจุบันขึ้นอยู่กับการกำหนดและการนำแนวทางจริยธรรม AI มาใช้ สำหรับการครอบคลุมอย่างต่อเนื่องและกว้างขวางของฉันเกี่ยวกับจริยธรรม AI และ AI เชิงจริยธรรม โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

กฎหมายที่บรรจุอยู่ใน AI ที่ไม่ดีกำลังถูกคิดค้นและบังคับใช้อย่างช้าๆ ดูการรายงานข่าวของฉันที่ ลิงค์ที่นี่. บางคนกังวลว่าฝ่ายนิติบัญญัติจะไม่ไปเร็วพอ ดูเหมือนว่าประตูระบายน้ำที่ปล่อยให้ AI ลำเอียงได้รับการส่งเสริมในโลกนี้เปิดกว้างมากในขณะนี้ การบิดมือบอกว่าเมื่อกฎหมายใหม่มาถึงหนังสือ มารร้ายก็จะออกจากขวดแล้ว

ไม่เร็วนัก การโต้แย้งดำเนินไป ความกังวลคือหากวางกฎหมายเร็วเกินไป เราจะฆ่าห่านทองคำ อย่างที่เคยเป็น โดยที่ความพยายามของ AI จะหมดไป และเราจะไม่ได้รับประโยชน์จากระบบ AI ใหม่ที่ส่งเสริมสังคม นักพัฒนาและบริษัท AI ที่ต้องการใช้ AI อาจรู้สึกหวาดกลัวหากมีการบังคับใช้กฎหมายใหม่ที่เกี่ยวข้องกับ AI ในระดับรัฐบาลกลาง ในรัฐ และระดับท้องถิ่น โดยไม่ต้องพูดถึงกฎหมายที่เกี่ยวข้องกับ AI ระหว่างประเทศที่กำลังเดินหน้าด้วยเช่นกัน

ในเรื่องที่ยุ่งเหยิงนี้มีการเรียกร้องกฎหมาย Red Flag AI

ก่อนที่จะพูดถึงเรื่องเนื้อสัตว์และมันฝรั่งเพิ่มเติมเกี่ยวกับการพิจารณาเรื่องป่าและขนสัตว์ที่เป็นรากฐานของกฎหมาย AI ธงแดง เรามาสร้างพื้นฐานเพิ่มเติมบางประการในหัวข้อที่จำเป็นอย่างยิ่ง เราจำเป็นต้องเจาะลึกสั้นๆ เกี่ยวกับจริยธรรม AI โดยเฉพาะอย่างยิ่งการถือกำเนิดของ Machine Learning (ML) และ Deep Learning (DL)

คุณอาจทราบอย่างคลุมเครือว่าเสียงที่ดังที่สุดในยุคนี้ในด้าน AI และแม้แต่นอกสาขา AI นั้นประกอบด้วยการโห่ร้องเพื่อให้ดูเหมือน AI ที่มีจริยธรรมมากขึ้น เรามาดูกันว่าการอ้างถึง AI Ethics และ Ethical AI หมายความว่าอย่างไร ยิ่งไปกว่านั้น เราจะสำรวจสิ่งที่ฉันหมายถึงเมื่อฉันพูดถึงแมชชีนเลิร์นนิงและการเรียนรู้เชิงลึก

ส่วนใดส่วนหนึ่งหรือส่วนหนึ่งของจริยธรรม AI ที่ได้รับความสนใจจากสื่อเป็นจำนวนมากประกอบด้วย AI ที่แสดงอคติและความไม่เท่าเทียมกัน คุณอาจทราบดีว่าเมื่อยุคล่าสุดของ AI เริ่มต้นขึ้น มีความกระตือรือร้นอย่างมากในสิ่งที่บางคนเรียกว่าตอนนี้ AI เพื่อความดี. น่าเสียดายที่ความตื่นเต้นที่พุ่งพล่านนั้น เราเริ่มเห็น AI สำหรับไม่ดี. ตัวอย่างเช่น ระบบจดจำใบหน้าที่ใช้ AI หลายระบบได้รับการเปิดเผยว่ามีอคติทางเชื้อชาติและอคติทางเพศ ซึ่งฉันได้กล่าวถึง ลิงค์ที่นี่.

ความพยายามที่จะต่อต้าน AI สำหรับไม่ดี กำลังดำเนินการอย่างแข็งขัน แถมยังโวยวาย ถูกกฎหมาย การแสวงหาการควบคุมในการกระทำผิด ยังมีแรงผลักดันที่สำคัญต่อการน้อมรับจริยธรรม AI เพื่อปรับความชั่วช้าของ AI แนวความคิดคือเราควรนำมาใช้และรับรองหลักการ AI เชิงจริยธรรมที่สำคัญสำหรับการพัฒนาและการลงพื้นที่ของ AI เพื่อตัดราคา AI สำหรับไม่ดี และประกาศและส่งเสริมผู้ทรงชอบไปพร้อม ๆ กัน AI เพื่อความดี.

ตามแนวคิดที่เกี่ยวข้อง ฉันเป็นผู้สนับสนุนที่พยายามใช้ AI เป็นส่วนหนึ่งของการแก้ปัญหา AI ที่ต่อสู้กับไฟด้วยไฟในลักษณะที่คิดแบบนั้น เราอาจยกตัวอย่างการฝังองค์ประกอบ AI ที่มีจริยธรรมลงในระบบ AI ที่จะตรวจสอบว่า AI ที่เหลือทำสิ่งต่าง ๆ อย่างไรและอาจตรวจจับความพยายามในการเลือกปฏิบัติในแบบเรียลไทม์ ดูการสนทนาของฉันที่ ลิงค์ที่นี่. นอกจากนี้เรายังสามารถมีระบบ AI แยกต่างหากที่ทำหน้าที่เป็นตัวตรวจสอบจริยธรรม AI ระบบ AI ทำหน้าที่เป็นผู้ดูแลในการติดตามและตรวจจับเมื่อ AI อื่นกำลังเข้าสู่ขุมนรกที่ผิดจรรยาบรรณ (ดูการวิเคราะห์ความสามารถดังกล่าวของฉันได้ที่ ลิงค์ที่นี่).

ในอีกสักครู่ ฉันจะแบ่งปันหลักการที่ครอบคลุมเกี่ยวกับจริยธรรม AI กับคุณ มีรายการประเภทนี้มากมายที่ลอยอยู่ที่นี่และที่นั่น คุณสามารถพูดได้ว่ายังไม่มีรายการเดียวของการอุทธรณ์และการเห็นพ้องต้องกันที่เป็นสากล นั่นเป็นข่าวที่โชคร้าย ข่าวดีก็คืออย่างน้อยก็มีรายการจริยธรรม AI ที่พร้อมใช้งานและมีแนวโน้มว่าจะค่อนข้างคล้ายกัน ทั้งหมดนี้แสดงให้เห็นว่าด้วยรูปแบบของการบรรจบกันของเหตุผลต่างๆ ที่เรากำลังหาทางไปสู่ความธรรมดาทั่วไปของสิ่งที่ AI Ethics ประกอบด้วย

อันดับแรก เรามาพูดถึงหลักจริยธรรมของ AI โดยรวมโดยสังเขปเพื่อแสดงให้เห็นข้อควรพิจารณาที่สำคัญสำหรับผู้ที่ประดิษฐ์ งานภาคสนาม หรือใช้ AI

ตัวอย่างเช่น ตามที่วาติกันระบุไว้ใน กรุงโรมเรียกร้องจรรยาบรรณ AI และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลัก XNUMX ประการที่ระบุไว้:

  • โปร่งใส: โดยหลักการแล้วระบบ AI จะต้องอธิบายได้
  • รวม: ต้องคำนึงถึงความต้องการของมนุษย์ทุกคนเพื่อให้ทุกคนได้รับประโยชน์และทุกคนสามารถเสนอเงื่อนไขที่ดีที่สุดในการแสดงออกและพัฒนา
  • ความรับผิดชอบ: ผู้ที่ออกแบบและปรับใช้การใช้ AI จะต้องดำเนินการด้วยความรับผิดชอบและความโปร่งใส
  • ความเป็นกลาง: ไม่สร้างหรือกระทำการตามอคติ อันเป็นการรักษาความเป็นธรรมและศักดิ์ศรีความเป็นมนุษย์
  • ความน่าเชื่อถือ: ระบบ AI ต้องสามารถทำงานได้อย่างน่าเชื่อถือ
  • ความปลอดภัยและความเป็นส่วนตัว: ระบบ AI ต้องทำงานอย่างปลอดภัยและเคารพความเป็นส่วนตัวของผู้ใช้

ตามที่ระบุไว้โดยกระทรวงกลาโหมสหรัฐ (DoD) ในของพวกเขา หลักจริยธรรมสำหรับการใช้ปัญญาประดิษฐ์ และอย่างที่ฉันได้กล่าวถึงในเชิงลึกที่ ลิงค์ที่นี่นี่คือหลักจริยธรรม AI หลักหกประการ:

  • รับผิดชอบ: บุคลากรของ DoD จะใช้ดุลยพินิจและการดูแลที่เหมาะสมในขณะที่ยังคงรับผิดชอบในการพัฒนา การปรับใช้ และการใช้ความสามารถของ AI
  • เท่าเทียมกัน: แผนกจะดำเนินการอย่างรอบคอบเพื่อลดอคติที่ไม่ได้ตั้งใจในความสามารถของ AI
  • ติดตามได้: ความสามารถของ AI ของแผนกจะได้รับการพัฒนาและปรับใช้เพื่อให้บุคลากรที่เกี่ยวข้องมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี กระบวนการพัฒนา และวิธีการปฏิบัติงานที่ใช้กับความสามารถของ AI รวมถึงวิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ขั้นตอนการออกแบบและเอกสารประกอบ
  • ความน่าเชื่อถือ: ความสามารถด้าน AI ของแผนกจะมีการใช้งานที่ชัดเจนและชัดเจน และความปลอดภัย การรักษาความปลอดภัย และประสิทธิภาพของความสามารถดังกล่าวจะต้องได้รับการทดสอบและรับรองภายในการใช้งานที่กำหนดไว้ตลอดวงจรชีวิตทั้งหมด
  • ควบคุมได้: แผนกจะออกแบบและออกแบบความสามารถของ AI เพื่อให้เป็นไปตามหน้าที่ที่ตั้งใจไว้ ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงผลที่ไม่ได้ตั้งใจ และความสามารถในการปลดหรือปิดใช้งานระบบที่ปรับใช้ซึ่งแสดงพฤติกรรมที่ไม่ได้ตั้งใจ

ฉันยังได้พูดคุยถึงการวิเคราะห์กลุ่มต่างๆ เกี่ยวกับหลักจริยธรรมของ AI รวมถึงการกล่าวถึงชุดที่คิดค้นโดยนักวิจัยที่ตรวจสอบและสรุปสาระสำคัญของหลักจริยธรรม AI ระดับชาติและระดับนานาชาติในบทความเรื่อง “แนวปฏิบัติด้านจริยธรรม AI ทั่วโลก” (เผยแพร่ ใน ธรรมชาติ) และความครอบคลุมของฉันสำรวจที่ ลิงค์ที่นี่ซึ่งนำไปสู่รายการคีย์สโตนนี้:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

อย่างที่คุณอาจเดาได้โดยตรง การพยายามระบุรายละเอียดเฉพาะที่เป็นพื้นฐานของหลักการเหล่านี้อาจทำได้ยากมาก ยิ่งไปกว่านั้น ความพยายามที่จะเปลี่ยนหลักการกว้างๆ เหล่านั้นให้เป็นสิ่งที่จับต้องได้ทั้งหมดและมีรายละเอียดมากพอที่จะนำไปใช้ในการสร้างระบบ AI ก็ยังเป็นสิ่งที่ยากต่อการถอดรหัส โดยรวมแล้วเป็นการง่ายที่จะโบกมือว่าหลักจรรยาบรรณของ AI คืออะไรและควรปฏิบัติตามอย่างไร ในขณะที่มันเป็นสถานการณ์ที่ซับซ้อนกว่ามากในการเข้ารหัส AI ที่จะต้องเป็นยางจริงที่ตรงตามท้องถนน

นักพัฒนา AI จะใช้หลักจริยธรรม AI ร่วมกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ลงมือปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นจุดเด่นที่สำคัญเนื่องจากข้อสันนิษฐานตามปกติคือ "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ระบุไว้ก่อนหน้านี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ตรวจสอบให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ ความรู้สึก AI การอภิปรายนี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ (สำหรับการสำรวจของฉันเกี่ยวกับ AI ที่ฉลาดสุดๆ เป็นไปได้ ดู ความคุ้มครองที่นี่).

เรามาพูดถึงเรื่องต่างๆ กันมากขึ้น และพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

กลับมาที่จุดโฟกัสของเราที่ Red Flag AI Laws

แนวคิดพื้นฐานก็คือ ผู้คนจะสามารถยกธงแดงเมื่อใดก็ตามที่พวกเขาเชื่อว่าระบบ AI นั้นทำงานในลักษณะที่มีอคติหรือเลือกปฏิบัติอย่างไม่เหมาะสม คุณจะไม่ยกธงทางกายภาพต่อ se และแทนที่จะใช้วิธีการทางอิเล็กทรอนิกส์เพื่อแจ้งข้อกังวลของคุณ ส่วนธงสีแดงของโครงการหรือแนวทางเป็นคำอุปมามากกว่ารูปลักษณ์ทางกายภาพ

แกล้งทำเป็นว่าคุณกำลังสมัครสินเชื่อบ้าน คุณเลือกที่จะใช้บริการธนาคารออนไลน์เพื่อสมัครสินเชื่อ หลังจากป้อนข้อมูลส่วนตัวแล้ว คุณรอสักครู่สำหรับระบบ AI ที่กำลังถูกใช้เพื่อตัดสินว่าคุณต้องการเงินกู้ที่คุ้มค่าหรือไม่ AI บอกคุณว่าคุณถูกปฏิเสธเงินกู้ เมื่อขอคำอธิบายว่าเหตุใดคุณจึงถูกปฏิเสธ คำบรรยายแบบข้อความดูเหมือนจะแนะนำให้คุณทราบว่า AI ใช้ปัจจัยที่มีอคติเกินควรเป็นส่วนหนึ่งของอัลกอริทึมในการตัดสินใจ

ถึงเวลายกธงแดงเกี่ยวกับ AI

ธงสีแดงนี้จะโบกที่ไหนกันแน่?

นั่นเป็นคำถามล้านดอลลาร์

มุมมองหนึ่งคือเราควรสร้างฐานข้อมูลทั่วประเทศที่อนุญาตให้ผู้คนทำเครื่องหมายธงสีแดงที่เกี่ยวข้องกับ AI บางคนบอกว่าสิ่งนี้ควรได้รับการควบคุมโดยรัฐบาลกลาง หน่วยงานของรัฐบาลกลางจะรับผิดชอบในการตรวจสอบธงสีแดงและให้ความช่วยเหลือประชาชนทั่วไปเกี่ยวกับความจริงและจัดการกับ "AI ที่ไม่ดี" ที่สันนิษฐานได้ซึ่งทำให้เกิดการรายงานการติดธงแดง

ดูเหมือนว่ากฎหมาย AI ธงแดงแห่งชาติจะจัดตั้งขึ้นโดยรัฐสภา กฎหมายจะระบุว่าธงแดงที่เกี่ยวข้องกับ AI คืออะไร กฎหมายจะอธิบายว่า AI เหล่านี้ติดธงแดงอย่างไร และอื่นๆ. อาจเป็นกรณีที่แต่ละรัฐอาจเลือกที่จะสร้างกฎหมาย AI ธงแดงของตนเอง บางทีพวกเขาอาจทำเช่นนั้นแทนความคิดริเริ่มระดับชาติหรือพวกเขาทำเพื่อขยายรายละเอียดที่น่าสนใจเป็นพิเศษสำหรับรัฐเฉพาะของพวกเขา

นักวิจารณ์ของโครงการ AI ของรัฐบาลกลางหรือ Red Flag AI ที่ได้รับการสนับสนุนจากรัฐบาลจะโต้แย้งว่านี่เป็นสิ่งที่อุตสาหกรรมส่วนตัวสามารถทำได้และเราไม่ต้องการพี่ใหญ่ที่จะมาก่อน อุตสาหกรรมสามารถสร้างพื้นที่เก็บข้อมูลออนไลน์ที่ผู้คนสามารถลงทะเบียนธงแดงเกี่ยวกับระบบ AI การดำเนินการตรวจสอบตนเองโดยอุตสาหกรรมสามารถจัดการกับปัญหาเหล่านี้ได้อย่างเพียงพอ

ความไม่มั่นใจในแนวทางอุตสาหกรรมโดยอ้างว่าดูเหมือนว่าจะเป็นการวิจารณ์ บริษัทต่างๆ จะเต็มใจปฏิบัติตามฐานข้อมูล AI ของ Red Flag ที่ดำเนินการโดยเอกชนหรือไม่ หลายบริษัทอาจเพิกเฉยต่อธงสีแดงที่ทำเครื่องหมายไว้เกี่ยวกับ AI ของตน จะไม่มีฟันที่แหลมคมในการทำให้บริษัทต่างๆ จัดการกับธงแดงที่ป้อนเข้ามา

เฮ้ ผู้เสนอแนวทางของภาคเอกชนฟังดูไม่เข้าท่า นี้จะคล้ายกับบริการเหมือน Yelp ระดับประเทศ ผู้บริโภคสามารถดูธงสีแดงและตัดสินใจด้วยตัวเองว่าต้องการทำธุรกิจกับบริษัทที่มีธงสีแดงที่เน้น AI จำนวนมากหรือไม่ ธนาคารที่ได้รับธงแดงจำนวนมากเกี่ยวกับ AI ของพวกเขาจะต้องให้ความสนใจและปรับปรุงระบบ AI ของตน ดังนั้นตรรกะก็ดำเนินไป ไม่เช่นนั้นผู้บริโภคจะหลีกเลี่ยงบริษัทอย่างโรคระบาด

ไม่ว่าแนวทางทั้งหมดนี้จะดำเนินการโดยรัฐบาลหรือโดยอุตสาหกรรมเป็นเพียงส่วนเล็ก ๆ ของภูเขาน้ำแข็งในคำถามที่มีหนามซึ่งต้องเผชิญกับกฎหมาย Red Flag AI ที่เสนอ

ใส่ตัวเองเข้าไปในรองเท้าของ บริษัท ที่พัฒนาหรือใช้ AI อาจเป็นได้ว่าผู้บริโภคจะยกธงแดงแม้ว่าจะไม่มีพื้นฐานที่เหมาะสมสำหรับการทำเช่นนั้นก็ตาม หากผู้คนสามารถโพสต์ธงแดงเกี่ยวกับ AI ได้อย่างอิสระ พวกเขาอาจถูกล่อลวงให้ทำเช่นนั้นโดยเจตนา หรืออาจจะเพื่อแก้แค้นบริษัทที่ไม่ได้ทำอะไรผิดต่อผู้บริโภค

กล่าวโดยสรุป อาจมีธงแดงที่เป็นเท็จในเชิงบวกมากมายเกี่ยวกับ AI

การพิจารณาอีกประการหนึ่งคือขนาดหรือขนาดของธงสีแดงที่มหาศาล อาจมีธงแดงหลายล้านขึ้นอย่างง่ายดาย ใครจะติดตามธงแดงเหล่านั้นทั้งหมด? จะต้องเสียค่าใช้จ่ายเท่าไรในการทำเช่นนั้น? ใครจะเป็นผู้จ่ายค่าความพยายามติดตามผลธงแดง? เป็นต้น

หากคุณจะบอกว่าใครก็ตามที่ลงทะเบียนหรือรายงานธงแดงเกี่ยวกับ AI ต้องจ่ายค่าธรรมเนียม แสดงว่าคุณได้เข้าสู่อาณาจักรที่มืดมนและร้ายกาจ ที่น่ากังวลคือมีเพียงคนรวยเท่านั้นที่จะสามารถชูธงแดงได้ ในทางกลับกันก็หมายความว่าคนยากจนจะไม่สามารถเข้าร่วมกิจกรรมธงแดงได้อย่างเท่าเทียมกันและโดยพื้นฐานแล้วไม่มีสถานที่สำหรับเตือนเกี่ยวกับ AI ที่ไม่พึงประสงค์

อีกประการหนึ่งสำหรับตอนนี้ กล่าวคือ กฎหมายหรือแนวทางเกี่ยวกับ AI ที่ติดธงแดงประเภทนี้ดูเหมือนจะเป็นไปตามความจริงมากกว่าที่จะเป็นคำเตือนล่วงหน้า

กลับไปที่กฎจราจรธงแดง ความสำคัญของการใช้ธงสีแดงคือการหลีกเลี่ยงภัยพิบัติที่จะเริ่มต้น ธงแดงโบกมือควรจะอยู่ข้างหน้ารถที่กำลังจะมาถึง โดยการอยู่ข้างหน้ารถ ปศุสัตว์จะได้รับการแจ้งเตือนและผู้ที่ดูแลปศุสัตว์จะรู้ว่าพวกเขาควรใช้ความระมัดระวังเนื่องจากแหล่งรบกวนที่จะมาถึงในเร็วๆ นี้

หากผู้คนสามารถยกธงแดงเกี่ยวกับ AI ที่ดูเหมือนว่าจะทำร้ายหรือตัดสิทธิ์ของพวกเขาแล้ว ม้าสุภาษิตก็ออกจากโรงนาแล้ว ทั้งหมดที่ดูเหมือนจะสำเร็จคือหวังว่าคนอื่นที่มาพร้อมกันจะรู้ว่าควรระวังระบบ AI นั้น ในขณะเดียวกันบุคคลที่ถูกกล่าวหาว่ากระทำผิดได้รับความเดือดร้อนแล้ว

บางคนแนะนำว่าบางทีเราอาจอนุญาตให้ผู้คนยกธงแดงเกี่ยวกับ AI ที่พวกเขา สงสัย อาจมีอคติแม้ว่าจะไม่ได้ใช้ AI และไม่ได้รับผลกระทบโดยตรงจาก AI ดังนั้นธงแดงจึงโบกมือก่อนที่ความเสียหายจะเสร็จสิ้น

อ๊ะ โต้กลับ คุณกำลังจะทำให้ธงแดงที่รับมือโดย AI กลายเป็นเรื่องที่ไม่สามารถจัดการได้และวุ่นวายโดยสิ้นเชิง ถ้าใครก็ตามที่สามารถยกธงแดงเกี่ยวกับระบบ AI ได้แม้ว่าจะไม่ได้ทำอะไรกับ AI นั้นเลยก็ตาม คุณจะถูกน้ำท่วมด้วยธงสีแดง ที่แย่ไปกว่านั้น คุณจะไม่สามารถแยกแยะข้าวสาลีออกจากแกลบได้ แนวทางธงแดงทั้งหมดจะพังทลายลงภายใต้น้ำหนักของมันเอง ทำลายความดีของแนวคิดโดยปล่อยให้เศษซากและเศษซากเรือจมทั้งลำ

เวียนหัวและสับสน

ในช่วงหัวเลี้ยวหัวต่อของการอภิปรายที่หนักหน่วงนี้ ฉันพนันได้เลยว่าคุณต้องการตัวอย่างตัวอย่างที่อาจแสดงหัวข้อนี้ มีชุดตัวอย่างพิเศษและเป็นที่นิยมอย่างแน่นอนที่ใกล้เคียงกับใจของฉัน คุณเห็นไหม ในฐานะของฉันในฐานะผู้เชี่ยวชาญด้าน AI รวมถึงการแตกสาขาตามหลักจริยธรรมและกฎหมาย ฉันมักถูกขอให้ระบุตัวอย่างที่เป็นจริงซึ่งแสดงให้เห็นประเด็นขัดแย้งด้านจริยธรรมของ AI เพื่อให้เข้าใจธรรมชาติที่ค่อนข้างเป็นทฤษฎีของหัวข้อนี้ได้ง่ายขึ้น หนึ่งในประเด็นที่ชวนให้นึกถึงมากที่สุดซึ่งแสดงให้เห็นอย่างชัดเจนถึงปัญหาด้าน AI ที่มีจริยธรรมนี้ คือการถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI สิ่งนี้จะทำหน้าที่เป็นกรณีใช้งานที่สะดวกหรือเป็นแบบอย่างสำหรับการสนทนาอย่างกว้างขวางในหัวข้อ

ต่อไปนี้คือคำถามสำคัญที่ควรค่าแก่การไตร่ตรอง: การถือกำเนิดของรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงที่ใช้ AI นั้นให้ความสว่างอะไรเกี่ยวกับกฎหมาย Red Flag AI และถ้าเป็นเช่นนั้น สิ่งนี้แสดงให้เห็นอะไร

ให้เวลาฉันสักครู่เพื่อแกะคำถาม

ประการแรก โปรดทราบว่าไม่มีคนขับที่เป็นมนุษย์ที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเองอย่างแท้จริง โปรดทราบว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงนั้นขับเคลื่อนผ่านระบบขับเคลื่อน AI ไม่จำเป็นต้องมีคนขับเป็นมนุษย์ที่พวงมาลัย และไม่มีข้อกำหนดสำหรับมนุษย์ในการขับยานพาหนะ สำหรับการครอบคลุมยานยนต์อัตโนมัติ (AV) ที่กว้างขวางและต่อเนื่องของฉัน และโดยเฉพาะอย่างยิ่งรถยนต์ที่ขับด้วยตนเอง โปรดดูที่ ลิงค์ที่นี่.

ฉันต้องการชี้แจงเพิ่มเติมว่ามีความหมายอย่างไรเมื่อกล่าวถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองอย่างแท้จริง

การทำความเข้าใจระดับของรถยนต์ที่ขับเคลื่อนด้วยตัวเอง

เพื่อความกระจ่าง รถยนต์ที่ขับเคลื่อนด้วยตัวเองที่แท้จริงคือรถที่ AI ขับเคลื่อนรถด้วยตัวเองทั้งหมด และไม่มีความช่วยเหลือจากมนุษย์ในระหว่างงานขับขี่

ยานพาหนะไร้คนขับเหล่านี้ถือเป็นระดับ 4 และระดับ 5 (ดูคำอธิบายของฉันที่ ลิงค์นี้) ในขณะที่รถที่ต้องใช้มนุษย์ในการร่วมแรงร่วมใจในการขับขี่นั้นมักจะถูกพิจารณาที่ระดับ 2 หรือระดับ 3 รถยนต์ที่ร่วมปฏิบัติงานในการขับขี่นั้นถูกอธิบายว่าเป็นแบบกึ่งอิสระและโดยทั่วไปประกอบด้วยหลากหลาย ส่วนเสริมอัตโนมัติที่เรียกว่า ADAS (ระบบช่วยเหลือผู้ขับขี่ขั้นสูง)

ยังไม่มีรถที่ขับด้วยตัวเองที่แท้จริงในระดับ 5 และเรายังไม่รู้ด้วยซ้ำว่าจะสำเร็จหรือไม่ และต้องใช้เวลานานแค่ไหนกว่าจะไปถึงที่นั่น

ในขณะเดียวกัน ความพยายามระดับ 4 ค่อยๆ พยายามดึงแรงฉุดโดยทำการทดลองบนถนนสาธารณะที่แคบและคัดเลือกมา แม้ว่าจะมีการโต้เถียงกันว่าการทดสอบนี้ควรได้รับอนุญาตตามลำพังหรือไม่ (เราทุกคนเป็นหนูตะเภาที่มีชีวิตหรือตายในการทดลอง เกิดขึ้นบนทางหลวงและทางด่วนของเรา ทะเลาะกันบ้าง ดูการรายงานข่าวของฉันที่ ลิงค์นี้).

เนื่องจากรถยนต์กึ่งอิสระจำเป็นต้องมีคนขับรถการใช้รถยนต์ประเภทนั้นจึงไม่แตกต่างจากการขับขี่ยานพาหนะทั่วไปดังนั้นจึงไม่มีอะไรใหม่ที่จะครอบคลุมเกี่ยวกับพวกเขาในหัวข้อนี้ (แต่อย่างที่คุณเห็น ในไม่ช้าคะแนนโดยทั่วไปจะถูกนำมาใช้)

สำหรับรถยนต์กึ่งอิสระมันเป็นสิ่งสำคัญที่ประชาชนจำเป็นต้องได้รับการเตือนล่วงหน้าเกี่ยวกับสิ่งรบกวนที่เกิดขึ้นเมื่อไม่นานมานี้แม้จะมีคนขับรถของมนุษย์ที่คอยโพสต์วิดีโอของตัวเองที่กำลังหลับอยู่บนพวงมาลัยรถยนต์ระดับ 2 หรือระดับ 3 เราทุกคนต้องหลีกเลี่ยงการหลงผิดโดยเชื่อว่าผู้ขับขี่สามารถดึงความสนใจของพวกเขาออกจากงานขับรถขณะขับรถกึ่งอิสระ

คุณเป็นบุคคลที่รับผิดชอบต่อการขับขี่ของยานพาหนะโดยไม่คำนึงว่าระบบอัตโนมัติอาจถูกโยนเข้าไปในระดับ 2 หรือระดับ 3

รถยนต์ไร้คนขับและกฎหมาย AI ธงแดง

สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองอย่างแท้จริงระดับ 4 และระดับ 5 จะไม่มีคนขับที่เกี่ยวข้องกับงานขับรถ

ผู้โดยสารทุกคนจะเป็นผู้โดยสาร

AI กำลังขับรถอยู่

แง่มุมหนึ่งที่จะพูดถึงในทันทีคือความจริงที่ว่า AI ที่เกี่ยวข้องกับระบบขับเคลื่อน AI ในปัจจุบันไม่ได้มีความรู้สึก กล่าวอีกนัยหนึ่ง AI เป็นกลุ่มของการเขียนโปรแกรมและอัลกอริทึมที่ใช้คอมพิวเตอร์โดยสิ้นเชิงและส่วนใหญ่ไม่สามารถให้เหตุผลในลักษณะเดียวกับที่มนุษย์สามารถทำได้

เหตุใดจึงเน้นย้ำว่า AI ไม่มีความรู้สึก?

เพราะฉันต้องการเน้นย้ำว่าเมื่อพูดถึงบทบาทของระบบขับเคลื่อน AI ฉันไม่ได้อ้างถึงคุณสมบัติของมนุษย์ต่อ AI โปรดทราบว่าทุกวันนี้มีแนวโน้มที่เป็นอันตรายและต่อเนื่องในการทำให้มนุษย์กลายเป็นมนุษย์ด้วย AI โดยพื้นฐานแล้วผู้คนกำลังกำหนดความรู้สึกเหมือนมนุษย์ให้กับ AI ในปัจจุบันแม้ว่าจะมีความจริงที่ปฏิเสธไม่ได้และไม่สามารถเข้าใจได้ว่ายังไม่มี AI เช่นนี้

ด้วยคำชี้แจงดังกล่าวคุณสามารถจินตนาการได้ว่าระบบขับเคลื่อน AI จะไม่ "รู้" เกี่ยวกับแง่มุมของการขับขี่ การขับขี่และสิ่งที่เกี่ยวข้องจะต้องได้รับการตั้งโปรแกรมให้เป็นส่วนหนึ่งของฮาร์ดแวร์และซอฟต์แวร์ของรถยนต์ที่ขับเคลื่อนด้วยตนเอง

มาดำน้ำในแง่มุมมากมายที่มาเล่นในหัวข้อนี้

ประการแรก สิ่งสำคัญคือต้องตระหนักว่ารถยนต์ที่ขับเคลื่อนด้วยตนเองของ AI นั้นไม่เหมือนกันทุกคัน ผู้ผลิตรถยนต์และบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตนเองแต่ละรายต่างใช้แนวทางในการพัฒนารถยนต์ที่ขับเคลื่อนด้วยตนเอง ดังนั้นจึงเป็นเรื่องยากที่จะกล่าวอย่างถี่ถ้วนว่าระบบขับเคลื่อน AI จะทำอะไรหรือไม่ทำ

นอกจากนี้ เมื่อใดก็ตามที่ระบุว่าระบบขับเคลื่อน AI ไม่ได้ทำสิ่งใดสิ่งหนึ่ง นักพัฒนาสามารถแซงหน้าสิ่งนี้ได้ในภายหลัง ซึ่งจริงๆ แล้วโปรแกรมคอมพิวเตอร์ให้ทำสิ่งนั้น ระบบขับเคลื่อน AI ค่อยๆ ปรับปรุงและขยายออกไปทีละขั้น ข้อจำกัดที่มีอยู่ในปัจจุบันอาจไม่มีอยู่อีกต่อไปในการทำซ้ำหรือเวอร์ชันของระบบในอนาคต

ฉันหวังว่าจะเป็นบทสวดที่เพียงพอเพื่อรองรับสิ่งที่ฉันกำลังจะเล่า

มาร่างสถานการณ์ที่อาจใช้ประโยชน์จากกฎหมาย Red Flag AI

คุณขึ้นรถที่ขับเคลื่อนด้วยตัวเองโดยใช้ AI และต้องการให้รถยนต์ขับเคลื่อนอัตโนมัติพาคุณไปยังร้านขายของชำในพื้นที่ของคุณ ในระหว่างการเดินทางที่ค่อนข้างสั้น AI ใช้เส้นทางที่ดูเหมือนคุณค่อนข้างจะผิดปกติ แทนที่จะไปทางที่ตรงที่สุด AI จะนำทางไปยังถนนที่ไม่อยู่ในทางแยก ซึ่งทำให้เวลาในการขับรถสูงกว่าปกติ

เกิดอะไรขึ้น?

สมมติว่าคุณจ่ายเงินสำหรับการใช้รถยนต์ที่ขับด้วยตนเอง คุณอาจสงสัยว่า AI ถูกตั้งโปรแกรมให้ขับในเส้นทางที่ยาวขึ้นเพื่อพยายามผลักดันค่าโดยสารหรือค่าเดินทาง ใครก็ตามที่เคยนั่งแท็กซี่แบบธรรมดาที่ขับโดยคนจะรู้ถึงกลอุบายที่สามารถทำได้เพื่อให้ได้แป้งมากขึ้นบนมิเตอร์ แน่นอน ด้วยคนที่มี GPS บนสมาร์ทโฟนขณะนั่งรถแท็กซี่หรือเทียบเท่า คุณสามารถจับคนขับที่ดูเหมือนจะแอบใช้เส้นทางที่ยาวเกินความจำเป็นโดยไม่จำเป็น

กลายเป็นว่าคุณมีความกังวลอีกอย่างเกี่ยวกับการเลือกเส้นทาง บางอย่างที่แทะคุณจริงๆ

สมมติว่ามีการกำหนดเส้นทางเพื่อหลีกเลี่ยงบางส่วนของเมืองเนื่องจากแง่มุมทางเชื้อชาติ มีการบันทึกกรณีของคนขับรถที่ถูกจับได้ว่าเลือกแบบนั้น ดูการสนทนาของฉันที่ ลิงค์ที่นี่. บางที AI อาจถูกตั้งโปรแกรมในทางลบ

คุณตัดสินใจที่จะยกธงสีแดง

สมมติว่าเพื่อประโยชน์ในการอภิปรายว่าได้มีการตรากฎหมาย Red Flag AI ซึ่งครอบคลุมเขตอำนาจศาลของคุณ อาจเป็นกฎหมายท้องถิ่น กฎหมายของรัฐ กฎหมายของรัฐบาลกลาง หรือกฎหมายระหว่างประเทศ สำหรับการวิเคราะห์ที่ฉันเขียนร่วมกับโครงการริเริ่มนโยบายยานยนต์อัตโนมัติของฮาร์วาร์ด (AVPI) เกี่ยวกับความสำคัญที่เพิ่มขึ้นของผู้นำท้องถิ่นเมื่อชุมชนหันมาใช้รถยนต์ไร้คนขับ โปรดดูที่ ลิงค์ที่นี่.

ดังนั้นคุณออนไลน์ไปที่ฐานข้อมูล Red Flag AI ในฐานข้อมูลเหตุการณ์ คุณป้อนข้อมูลเกี่ยวกับการเดินทางด้วยรถยนต์ไร้คนขับ ซึ่งรวมถึงวันที่และเวลาของการขับขี่ตลอดช่วงระยะการเดินทาง ตลอดจนยี่ห้อและรุ่นของรถยนต์ที่ขับเคลื่อนด้วยตนเอง จากนั้นคุณเข้าสู่เส้นทางการนำทางที่ดูเหมือนจะน่าสงสัย และคุณกำลังแนะนำหรืออาจอ้างว่า AI ถูกประดิษฐ์ขึ้นด้วยเจตนาและความสามารถที่มีอคติหรือเลือกปฏิบัติ

เราจะต้องคาดเดารายละเอียดอื่น ๆ ของกฎหมาย Red Flag AI ว่าจะเกิดอะไรขึ้นต่อไปในสถานการณ์เฉพาะนี้ ตามทฤษฎีแล้ว จะต้องมีบทบัญญัติให้คนตรวจสอบธงแดง คงจะหาทางให้ผู้ผลิตรถยนต์หรือบริษัทเทคโนโลยีที่ขับเคลื่อนด้วยตัวเองมาอธิบายมุมมองของพวกเขาเกี่ยวกับธงแดงที่บันทึกไว้ มีการลงทะเบียนธงสีแดงอื่น ๆ อีกกี่อัน? ธงสีแดงเหล่านั้นให้ผลลัพธ์อะไรบ้าง?

เช่นนั้นก็จะไป

สรุป

งุ่มง่าม คลางแคลงสงสัยบางคนแนะนำ

เราไม่ต้องการกฎหมาย Red Flag AI พวกเขาใช้ความพยายามอย่างเข้มงวด การทำสิ่งใดสิ่งหนึ่งจะทำให้งานดีขึ้นเมื่อพูดถึงความเร็วและความก้าวหน้าของ AI กฎหมายดังกล่าวจะเทอะทะ คุณจะสร้างปัญหาที่ไม่สามารถแก้ปัญหาได้ มีวิธีอื่นในการจัดการกับ AI ที่ไม่ดี อย่าจับฟางอย่างสุ่มสี่สุ่มห้าเพื่อรับมือกับ AI ที่มีอคติ

การเปลี่ยนเกียร์ เราทุกคนรู้ดีว่านักสู้วัวกระทิงใช้ผ้าคลุมสีแดงเพื่อดึงดูดความสนใจของวัวผู้โกรธจัด แม้ว่าสีแดงเป็นสีที่เราเชื่อมโยงกันมากที่สุดกับการปฏิบัตินี้ คุณอาจแปลกใจที่รู้ว่านักวิทยาศาสตร์กล่าวว่าวัวกระทิงไม่รับรู้สีแดงของมูลสัตว์ (พวกมันทำให้ตาบอดสีถึงแดง) การแสดงยอดนิยม มิธบัสเตอร์ส ได้ทำการตรวจสอบเรื่องนี้ค่อนข้างสนุกสนาน การเคลื่อนไหวของผ้าคลุมเป็นองค์ประกอบหลักมากกว่าสีที่เลือก

สำหรับผู้ที่ละทิ้งความต้องการกฎหมาย AI ธงแดง ข้อโต้แย้งคือเราต้องการบางสิ่งที่มีลักษณะโบกที่น่าทึ่งและไม่ผิดเพี้ยน เพื่อให้แน่ใจว่านักพัฒนา AI และบริษัทที่ปรับใช้ AI จะหลีกเลี่ยง AI ที่มีอคติหรือปัญญาอ่อน หากไม่ใช่เพราะธงแดง อาจเป็นเสื้อคลุมที่พลิ้วไหวหรือโดยทั่วไปแล้ว วิธีการเตือนใดๆ อาจอยู่ในขอบเขตของการพิจารณาอย่างเหมาะสม

เราทราบดีว่า AI ที่ไม่ดีมีอยู่จริง และ AI ที่แย่กว่านั้นกำลังมุ่งหน้ามาที่เรา การหาวิธีป้องกันตนเองจาก AI ที่ไม่พึงประสงค์เป็นสิ่งสำคัญ ในทำนองเดียวกัน การตั้งรั้วกั้นเพื่อพยายามหยุด AI ที่ไม่ดีไม่ให้เข้ามาในโลกก็มีความสำคัญเท่าเทียมกัน

เออร์เนสต์ เฮมิงเวย์ กล่าวอย่างมีชื่อเสียงว่าไม่มีใครใช้ชีวิตได้ตลอดชีวิตยกเว้นนักสู้วัวกระทิง เราจำเป็นต้องตรวจสอบให้แน่ใจว่ามนุษย์สามารถดำเนินชีวิตได้อย่างเต็มที่ แม้ว่าจะมีการประกาศใช้ความชั่วร้ายหรือความบ้าคลั่งของ AI ก็ตาม

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-call-red-flag-ai-laws-for-calling-out- อัลกอริธึมแบบเอนเอียงในระบบอิสระ/