ปลูกฝังเหตุผลทางกฎหมายใน AI ได้อย่างชาญฉลาดบรรลุการจัดตำแหน่งคุณค่าของมนุษย์กล่าวว่าจริยธรรมของ AI และกฎหมาย AI

ในคอลัมน์วันนี้ ฉันจะรวบรวมหัวข้อเกี่ยวกับ AI ที่ดูเหมือนแตกต่างกันจำนวนนับไม่ถ้วนเข้าด้วยกันเป็นผ้าทอผืนเดียวที่สวยงาม

คุณพร้อม?

ลองนึกภาพว่าคุณกำลังใช้แอปที่ขับเคลื่อนด้วย AI ซึ่งกำลังช่วยเหลือคุณในขณะที่ทำงานสำคัญบางประเภท บางทีอาจเป็นเรื่องการเงินหรือเกี่ยวกับสุขภาพก็ได้ สาระสำคัญคือคุณต้องพึ่งพา AI ในการทำสิ่งที่ถูกต้องและดำเนินการในลักษณะที่ปลอดภัยและสมเหตุสมผล

สมมติว่า AI หันเหเข้าไปในดินแดนที่ผิดศีลธรรม

คุณอาจไม่ทราบว่า AI กำลังทำเช่นนั้น

ตัวอย่างเช่น AI อาจอาศัยปัจจัยการเลือกปฏิบัติที่ซ่อนเร้นอยู่ เช่น เชื้อชาติหรือเพศ แม้ว่าคุณอาจไม่มีวิธีใดที่ใช้การได้ในการแยกแยะการใช้งานที่ไม่เหมาะสม คุณอยู่เพียงลำพังเพื่อรับปลายไม้สั้น ๆ ผ่าน AI ที่ได้รับการคิดค้นขึ้นจากการเริ่มต้นในทางที่เป็นปัญหาหรือจัดการเพื่อนำไปสู่อันตรายทางจริยธรรมที่เสี่ยงและล้ำเส้น (ฉันจะพูดเพิ่มเติมเกี่ยวกับ เมื่อสักครู่นี้)

คุณสามารถทำอะไรหรือทำอะไรได้บ้างเกี่ยวกับ AI ที่เลือกที่จะลงไปสู่เส้นทางที่ผิดจรรยาบรรณ?

นอกเหนือจากการพยายามสร้าง AI ล่วงหน้าเพื่อที่จะไม่ทำพฤติกรรมที่ร้ายกาจแบบนี้ ฉันได้ให้รายละเอียดก่อนหน้านี้ด้วยว่ามีความสนใจเพิ่มขึ้นในการฝัง การตรวจสอบจริยธรรมของ AI ส่วนประกอบในหลุมฝังศพที่กำลังเติบโตของ Wild West อย่างอื่น - ระบบ AI ที่ถูกโยนเข้าสู่ตลาด แนวคิดคือเพื่อพยายามป้องกันไม่ให้แอปที่ผสม AI ก้าวข้ามมิติด้านจริยธรรม เราสามารถใช้ AI เพิ่มเติมเพื่อตรวจสอบและถ่วงดุลได้ AI ที่เพิ่มเข้ามานี้อาจอยู่นอกแอป AI เป้าหมาย หรืออาจเป็นส่วนประกอบที่ฝังหรือฝังโดยตรงใน AI ที่เราต้องการตรวจสอบซ้ำ

ดังที่ฉันได้กล่าวไว้ก่อนหน้านี้ ดู ลิงค์ที่นี่: “แนวโน้มที่เกิดขึ้นเมื่อเร็วๆ นี้ประกอบด้วยการพยายามสร้างแนวป้องกันทางจริยธรรมใน AI ซึ่งจะจับได้เมื่อระบบ AI ที่เหลือเริ่มก้าวข้ามขอบเขตทางจริยธรรมที่กำหนดไว้ล่วงหน้า กล่าวอีกนัยหนึ่ง เป้าหมายคือการใช้ AI เพื่อป้องกันไม่ให้ตัวเองทำผิดหลักจริยธรรม คุณสามารถพูดได้ว่าเรามีเป้าหมายที่จะให้ AI เยียวยาตัวเอง” (Lance Eliot, “Crafting Ethical AI That Monitors Unethical AI and พยายามยับยั้ง AI ที่ไม่ดีจากการกระทำ”, ฟอร์บ, 28 มีนาคม 2022).

คุณอาจพบว่าหนังสือของฉันเกี่ยวกับความสนใจที่เกี่ยวข้อง บอทผู้พิทักษ์ AIซึ่งบางครั้งเรียกว่าเทวดาผู้พิทักษ์ ซึ่งครอบคลุมถึงการสนับสนุนทางเทคนิคของตัวตรวจสอบซ้ำแบบฝังตัว AI ภายใน AI ที่ล้ำสมัย ดูที่ ลิงค์ที่นี่.

สิ่งที่สำคัญที่สุดก็คือเบคอนของคุณอาจได้รับการบันทึกอย่างขอบคุณด้วยการใช้องค์ประกอบการตรวจสอบจริยธรรมแบบตรวจสอบซ้ำของ AI ที่ฝังไว้ซึ่งได้รับการออกแบบและฝังไว้ในแอป AI ที่คุณใช้อยู่ แต่นั่นจะเพียงพอหรือไม่ที่ผู้พิทักษ์จะทำให้แน่ใจว่า AI จะไม่ทำให้คุณแข็งกระด้างและเสี่ยงอันตรายแม้แต่น้อย

คุณเห็นแล้วว่าแอป AI สามารถทำงานได้อย่างเห็นได้ชัด ที่ผิดกฎหมาย การกระทำ

การมี AI เข้าไปในพื้นที่สีเทาของสิ่งที่เราถือว่าเป็นพฤติกรรมที่มีจริยธรรมหรือผิดจรรยาบรรณเป็นสิ่งหนึ่ง พฤติกรรมที่น่าอึดอัดพอๆ กันและความกังวลที่มีแนวโน้มแย่ลงนั้นนำมาซึ่ง AI ที่เพียงแค่กระโดดฉลามเหมือนเดิมและดำดิ่งสู่ความมืดมิดของการกระทำที่ผิดกฎหมายโดยสิ้นเชิง

AI ที่ผิดกฎหมายนั้นไม่ดี การปล่อยให้ AI ที่ผิดกฎหมายทำงานโดยไม่มีใครดูแลนั้นเป็นสิ่งที่ไม่ดี นักวิชาการด้านกฎหมายบางคนกังวลอย่างเปิดเผยว่าการเกิดขึ้นและแพร่หลายของ AI จะค่อยๆ ลดทอนรูปร่างหน้าตาของเราอย่างน่ากลัวและน่าสะพรึงกลัว กฎของกฎหมาย, ดูบทวิเคราะห์ของผมได้ที่ ลิงค์ที่นี่.

รอสักครู่ คุณอาจจะพูดว่า

คุณอาจถูกล่อลวงให้คิดว่านักพัฒนา AI จะทำ ไม่เคย โปรแกรม AI ของพวกเขาให้ขัดต่อกฎหมาย เป็นไปไม่ได้ มีเพียงผู้ร้ายที่ชั่วร้ายเท่านั้นที่จะทำเช่นนั้น (ซึ่งอย่างไรก็ตาม โปรดจำไว้ว่ามีผู้ที่จงใจวางแผนและใช้ AI เพื่อจุดประสงค์ที่ชั่วร้าย ซึ่งกำลังเป็นที่สนใจของอาชญากรและคนอื่นๆ ที่ต้องการใช้ AI สำหรับกิจกรรมที่ชั่วร้ายมากขึ้นเรื่อยๆ)

ขออภัย เป็นความคิดที่ปรารถนาที่จะสันนิษฐานว่านักพัฒนา AI ที่ไม่ใช่ผู้ชั่วร้ายทั้งหมดจะต้องตรวจสอบให้แน่ใจว่า AI ของพวกเขาปฏิบัติตามกฎหมายอย่างเคร่งครัด อาจเป็นไปได้ว่า AI ปรับตัวและเข้าสู่กิจกรรมที่ผิดกฎหมาย แน่นอนว่ายังมีความเป็นไปได้ที่นักพัฒนา AI ต้องการให้ AI กระทำการอย่างผิดกฎหมายหรือพวกเขาไม่รู้ว่าอะไรเป็นการกระทำที่ผิดกฎหมายเมื่อเทียบกับการกระทำทางกฎหมายเมื่อพวกเขาสร้าง AI (ใช่ เป็นไปได้ค่อนข้างมาก กล่าวคือ ทีม AI ที่เน้นเทคโนโลยีล้วนอาจมองข้ามเงื่อนงำทางกฎหมายของ AI ซึ่งไม่สามารถแก้ตัวได้และยังเกิดขึ้นบ่อยครั้งจนน่าตกใจ)

สิ่งนี้สามารถทำอะไรได้บ้าง?

อีกครั้ง นอกเหนือจากการพยายามทำให้แน่ใจว่า AI ภายนอกนั้นแน่นหนาและถูกต้องตามกฎหมายแล้ว วิธีการเพิ่มเติมในการดึงดูดไอน้ำนั้นเกี่ยวข้องกับการฝังหรือฝังส่วนประกอบ AI ที่ทำการตรวจสอบทางกฎหมายอีกครั้งสำหรับแอป AI ที่เหลือ AI ที่เพิ่มเข้ามานี้นั่งเงียบ ๆ และมักไม่ได้รับการเปิดเผย กำลังเฝ้าดู AI ที่เหลือเพื่อพยายามแยกแยะว่า AI กำลังจะเข้าสู่กระบวนการอันธพาลหรืออย่างน้อยก็ก้าวข้ามขีดจำกัดของกฎหมายหรือระเบียบข้อบังคับที่กำหนดไว้

ตอนนี้เรามีการตรวจสอบซ้ำด้วย AI สองประเภทที่อาจฝังอยู่ในแอป AI:

  • ตัวตรวจสอบจริยธรรม AI ซ้ำ: ในแบบเรียลไทม์ ส่วนประกอบนี้หรือส่วนเสริมของ AI จะประเมินส่วนที่เหลือของ AI สำหรับพฤติกรรมที่มีจริยธรรมและผิดจรรยาบรรณที่ AI แสดงออกมา
  • ตัวตรวจสอบทางกฎหมายของ AI: ในแบบเรียลไทม์ ส่วนประกอบนี้หรือส่วนเสริมของ AI จะประเมินส่วนที่เหลือของ AI เพื่อรับประกันว่าจะยังคงอยู่ภายใต้หลักสำคัญทางกฎหมายและสำหรับการติดตามกิจกรรมที่ผิดกฎหมายที่เกิดขึ้นใหม่โดย AI

เพื่อความชัดเจน สิ่งเหล่านี้เป็นแนวคิดที่ค่อนข้างใหม่ ดังนั้น AI ที่คุณใช้อยู่ในปัจจุบันอาจอยู่ในเงื่อนไขปัจจุบันใดๆ เหล่านี้:

  • AI ที่ไม่มีตัวตรวจสอบซ้ำซ้อนรวมอยู่ด้วย
  • AI ที่มีตัวตรวจสอบซ้ำของ AI Ethics รวมอยู่ด้วย แต่ไม่มีตัวตรวจสอบซ้ำอื่นๆ
  • AI ที่มีตัวตรวจสอบซ้ำทางกฎหมายของ AI รวมอยู่ด้วย แต่ไม่มีตัวตรวจสอบซ้ำอื่นๆ
  • AI ที่มีทั้งตัวตรวจสอบจริยธรรม AI และตัวตรวจสอบกฎหมาย AI
  • อื่นๆ

มีบางแง่มุมที่ยุ่งยากอย่างเห็นได้ชัดของการมีทั้งตัวตรวจสอบจริยธรรมของ AI และตัวตรวจสอบความถูกต้องทางกฎหมายของ AI ทำงานเคียงข้างกันในแอป AI ในฐานะพี่ชายและน้องสาว นี่คือประเภทของความเป็นทวินิยมที่สามารถประสานงานได้ยากกว่าที่คุณคิด (ฉันคิดว่าเราทุกคนรู้ว่าพี่น้องสามารถมีสายสัมพันธ์ที่แน่นแฟ้นที่สุดแม้ว่าพวกเขาจะสามารถต่อสู้เหมือนดิ๊กเก้นเป็นครั้งคราวและต่อต้านอย่างรุนแรง มุมมอง).

ฉันได้พูดคุยเกี่ยวกับประเภทของความยากลำบากนี้ การแบ่งแยกเป็นสอง: “ความเป็นคู่ที่ถูกละเลยกำลังเกิดขึ้นใน AI เพื่อประโยชน์ต่อสังคม ซึ่งเกี่ยวข้องกับการขาดการครอบคลุมทั้งบทบาทของหน่วยงานทางศีลธรรมเทียมและการใช้เหตุผลทางกฎหมายเทียมในระบบ AI ขั้นสูง ความพยายามของนักวิจัย AI และนักพัฒนา AI มีแนวโน้มที่จะมุ่งเน้นไปที่วิธีสร้างและฝังตัวแทนศีลธรรมเทียมเพื่อเป็นแนวทางในการตัดสินใจทางศีลธรรมเมื่อระบบ AI ทำงานในภาคสนาม แต่ยังไม่ได้มุ่งเน้นและควบคู่ไปกับการใช้ความสามารถในการให้เหตุผลทางกฎหมายเทียม ซึ่งจำเป็นเท่าเทียมกันสำหรับผลลัพธ์ทางศีลธรรมและกฎหมายที่ชัดเจน” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good,” Harvard University CRCS Annual Conference 2020, ศูนย์วิจัยและสมาคมคอมพิวเตอร์ฮาร์วาร์ด)

หากคุณต้องการหาเหตุผลว่าเหตุใดจึงเกิดความตึงเครียดระหว่างผู้ตรวจสอบซ้ำสองด้านจริยธรรมของ AI และผู้ตรวจสอบซ้ำซ้อนทางกฎหมายของ AI คุณอาจพบคำพูดที่โดดเด่นนี้เกี่ยวกับคุณค่าทางความคิดที่ชวนเหลือเชื่อ: “กฎหมายอาจอนุญาตให้มีการกระทำบางอย่าง แม้ว่าการกระทำนั้นจะผิดศีลธรรมก็ตาม และกฎหมายอาจห้ามการกระทำ แม้ว่าการกระทำนั้นจะได้รับอนุญาตในทางศีลธรรม หรือแม้แต่เรียกร้องทางศีลธรรมก็ตาม” (Shelly Kagan, ขีดจำกัดของศีลธรรม, 1998)

เรามาเปลี่ยนโฟกัสกันเล็กน้อยและดูว่าตัวตรวจสอบซ้ำซ้อนเหล่านี้รวมเข้ากับหัวข้อ AI ที่ได้รับการพิจารณาอย่างถี่ถ้วนอย่างไร AI ที่มีความรับผิดชอบ หรือการคำนึงถึงความสอดคล้องกันระหว่างคุณค่าของมนุษย์และเอไอ

แนวคิดทั่วไปคือเราต้องการให้ AI ปฏิบัติตามคุณค่าที่เหมาะสมและพึงปรารถนาของมนุษย์ บางคนอ้างถึงสิ่งนี้ว่า AI ที่มีความรับผิดชอบ. คนอื่น ๆ อภิปรายในทำนองเดียวกัน AI ที่รับผิดชอบ, AI ที่น่าเชื่อถือและ การจัดตำแหน่ง AIซึ่งทั้งหมดล้วนแตะต้องหลักการสำคัญประการเดียวกัน สำหรับการสนทนาของฉันเกี่ยวกับประเด็นสำคัญเหล่านี้ โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

เราจะทำให้ AI สอดคล้องกับคุณค่าของมนุษย์ได้อย่างไร

ตามที่ได้แนะนำไปก่อนหน้านี้ เราหวังว่านักพัฒนา AI จะตระหนักถึงการพัฒนา AI ที่บรรลุการยึดมั่นใน AI อย่างมีความรับผิดชอบ น่าเสียดายที่พวกเขาอาจไม่เป็นไปตามเหตุผลที่อธิบายไว้ก่อนหน้านี้ นอกจากนี้ พวกเขาอาจพยายามทำเช่นนั้น แต่ถึงกระนั้น AI ก็ลงเอยด้วยการปรับตัวเองให้เกินขอบเขตที่เด่นชัดของพฤติกรรมทางจริยธรรมหรืออาจเข้าสู่น่านน้ำที่ผิดกฎหมาย

เอาล่ะ เราจำเป็นต้องพิจารณาเครื่องตรวจซ้ำแบบสำรวยแสนสะดวกของเราเพื่อเป็นหนทางในการป้องกันความเสี่ยงและความเสี่ยงเหล่านี้ การใช้ตัวตรวจสอบซ้ำด้านจริยธรรมของ AI ที่ได้รับการวางแผนมาอย่างดีสามารถช่วยอย่างมากในการปรับ AI ให้สอดคล้องกับคุณค่าของมนุษย์ ในทำนองเดียวกัน การใช้ตัวตรวจสอบความถูกต้องทางกฎหมายของ AI ที่ได้รับการวางแผนมาเป็นอย่างดีสามารถช่วยในการปรับ AI ให้สอดคล้องกับคุณค่าของมนุษย์ได้อย่างมาก

ดังนั้น วิธีการที่สำคัญและยังไม่เป็นที่ทราบกันดีในการแสวงหา AI ที่มีความรับผิดชอบ, AI ที่น่าเชื่อถือ, AI ที่รับผิดชอบ, AI Alignment ฯลฯ จะเกี่ยวข้องกับการใช้ตัวตรวจสอบซ้ำของ AI เช่น ตัวตรวจสอบจริยธรรมของ AI และ ตัวตรวจสอบทางกฎหมายของ AI จะทำงานอย่างไม่รู้จักเหน็ดเหนื่อยเหมือนกับการตรวจสอบซ้ำกับ AI ที่ฝังอยู่ภายใน

ในการอภิปรายในที่นี้ ฉันต้องการลงรายละเอียดเพิ่มเติมเล็กน้อยเกี่ยวกับลักษณะและโครงสร้างของตัวตรวจสอบทางกฎหมายของ AI ที่อาจฝังอยู่ใน AI ในการดำเนินการดังกล่าว การแบ่งปันภูมิหลังเพิ่มเติมเกี่ยวกับหัวข้อโดยรวมอาจเป็นประโยชน์กับคุณ AI และกฎหมาย.

สำหรับการตรวจสอบแบบไม่ไร้สาระว่า AI และกฎหมายผสมผสานกันอย่างไร โปรดดูการสนทนาของฉันที่ ลิงค์ที่นี่. ในการมองอย่างชาญฉลาดของฉันที่ AI และกฎหมาย การมีเพศสัมพันธ์ ฉันให้แนวคิดที่ตรงไปตรงมาของสองวิธีหลักในการเชื่อมโยง AI และกฎหมายเข้าด้วยกัน:

  • (1) กฎหมายที่ใช้กับ AI: การกำหนด ตรากฎหมาย และการบังคับใช้กฎหมายที่บังคับใช้กับการควบคุมหรือกำกับดูแลปัญญาประดิษฐ์ในสังคมของเรา
  • (2) AI ประยุกต์กับกฎหมาย: เทคโนโลยีปัญญาประดิษฐ์คิดค้นและนำไปใช้ในกฎหมาย รวมถึงการให้เหตุผลทางกฎหมายแบบ AI (AILR) ที่รวมเข้ากับแอปไฮเทคของ LegalTech เพื่อดำเนินการด้านกฎหมายแบบอิสระหรือกึ่งอิสระ

มุมมองแรกที่ระบุไว้ประกอบด้วยการพิจารณาว่ากฎหมายที่มีอยู่และกฎหมายใหม่จะควบคุม AI อย่างไร มุมมองที่สองที่เกี่ยวข้องกับการใช้ AI กับกฎหมาย

หมวดหมู่หลังนี้มักจะเกี่ยวข้องกับการใช้เหตุผลทางกฎหมายที่ใช้ AI (AILR) ในเครื่องมือออนไลน์ต่างๆ ที่นักกฎหมายใช้ ตัวอย่างเช่น AI อาจเป็นส่วนหนึ่งของแพ็คเกจการจัดการวงจรชีวิตของสัญญา (CLM) ที่ช่วยทนายความโดยการระบุภาษาในสัญญาที่จะเป็นประโยชน์สำหรับการร่างสัญญาใหม่หรืออาจตรวจพบสัญญาที่มีภาษาที่ไม่ต้องการล้างทางกฎหมายซึ่งทำให้เกิดความผิดพลาดหรือช่องโหว่ทางกฎหมาย (สำหรับรูปลักษณ์ที่เรียกว่า “กลิ่นกฎหมาย” ที่ AI มองเห็นได้ ดู ลิงค์ที่นี่).

เราจะมีการนำ AI ไปใช้กับกฎหมายอย่างหลีกเลี่ยงไม่ได้ที่ประชาชนทั่วไปสามารถใช้ได้และไม่จำเป็นต้องมีทนายความเข้ามาเกี่ยวข้อง ในขณะนี้ เนื่องจากข้อจำกัดต่างๆ รวมถึง UPL (กฎหมายที่ไม่ได้รับอนุญาต) การทำให้แอปให้คำปรึกษาด้านกฎหมายที่อาศัย AI ใช้งานได้จึงเป็นเรื่องที่ยุ่งยากและเป็นที่ถกเถียง ดูการสนทนาของฉันที่ ลิงค์ที่นี่.

ฉันได้นำเสนอบทนำเกี่ยวกับ AI และกฎหมายนี้เพื่อชี้ให้เห็นว่าการใช้ AI เป็นเครื่องมืออีกประการหนึ่งที่ใช้กับกฎหมายคือการสร้างตัวตรวจสอบกฎหมาย AI อีกครั้ง

ใช่ ความสามารถทางเทคโนโลยีประเภทเดียวกันที่เกี่ยวข้องกับการนำ AI ไปใช้กับกฎหมายสามารถทำหน้าที่เป็นสองหน้าที่ได้โดยใช้ AI เพื่อทำหน้าที่เป็นตัวตรวจสอบซ้ำทางกฎหมายของ AI แบบฝังหรือฝัง ตัวตรวจสอบกฎหมาย AI เป็นองค์ประกอบที่ต้องมีความเชี่ยวชาญในด้านกฎหมาย เมื่อแอพ AI ที่เหลือกำลังดำเนินการต่างๆ ตัวตรวจสอบกฎหมายของ AI จะคอยวัดว่าแอพ AI นั้นทำถูกต้องตามกฎหมายและอยู่ภายใต้ข้อจำกัดทางกฎหมายหรือไม่

องค์ประกอบการตรวจสอบซ้ำทางกฎหมายของ AI ไม่จำเป็นต้องครอบคลุมขอบเขตทั้งหมดของทุกสิ่งที่ควรรู้เกี่ยวกับกฎหมาย ขึ้นอยู่กับลักษณะของแอป AI ตามวัตถุประสงค์และการดำเนินการของ AI โดยรวม ตัวตรวจสอบทางกฎหมายของ AI อาจแคบกว่ามากในแง่ของความเชี่ยวชาญทางกฎหมายที่มีอยู่

ฉันได้ระบุเฟรมเวิร์กที่มีประโยชน์สำหรับการแสดงว่า AI ในโดเมนทางกฎหมายมีขอบเขตอย่างไรในชุดความสามารถที่เป็นอิสระ ซึ่งเรียกว่าระดับความเป็นอิสระ (LoA) สำหรับภาพรวมโปรดดูของฉัน ฟอร์บ โพสต์คอลัมน์ประจำวันที่ 21 พฤศจิกายน 2022 “คดีบีบบังคับที่ครอบคลุมไร้สาระสำหรับเหตุใดทนายความจำเป็นต้องรู้เกี่ยวกับ AI และกฎหมาย” ที่ ลิงค์ที่นี่และสำหรับคำอธิบายทางเทคนิคโดยละเอียด โปรดดูบทความวิจัยเชิงลึกของฉันใน วารสารกฎหมายคอมพิวเตอร์ของ MIT ของวันที่ 7 ธันวาคม 2021 ดู ลิงค์ที่นี่.

กรอบงานอธิบายห้าระดับของ AI ที่ใช้ในความพยายามทางกฎหมาย:

  • ระดับ 0: ไม่มีระบบอัตโนมัติสำหรับงานกฎหมายที่ใช้ AI
  • ระดับ 1: ความช่วยเหลืออัตโนมัติอย่างง่ายสำหรับงานด้านกฎหมายที่ใช้ AI
  • ระดับ 2: ความช่วยเหลืออัตโนมัติขั้นสูงสำหรับงานด้านกฎหมายที่ใช้ AI
  • ระดับ 3: ระบบอัตโนมัติกึ่งอัตโนมัติสำหรับงานกฎหมายที่ใช้ AI
  • ระดับ 4: โดเมนอัตโนมัติสำหรับงานด้านกฎหมายที่ใช้ AI
  • ระดับ 5: เป็นอิสระอย่างเต็มที่สำหรับงานด้านกฎหมายที่ใช้ AI

ฉันจะอธิบายสั้น ๆ ในที่นี้

ระดับ 0 ถือเป็นระดับไม่มีระบบอัตโนมัติ การให้เหตุผลทางกฎหมายและงานด้านกฎหมายดำเนินการโดยใช้วิธีการแบบแมนนวลและส่วนใหญ่เกิดขึ้นโดยใช้แนวทางแบบกระดาษ

ระดับ 1 ประกอบด้วยระบบช่วยเหลืออัตโนมัติอย่างง่ายสำหรับการให้เหตุผลทางกฎหมาย AI ตัวอย่างของหมวดหมู่นี้จะรวมถึงการใช้การประมวลผลคำที่ใช้คอมพิวเตอร์ในชีวิตประจำวัน การใช้สเปรดชีตที่ใช้คอมพิวเตอร์ในชีวิตประจำวัน การเข้าถึงเอกสารทางกฎหมายออนไลน์ที่จัดเก็บและเรียกค้นทางอิเล็กทรอนิกส์ เป็นต้น

ระดับ 2 ประกอบด้วยระบบช่วยเหลืออัตโนมัติขั้นสูงสำหรับการให้เหตุผลทางกฎหมาย AI ตัวอย่างของหมวดหมู่นี้จะรวมถึงการใช้การประมวลผลภาษาธรรมชาติเบื้องต้น (NLP) ในรูปแบบข้อความค้นหา องค์ประกอบแบบง่ายของการเรียนรู้ของเครื่อง (ML) เครื่องมือวิเคราะห์ทางสถิติสำหรับการคาดคะเนกรณีทางกฎหมาย ฯลฯ

ระดับ 3 ประกอบด้วยระบบอัตโนมัติกึ่งอัตโนมัติสำหรับการให้เหตุผลทางกฎหมายของ AI ตัวอย่างของหมวดหมู่นี้จะรวมถึงการใช้ระบบฐานความรู้ขั้นสูง (KBS) สำหรับการให้เหตุผลทางกฎหมาย การใช้แมชชีนเลิร์นนิงและการเรียนรู้เชิงลึก (ML/DL) เพื่อการให้เหตุผลทางกฎหมาย NLP ขั้นสูง และอื่นๆ

ระดับ 4 ประกอบด้วยระบบคอมพิวเตอร์ที่ใช้โดเมนอัตโนมัติสำหรับการให้เหตุผลทางกฎหมายของ AI ระดับนี้นำแนวคิดเชิงแนวคิดของ Operational Design Domains (ODDs) มาใช้ซ้ำ ซึ่งใช้สำหรับรถยนต์ที่ขับด้วยตนเอง แต่ใช้กับโดเมนทางกฎหมาย โดเมนทางกฎหมายอาจจำแนกตามขอบเขตการทำงาน เช่น กฎหมายครอบครัว กฎหมายอสังหาริมทรัพย์ กฎหมายล้มละลาย กฎหมายสิ่งแวดล้อม กฎหมายภาษี ฯลฯ

ระดับ 5 ประกอบด้วยระบบคอมพิวเตอร์ที่ทำงานเองโดยสมบูรณ์สำหรับการให้เหตุผลทางกฎหมายของ AI ในแง่หนึ่ง ระดับ 5 เป็นซูเปอร์เซ็ตของระดับ 4 ในแง่ของการครอบคลุมโดเมนทางกฎหมายที่เป็นไปได้ทั้งหมด โปรดทราบว่านี่เป็นคำสั่งซื้อที่ค่อนข้างสูง

คุณสามารถเข้าใจระดับความเป็นอิสระเหล่านี้ได้ในระดับเดียวกับที่ใช้เมื่อพูดถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองและยานยนต์ที่ขับเคลื่อนด้วยตนเอง (ตามมาตรฐาน SAE อย่างเป็นทางการเช่นกัน ดูความครอบคลุมของฉันที่ ลิงค์ที่นี่). เรายังไม่มีรถยนต์ขับเคลื่อนด้วยตนเอง SAE ระดับ 5 เรากำลังเข้าสู่รถยนต์ขับเคลื่อนด้วยตนเอง SAE ระดับ 4 รถยนต์ทั่วไปส่วนใหญ่อยู่ที่ SAE ระดับ 2 ในขณะที่รถยนต์รุ่นใหม่บางรุ่นกำลังเขยิบเข้าสู่ SAE ระดับ 3

ในโดเมนทางกฎหมาย เรายังไม่มี AILR ระดับ 5 เรากำลังสัมผัสกับระดับ 4 แม้ว่าจะเป็น ODD ที่แคบมาก ระดับ 3 กำลังเริ่มเห็นแสงสว่างของวัน ในขณะที่แกนนำของ AILR ในปัจจุบันอยู่ที่ระดับ 2 เป็นหลัก

บทความวิจัยล่าสุดเกี่ยวกับ AI ที่นำไปใช้กับกฎหมายได้ระบุรูปแบบที่เรียกว่า กฎหมายแจ้งรหัส. ผู้วิจัยระบุสิ่งนี้: "หนึ่งในเป้าหมายหลักของ กฎหมายแจ้งรหัส วาระการประชุมคือการสอน AI ให้ปฏิบัติตามเจตนารมณ์ของกฎหมาย” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, วารสารเทคโนโลยีและทรัพย์สินทางปัญญาภาคตะวันตกเฉียงเหนือ, เล่มที่ 20, ที่กำลังจะมาถึง). มีข้อควรพิจารณาที่สำคัญบางประการที่ กฎหมายแจ้งรหัส มนต์ที่ร่ายขึ้นมา และฉันจะแนะนำคุณเกี่ยวกับกฎหลักหลายข้อ

ก่อนที่จะดำดิ่งสู่หัวข้อนี้ ฉันต้องการวางรากฐานที่สำคัญเกี่ยวกับ AI และโดยเฉพาะอย่างยิ่งจริยธรรม AI และกฎหมาย AI ก่อน เพื่อให้แน่ใจว่าการอภิปรายจะสมเหตุสมผลตามบริบท

ความตระหนักที่เพิ่มขึ้นของ AI อย่างมีจริยธรรมและกฎหมาย AI

ยุคใหม่ของ AI ถูกมองว่าเป็นยุคแรกๆ AI เพื่อความดีหมายความว่าเราสามารถใช้ AI เพื่อทำให้มนุษยชาติดีขึ้นได้ บนส้นเท้าของ AI เพื่อความดี มาตระหนักว่าเรายังจมอยู่ใน AI สำหรับไม่ดี. ซึ่งรวมถึง AI ที่ประดิษฐ์ขึ้นหรือเปลี่ยนแปลงตนเองเพื่อให้เป็นการเลือกปฏิบัติ และทำให้ตัวเลือกทางคอมพิวเตอร์สร้างอคติที่ไม่เหมาะสม บางครั้ง AI ถูกสร้างขึ้นในลักษณะนั้น ในขณะที่ในบางกรณีก็เปลี่ยนทิศทางไปยังอาณาเขตที่ไม่ดีนั้น

ฉันต้องการทำให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ AI ที่มีความรู้สึก การสนทนานี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ ความคุ้มครองที่นี่).

ฉันขอแนะนำอย่างยิ่งว่าเราควรเก็บสิ่งต่าง ๆ ลงบนพื้นโลกและพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

โปรดใช้ความระมัดระวังในการปรับเปลี่ยน AI ในปัจจุบัน

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

ทั้งหมดนี้มีนัยยะสำคัญอย่างเด่นชัดของจริยธรรม AI และให้หน้าต่างที่มีประโยชน์ในบทเรียนที่ได้เรียนรู้ (แม้กระทั่งก่อนที่บทเรียนทั้งหมดจะเกิดขึ้น) เมื่อพูดถึงการพยายามออกกฎหมาย AI

นอกจากการใช้หลักจรรยาบรรณของ AI โดยทั่วไปแล้ว ยังมีคำถามที่เกี่ยวข้องว่าเราควรมีกฎหมายเพื่อควบคุมการใช้ AI แบบต่างๆ หรือไม่ มีการบังคับใช้กฎหมายใหม่ในระดับสหพันธรัฐ รัฐ และระดับท้องถิ่นที่เกี่ยวข้องกับขอบเขตและลักษณะของวิธีการประดิษฐ์ AI ความพยายามในการร่างและตรากฎหมายดังกล่าวเป็นไปอย่างค่อยเป็นค่อยไป จรรยาบรรณของ AI ทำหน้าที่เป็นช่องว่างที่พิจารณา อย่างน้อยที่สุด และเกือบจะแน่นอนในระดับหนึ่งจะถูกรวมเข้ากับกฎหมายใหม่เหล่านั้นโดยตรง

พึงตระหนักว่ามีบางคนยืนกรานว่าเราไม่จำเป็นต้องมีกฎหมายใหม่ที่ครอบคลุม AI และกฎหมายที่มีอยู่ของเราก็เพียงพอแล้ว พวกเขาเตือนล่วงหน้าว่าหากเราบังคับใช้กฎหมาย AI เหล่านี้ เราจะฆ่าห่านทองคำโดยการจำกัดความก้าวหน้าของ AI ที่ก่อให้เกิดประโยชน์ทางสังคมอย่างมหาศาล

ในคอลัมน์ก่อนหน้านี้ ฉันได้กล่าวถึงความพยายามระดับชาติและระดับนานาชาติในการสร้างและออกกฎหมายควบคุม AI ดู ลิงค์ที่นี่, ตัวอย่างเช่น. ข้าพเจ้ายังได้กล่าวถึงหลักจรรยาบรรณ AI ต่างๆ ที่นานาประเทศได้ระบุและนำไปใช้ เช่น ความพยายามขององค์การสหประชาชาติ เช่น ชุดจริยธรรม AI ของยูเนสโกที่รับรองเกือบ 200 ประเทศ ดู ลิงค์ที่นี่.

ต่อไปนี้คือรายการหลักที่เป็นประโยชน์ของเกณฑ์หรือคุณลักษณะด้านจริยธรรมของ AI เกี่ยวกับระบบ AI ที่ฉันเคยสำรวจมาก่อนหน้านี้อย่างใกล้ชิด:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

หลักการด้านจริยธรรมของ AI เหล่านี้ควรนำไปใช้อย่างจริงจังโดยนักพัฒนา AI ควบคู่ไปกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด

ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นจุดเด่นที่สำคัญเนื่องจากข้อสันนิษฐานตามปกติคือ "ผู้เขียนโค้ดเท่านั้น" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ได้เน้นย้ำในที่นี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ฉันยังเพิ่งตรวจสอบ AI บิลสิทธิ ซึ่งเป็นชื่ออย่างเป็นทางการของเอกสารทางการของรัฐบาลสหรัฐฯ เรื่อง “พิมพ์เขียวสำหรับบิลสิทธิ AI: ทำให้ระบบอัตโนมัติทำงานเพื่อชาวอเมริกัน” ซึ่งเป็นผลมาจากความพยายามที่ยาวนานเป็นปีของสำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยี (OSTP) ). OSTP เป็นหน่วยงานของรัฐบาลกลางที่ทำหน้าที่ให้คำแนะนำประธานาธิบดีอเมริกันและสำนักงานบริหารของสหรัฐฯ ในด้านเทคโนโลยี วิทยาศาสตร์ และวิศวกรรมที่มีความสำคัญระดับชาติต่างๆ ในแง่นั้น คุณสามารถพูดได้ว่า AI Bill of Rights นี้เป็นเอกสารที่อนุมัติและรับรองโดยทำเนียบขาวของสหรัฐอเมริกาที่มีอยู่

ใน AI Bill of Rights มีหมวดหมู่หลักห้าหมวดหมู่:

  • ระบบที่ปลอดภัยและมีประสิทธิภาพ
  • การป้องกันการเลือกปฏิบัติอัลกอริทึม
  • ข้อมูลส่วนบุคคล
  • ข้อสังเกตและคำอธิบาย
  • ทางเลือกของมนุษย์ การพิจารณา และการย้อนกลับ

ข้าพเจ้าได้ทบทวนศีลเหล่านั้นอย่างละเอียดถี่ถ้วนแล้ว ดูเถิด ลิงค์ที่นี่.

ตอนนี้ฉันได้วางรากฐานที่เป็นประโยชน์เกี่ยวกับหัวข้อจริยธรรม AI และกฎหมาย AI ที่เกี่ยวข้องเหล่านี้แล้ว เราพร้อมที่จะข้ามไปยังหัวข้อหลักเกี่ยวกับการตรวจสอบซ้ำของกฎหมาย AI และขอบเขตของ กฎหมายแจ้งรหัส.

ตัวตรวจสอบทางกฎหมายของ AI ที่ฝังอยู่ใน AI สำหรับการจัดตำแหน่งคุณค่าของมนุษย์

บางครั้งฉันอ้างถึง AI ตัวตรวจสอบทางกฎหมายสองครั้ง ผ่านตัวย่อของ AI-LDC นี่เป็นเรื่องเล็กน้อยสำหรับผู้ที่ไม่คุ้นเคยกับตัวย่อ ดังนั้น ฉันจะไม่ใช้ตัวย่อเฉพาะนี้ในการสนทนานี้ แต่ต้องการพูดถึงให้คุณทราบล่วงหน้า

หากต้องการแกะความซับซ้อนบางอย่างของตัวตรวจสอบกฎหมายของ AI เรามาพูดถึงประเด็นสำคัญเหล่านี้กัน:

  • การใช้ตัวตรวจสอบทางกฎหมายของ AI เป็นกลไกการจัดตำแหน่งคุณค่าของมนุษย์ของ AI
  • AI ที่กว้างขวางมากขึ้นจะต้องใช้ตัวตรวจสอบกฎหมาย AI ที่มีประสิทธิภาพมากขึ้นตามลำดับ
  • ตัวตรวจสอบกฎหมายของ AI ออกกฎหมายและโดยเฉพาะอย่างยิ่งไม่ได้สร้างกฎหมาย (สันนิษฐาน)
  • ความสมดุลที่ละเอียดอ่อนระหว่างการรวมกฎหมาย AI ของกฎหมายในฐานะกฎกับมาตรฐาน
  • ต้องการหลักฐานของพุดดิ้งเมื่อ AI ปฏิบัติตามกฎหมาย

เนื่องจากข้อจำกัดของพื้นที่ ฉันจะครอบคลุม XNUMX ประเด็นนี้สำหรับตอนนี้ แต่โปรดติดตามดูสำหรับความครอบคลุมเพิ่มเติมในคอลัมน์ของฉันซึ่งครอบคลุมข้อควรพิจารณาเพิ่มเติมและสำคัญพอๆ กันในเรื่องที่มีการพัฒนาอย่างรวดเร็วและก้าวไปข้างหน้าเหล่านี้

ตอนนี้คาดเข็มขัดนิรภัยและเตรียมพร้อมสำหรับการเดินทางที่เติมพลัง

  • การใช้ตัวตรวจสอบทางกฎหมายของ AI เป็นกลไกการจัดตำแหน่งคุณค่าของมนุษย์ของ AI

มีหลายวิธีในการพยายามบรรลุความสอดคล้องที่กลมกลืนระหว่าง AI และคุณค่าของมนุษย์

ดังที่กล่าวไว้ก่อนหน้านี้ เราสามารถผลิตและประกาศใช้หลักจริยธรรมของ AI และพยายามให้นักพัฒนา AI และผู้ที่ดูแลและใช้งาน AI ปฏิบัติตามหลักสำคัญเหล่านั้น น่าเสียดายที่สิ่งนี้เพียงอย่างเดียวไม่ได้ผล คุณมีนักประดิษฐ์บางคนที่จะไม่ได้รับข้อความอย่างหลีกเลี่ยงไม่ได้ คุณมีผู้สมรู้ร่วมคิดที่จะโอ้อวดเอไอที่มีจริยธรรมและพยายามหลีกเลี่ยงหลักการที่กำหนดที่ค่อนข้างหลวม-โกลาหล และอื่น ๆ

การใช้แนวทางแบบ “กฎหมายที่นุ่มนวล” ซึ่งเกี่ยวข้องกับจริยธรรมของ AI จะต้องจับคู่กับแนวทาง “กฎหมายที่เข้มงวด” อย่างหลีกเลี่ยงไม่ได้ เช่น การออกกฎหมายและข้อบังคับที่จะส่งสัญญาณที่หนักแน่นไปยังทุกคนที่สร้างหรือใช้ AI แขนยาวของกฎหมายอาจมาหาคุณหากคุณไม่ได้ใช้ประโยชน์จาก AI อย่างรอบคอบ เสียงประตูห้องขังส่งเสียงดังอาจเรียกความสนใจได้อย่างมาก

ปัญหาใหญ่ก็คือบางครั้งประตูโรงนาได้ปล่อยม้าออกไปแล้ว AI ที่ถูกสอดแนมอาจสร้างการกระทำที่ผิดกฎหมายทุกรูปแบบและทำต่อไปจนกว่าจะไม่เพียงแค่ถูกจับ แต่เมื่อการบังคับใช้บางอย่างถึงขั้นขัดขวางการดำเนินการที่ผิดกฎหมายในที่สุด ทั้งหมดนี้อาจต้องใช้เวลา ในขณะเดียวกัน มนุษย์ก็ได้รับอันตรายไม่ทางใดก็ทางหนึ่ง

การจู่โจมนี้มาพร้อมกับตัวตรวจสอบทางกฎหมายของ AI

เมื่ออยู่ภายในแอป AI ตัวตรวจสอบกฎหมายของ AI สามารถตรวจจับได้ทันทีเมื่อดูเหมือนว่า AI กำลังทำผิดกฎหมาย ตัวตรวจสอบทางกฎหมายของ AI อาจหยุด AI ในเส้นทางของมัน หรือส่วนประกอบอาจแจ้งเตือนมนุษย์เกี่ยวกับกิจกรรมที่ผิดกฎหมายที่มองเห็นได้ การทำเช่นนั้นตามเวลาที่กำหนดอาจกระตุ้นให้ผู้ดูแลดำเนินการแก้ไขอย่างเร่งด่วน นอกจากนี้ยังมีการบันทึกอย่างเป็นทางการที่พิจารณาว่าส่วนประกอบสามารถสร้างขึ้นได้ ทำให้มีลักษณะที่จับต้องได้ของเส้นทางการตรวจสอบเพื่อวัตถุประสงค์ในการจัดทำรหัสการกระทำที่ไม่พึงประสงค์ของ AI

กฎหมายของเราได้รับการกล่าวขานว่าเป็นรูปแบบหนึ่งของกลุ่มบริษัทหลายหน่วยงาน ดังนั้นกฎหมายจึงเป็นการผสมผสานระหว่างสิ่งที่สังคมพยายามสร้างความสมดุลระหว่างมุมมองที่ขัดแย้งกันเกี่ยวกับพฤติกรรมทางสังคมที่เหมาะสมและไม่เหมาะสม ดังนั้นตัวตรวจสอบทางกฎหมายของ AI ตามกฎหมายของเราจึงรวมเอาส่วนผสมนั้นเข้าไว้ด้วยกัน

นี่เป็นมากกว่าการเขียนโปรแกรมรายการกฎทางกฎหมายขั้นสุดท้าย กฎหมายมีแนวโน้มที่จะเปลี่ยนแปลงได้ง่ายกว่าและมุ่งไปสู่มาตรฐานที่ครอบคลุม แทนที่จะระบุกฎเกณฑ์เล็ก ๆ น้อย ๆ ที่เล็กที่สุด ความซับซ้อนมีมากมาย

ย้อนกลับไปยังเอกสารการวิจัยที่ระบุไว้ก่อนหน้านี้ ต่อไปนี้เป็นวิธีการดูการพิจารณาเหล่านี้เกี่ยวกับการแสวงหา AI Alignment: "กฎหมาย ปรัชญาประยุกต์ของการจัดตำแหน่งหลายตัวแทน ปฏิบัติตามเกณฑ์เหล่านี้โดยเฉพาะ การจัดตำแหน่งเป็นปัญหาเพราะเราไม่สามารถ อดีตก่อน ระบุกฎที่ชี้นำพฤติกรรม AI ที่ดีอย่างเต็มที่และพิสูจน์ได้ ในทำนองเดียวกัน คู่สัญญาในสัญญาทางกฎหมายไม่สามารถคาดการณ์ความสัมพันธ์ที่อาจเกิดขึ้นได้ทั้งหมด และสมาชิกสภานิติบัญญัติไม่สามารถคาดเดาสถานการณ์เฉพาะเจาะจงที่กฎหมายของพวกเขาจะถูกนำไปใช้ได้ นั่นคือเหตุผลที่กฎหมายส่วนใหญ่เป็นกลุ่มดาวมาตรฐาน” (ibid)

การรวมร่างกฎหมายเข้ากับระบบตรวจสอบซ้ำของกฎหมาย AI นั้นท้าทายกว่าที่คุณคาดไว้ในตอนแรกมาก

เมื่อ AI ก้าวหน้า เราจะต้องใช้ประโยชน์จากความก้าวหน้าดังกล่าวให้สอดคล้องกัน กลายเป็นว่าสิ่งที่ดีสำหรับห่านก็เป็นสิ่งที่ดีสำหรับห่านตัวผู้เช่นกัน พวกเราที่มีความก้าวหน้าใน AI ตามที่กฎหมายบังคับใช้กำลังผลักดันซองจดหมายให้กับ AI และสร้างความก้าวหน้าใหม่ ๆ อย่างไม่แน่นอน ซึ่งสามารถป้อนเข้าสู่ความก้าวหน้าของ AI ได้ในที่สุด

  • AI ที่กว้างขวางมากขึ้นจะต้องใช้ตัวตรวจสอบกฎหมาย AI ที่มีประสิทธิภาพมากขึ้นตามลำดับ

กลเม็ดแมวจับหนูเผชิญหน้ากับหัวข้อนี้

มีโอกาสที่เมื่อ AI ก้าวหน้ามากขึ้น ส่วนประกอบตัวตรวจสอบกฎหมายของ AI ใดๆ จะพบเรื่องที่รับมือได้ยากขึ้นและยากขึ้น ตัวอย่างเช่น แอป AI ที่กำลังตรวจสอบอาจมีวิธีลับๆ ล่อๆ ที่คิดค้นขึ้นใหม่เพื่อซ่อนการกระทำที่ผิดกฎหมายที่ AI กำลังทำอยู่ แม้ว่า AI จะไม่ได้ใช้เส้นทางลับ แต่ความซับซ้อนโดยรวมของ AI ก็อาจเป็นอุปสรรค์ที่น่ากลัวสำหรับการพยายามให้มีการประเมินตัวตรวจสอบทางกฎหมายของ AI อีกครั้ง

นี่เป็นวิธีที่มีความสำคัญเป็นพิเศษ

สมมติว่านักพัฒนา AI หรือบริษัทที่ใช้ AI ประกาศว่ามีตัวตรวจสอบทางกฎหมายของ AI ที่ฝังอยู่ในแอปที่ใช้ AI Voila ตอนนี้พวกเขาดูเหมือนจะล้างมือจากความกังวลเพิ่มเติมแล้ว ตัวตรวจสอบกฎหมาย AI จะดูแลทุกอย่าง

ไม่เช่นนั้น

ตัวตรวจสอบกฎหมาย AI อาจไม่เพียงพอสำหรับลักษณะของแอพ AI ที่เกี่ยวข้อง นอกจากนี้ มีความเป็นไปได้ที่ตัวตรวจสอบกฎหมาย AI จะล้าสมัย อาจไม่ได้รับการอัปเดตด้วยกฎหมายล่าสุดที่เกี่ยวข้องกับแอป AI เหตุผลหลายประการสามารถคาดการณ์ได้ว่าทำไมการมีอยู่ของ AI Legal double-checker จึงไม่ใช่เรื่องเงิน

พิจารณาข้อมูลเชิงลึกเหล่านี้จากการวิจัยที่อ้างถึงก่อนหน้านี้: “ในขณะที่ความก้าวหน้าของ AI ล้ำสมัย เราสามารถกำหนดระดับความสามารถในการเข้าใจกฎหมายที่สูงขึ้นซ้ำแล้วซ้ำเล่า หากนักพัฒนาอ้างว่าระบบของพวกเขามีความสามารถขั้นสูงในงานต่างๆ พวกเขาควรแสดงให้เห็นถึงความเข้าใจทางกฎหมายขั้นสูงที่สอดคล้องกันและความสามารถด้านกฎหมายและการใช้เหตุผลของ AI ซึ่งแทบจะไม่มีอุปสรรคเลยเมื่อพิจารณากฎหมายและระเบียบข้อบังคับตลอดเวลา แบบอย่าง และเขตอำนาจศาล ” (อ้างแล้ว).

  • ตัวตรวจสอบกฎหมายของ AI ออกกฎหมายและโดยเฉพาะอย่างยิ่งไม่ได้สร้างกฎหมาย (สันนิษฐาน)

ฉันแน่ใจว่าพวกคุณบางคนตกตะลึงกับแนวคิดของการมีตัวตรวจสอบกฎหมาย AI เหล่านี้

ความกังวลอย่างหนึ่งที่มักถูกเปล่งออกมาก็คือ ดูเหมือนว่าเราจะยอมให้ AI ตัดสินกฎหมายแทนเรา คุณคงกำลังคิดว่า ระบบอัตโนมัติบางชิ้นจะแซงหน้ามนุษยชาติ ตัวตรวจสอบกฎหมาย AI ที่ฝังอยู่ในตัวเหล่านั้นจะกลายเป็นราชาเริ่มต้นของกฎหมายของเรา อะไรก็ตามที่พวกเขาทำก็จะเป็นไปตามกฎหมาย

มนุษย์จะถูกควบคุมโดย AI

และตัวตรวจสอบกฎหมาย AI เหล่านี้เป็นทางลาดลื่นที่พาเราไปถึงจุดนั้น

ข้อโต้แย้งคือการพูดคุยดังกล่าวเป็นเรื่องของทฤษฎีสมคบคิด คุณกำลังตั้งสมมติฐานอย่างดุเดือดและทำให้ตัวเองมึนงง ความจริงก็คือผู้ตรวจสอบกฎหมายของ AI เหล่านี้ไม่ได้มีความรู้สึก พวกเขาจะไม่ยึดครองโลก และการหลอกล่อเกี่ยวกับความเสี่ยงที่มีอยู่นั้นถือเป็นเรื่องไร้สาระและเกินจริงอย่างมาก

สรุปแล้ว ยังคงอยู่ในท่าทางที่สงบและมีเหตุผล เราจำเป็นต้องตระหนักว่าตัวตรวจสอบกฎหมายของ AI ทำหน้าที่สะท้อนกฎหมายอย่างเหมาะสม ไม่ใช่โดยการออกแบบหรือโดยไม่ได้ตั้งใจ ไปไกลกว่านั้นในทางใดทางหนึ่งเพื่อเริ่มต้นเข้าสู่อาณาจักรแห่งการสร้างความเคารพ กฎ. เราสามารถเห็นพ้องต้องกันว่ามีข้อกังวลที่แท้จริงและเร่งด่วนที่ตัวตรวจสอบกฎหมายของ AI อาจลงเอยด้วยการบิดเบือนความจริงของกฎหมายที่กำหนด

ในทางกลับกัน คุณสามารถอ้างได้ว่าด้วยเหตุนี้กฎหมายที่ "บิดเบือนความจริง" โดยเฉพาะจึงถูกสร้างขึ้นใหม่โดยพื้นฐานแล้ว เนื่องจากกฎหมายดังกล่าวไม่ได้บ่งชี้ถึงสิ่งที่กฎหมายแท้จริงกำหนดไว้อย่างเหมาะสมอีกต่อไป ฉันเชื่อว่าคุณสามารถเห็นได้อย่างตรงไปตรงมาว่านี่เป็นการพิจารณาที่ละเอียดอ่อน แต่บอกได้ ในเวลาใดก็ได้ ตัวตรวจสอบกฎหมาย AI สามารถทำได้บนพื้นฐานเสมือนจริงโดยสร้างหรือเราจะพูดว่า "หลอนประสาท" กฎหมายใหม่โดยวิธีการที่องค์ประกอบ AI ตีความกฎหมายตามที่ระบุไว้ในตอนแรกหรือรวมอยู่ใน AI (สำหรับความครอบคลุมของฉัน ของเอไอที่เรียกว่า ภาพหลอนโปรดดูที่ ลิงค์ที่นี่).

การดูแลในเรื่องนี้จะต้องออกกำลังกายอย่างจริงจัง

ในหัวข้อนี้ การศึกษาวิจัยดังกล่าวข้างต้นเสนอความคิดคู่ขนานนี้ในแง่ของการพยายามหลีกเลี่ยงการข้ามเส้นแบ่งศักดิ์สิทธิ์ที่ว่า “เราไม่ได้มุ่งหวังให้ AI มีความชอบธรรมในการออกกฎหมาย กำหนดแบบอย่างทางกฎหมาย หรือบังคับใช้กฎหมาย ในความเป็นจริง สิ่งนี้จะบ่อนทำลายแนวทางของเรา (และเราควรทุ่มเทความพยายามอย่างมากในการป้องกันสิ่งนั้น) แต่เป้าหมายที่ทะเยอทะยานที่สุดของ Law Informing Code คือการเข้ารหัสด้วยคอมพิวเตอร์และฝังความสามารถทั่วไปของแนวคิดและมาตรฐานทางกฎหมายที่มีอยู่ลงในประสิทธิภาพ AI ที่ผ่านการตรวจสอบ” (ibid)

  • ความสมดุลที่ละเอียดอ่อนระหว่างการรวมกฎหมาย AI ของกฎหมายในฐานะกฎกับมาตรฐาน

กฎหมายยุ่งเหยิง

สำหรับกฎหมายใด ๆ ในหนังสือ มีแนวโน้มว่าจะมีการตีความมากมายเกี่ยวกับสิ่งที่กฎหมายกำหนดไว้ในการปฏิบัติจริง ในสำนวนของฟิลด์ AI เราอ้างถึงกฎหมายว่ามีความคลุมเครือในเชิงความหมาย นั่นคือสิ่งที่ทำให้การพัฒนา AI นำไปใช้กับกฎหมายดังกล่าวเป็นความท้าทายที่น่าตื่นเต้นและก่อกวนไปพร้อมๆ กัน ซึ่งแตกต่างจากการบดขยี้ตัวเลขอย่างแม่นยำที่คุณอาจเห็นสำหรับแอปพลิเคชัน AI ที่เน้นเรื่องการเงิน ความปรารถนาที่จะรวบรวมกฎหมายของเราให้เป็น AI นำมาซึ่งการรับมือกับสึนามิของความคลุมเครือทางความหมาย

ในหนังสือมูลนิธิของฉันเกี่ยวกับพื้นฐานของการใช้เหตุผลทางกฎหมายของ AI (AILR) ฉันหารือว่าความพยายามก่อนหน้านี้ในการรวบรวมกฎหมายให้เป็นชุดของกฎที่มีขอบเขตไม่ได้ทำให้เราไปไกลเท่าที่เราต้องการในโดเมนทางกฎหมาย (ดู ลิงค์ที่นี่). AILR ในปัจจุบันต้องครอบคลุมการบูรณาการระหว่างการใช้กฎและสิ่งที่อาจเรียกว่ามาตรฐานที่ครอบคลุมซึ่งกฎหมายเป็นตัวแทน

ความสมดุลที่สำคัญนี้สามารถแสดงออกในลักษณะนี้: “ในทางปฏิบัติ บทบัญญัติทางกฎหมายส่วนใหญ่มีขอบเขตระหว่างกฎเกณฑ์ที่บริสุทธิ์และมาตรฐานที่บริสุทธิ์ และทฤษฎีทางกฎหมายสามารถช่วยประเมินการผสมผสานที่ถูกต้องของ “ความเป็นกฎเกณฑ์” และ “ความเป็นมาตรฐาน” เมื่อระบุวัตถุประสงค์ของระบบ AI” (อ้างแล้ว)

  • ต้องการหลักฐานของพุดดิ้งเมื่อ AI ปฏิบัติตามกฎหมาย

ความต้องการบางอย่างแตกต่างจากการมีบางอย่าง

เกร็ดความรู้เล็กๆ น้อยๆ นั้นปรากฏขึ้นเมื่อเสนอว่าแม้ว่าเราอาจต้องการมีตัวตรวจสอบทางกฎหมายของ AI ซ้ำอีก แต่เราจำเป็นอย่างยิ่งที่จะต้องมั่นใจว่ามันทำงานและทำงานได้อย่างถูกต้อง โปรดทราบว่านี่เป็นอีกหนึ่งอุปสรรค์ที่ยากและทรหด ก่อนหน้านี้ฉันได้พูดถึงความก้าวหน้าและความท้าทายล่าสุดในการยืนยันและตรวจสอบความถูกต้องของ AI ดู ลิงค์ที่นี่.

ดังที่ระบุไว้ในรายงานการวิจัย: “เพื่อแก้ไขช่องว่าง ก่อนที่โมเดล AI จะถูกปรับใช้ในความสามารถเชิงตัวแทนที่มากขึ้น เช่น ยานพาหนะอัตโนมัติเต็มรูปแบบบนถนนสายหลัก ฝ่ายปรับใช้ควรแสดงให้เห็นถึงความเข้าใจของระบบเกี่ยวกับเป้าหมาย นโยบาย และมาตรฐานทางกฎหมายของมนุษย์ ขั้นตอนการตรวจสอบสามารถแสดงให้เห็นถึง 'ความเข้าใจ' ของ AI ต่อ 'ความหมาย' ของแนวคิดทางกฎหมาย” (ibid)

สรุป

ฉันขอให้คุณพิจารณาเข้าร่วมกับฉันในภารกิจอันสูงส่งนี้ เพื่อสร้างและตรวจสอบตัวตรวจสอบทางกฎหมายของ AI เราต้องการความสนใจและทรัพยากรมากขึ้นเพื่ออุทิศให้กับการแสวงหาคุณธรรมนี้

สิ่งนี้ยังมอบหน้าที่สองเท่าดังที่ได้กล่าวไว้ก่อนหน้านี้ในการบรรลุเหตุผลทางกฎหมายของ AI (AILR) ที่สามารถใช้เพื่อช่วยเหลือทนายความและประชาชนทั่วไปอาจใช้โดยตรง อันที่จริง บางคนโต้เถียงอย่างฉุนเฉียวว่าวิธีเดียวที่จะเข้าถึงความยุติธรรมได้อย่างแท้จริง (A2J) คือการสร้าง AI ที่รวบรวมความสามารถทางกฎหมายและทุกคนสามารถเข้าถึงได้

จุดสุดท้ายอย่างรวดเร็วสำหรับตอนนี้

การอภิปรายจนถึงตอนนี้ได้เน้นย้ำว่า AI จะถูกฝังหรือฝังตัวตรวจสอบทางกฎหมายซ้ำซ้อนใน AI นี่เป็นจุดสนใจหลักของผู้ที่ทำการค้นคว้าและดำเนินการในอาณาจักรที่เกิดขึ้นใหม่นี้

นี่เป็นคำถามที่ควรค่าแก่การพิจารณา

ใส่หมวกความคิดของคุณ

ทำไมไม่ใช้ตัวตรวจสอบกฎหมาย AI ในซอฟต์แวร์ทั้งหมด

สาระสำคัญคือ แทนที่จะใช้ตัวตรวจสอบกฎหมายของ AI เพียงอย่างเดียวใน AI บางทีเราควรขยายมุมมองของเราให้กว้างขึ้น ซอฟต์แวร์ทุกชนิดสามารถหลงทางอย่างถูกกฎหมาย เป็นที่ยอมรับกันว่า AI ได้รับความสนใจเป็นส่วนใหญ่เนื่องจากวิธีการที่ AI มักจะถูกนำไปใช้ เช่น การตัดสินใจที่เฉียบขาดซึ่งส่งผลกระทบต่อมนุษย์ในชีวิตประจำวันของพวกเขา คุณสามารถยืนยันได้ทันทีว่ามีระบบที่ไม่ใช่ AI จำนวนมากที่ทำเช่นเดียวกัน

โดยพื้นฐานแล้ว เราไม่ควรปล่อยให้ซอฟต์แวร์ใดๆ ใช้งานฟรีเพื่อหลีกเลี่ยงหรือหลีกเลี่ยงกฎหมาย

จำได้ว่าก่อนหน้านี้ฉันได้กล่าวถึงสองประเภทของการรวม AI และกฎหมาย ในที่นี้เราได้เน้นไปที่การใช้ AI ตามที่กฎหมายกำหนด อีกด้านหนึ่งของเหรียญคือการใช้กฎหมายกับ AI สมมติว่าเราออกกฎหมายที่ต้องใช้ตัวตรวจสอบทางกฎหมายของ AI

ในตอนแรกสิ่งนี้อาจจำกัดอยู่เฉพาะระบบ AI โดยเฉพาะระบบที่มีความเสี่ยงสูงเป็นพิเศษ ข้อกำหนดการตรวจสอบซ้ำทางกฎหมายของ AI แบบค่อยเป็นค่อยไปสามารถขยายไปยังซอฟต์แวร์ที่ไม่ใช่ AI ได้เช่นกัน อีกครั้งไม่มีการขี่ฟรี

ในขณะที่คุณพิจารณาเรื่องข้างต้นฉันจะเพิ่มสีสันให้กับสิ่งต่าง ๆ เป็นทีเซอร์ปิดท้าย หากเรากำลังพยายามกำหนดให้มีการตรวจสอบซ้ำด้านกฎหมายของ AI เราก็อาจดำเนินการเช่นเดียวกันเกี่ยวกับการตรวจสอบซ้ำด้านจริยธรรมของ AI การใช้ตัวตรวจสอบทางกฎหมายของ AI เป็นเพียงครึ่งเดียวของเรื่องราว และเราไม่สามารถละเลยหรือลืมข้อกังวลด้านจริยธรรมของ AI ได้เช่นกัน

ฉันจะจบการสนทนาที่สนุกสนานนี้ด้วยหนึ่งในคำพูดที่ฉันโปรดปราน ตามคำพูดอันชาญฉลาดของเอิร์ล วอร์เรน นักกฎหมายที่มีชื่อเสียงซึ่งดำรงตำแหน่งหัวหน้าผู้พิพากษาของสหรัฐอเมริกา: "ในชีวิตที่ศิวิไลซ์ กฎหมายล่องลอยอยู่ในทะเลแห่งจริยธรรม"

อาจเป็นการดีที่สุดที่จะใส่ตัวตรวจสอบซ้ำสองด้านทางกฎหมายของ AI รุ่นใหม่และฟองสบู่และตัวตรวจสอบจริยธรรมของ AI มาใช้อย่างกระตือรือร้นหากเราต้องการให้ศีรษะของเราอยู่เหนือทะเลที่อาจปรากฏขึ้นจาก AI เปรี้ยวและระบบที่ไม่ใช่ AI ที่เป็นอันตรายต่อความปลอดภัยของเรา .

พวกเขาอาจจะเป็นเสื้อชูชีพของมนุษยชาติ

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- และ-ai-กฎหมาย/