จรรยาบรรณของ AI พิจารณาถึงข้อดีของกองทุนเพื่อการชดใช้ตามกฎหมายเพื่อให้แน่ใจว่ามีความรับผิดชอบต่อ AI ที่ทำหน้าที่ไม่ดี

ใครจะตำหนิ?

นั่นอาจดูเหมือนเป็นคำถามที่ตรงไปตรงมา แม้ว่าในกรณีของคอเมดีชื่อดังของคู่หูในตำนานของแอ๊บบอตและคอสเตลโลเกี่ยวกับทีมเบสบอล "ใคร" อาจทำให้สับสนได้ คุณอาจคุ้นเคยกับ ใครมาก่อน กิจวัตรตลกที่พวกเขาทำเป็นหนึ่งในการละเล่นที่ยืนยงที่สุดตลอดกาล (เตือนสปอยล์สำหรับคนที่ไม่เคยได้ยิน)

แอ๊บบอตบอกคอสเตลโลว่าใครจะได้อันดับหนึ่ง อะไรที่สอง และฉันไม่รู้ว่าใครอยู่ในอันดับที่สาม กลอุบายที่ชาญฉลาดคือเบสแรกชื่อ Who ชั้นใต้ดินที่สองชื่ออะไร และเบสที่สามชื่อฉันไม่รู้ แน่นอน วลีเหล่านั้นมีความหมายตามแบบแผน ดังนั้นการพยายามตีความสิ่งที่แอ๊บบอตกำลังพูดอยู่จึงทำให้สับสนได้ อันที่จริง คอสเตลโลถามคำถามที่ดูเหมือนไม่มีพิษมีภัยว่าใครคือคนแรก ซึ่งคำตอบคือตอบอย่างแน่วแน่ว่าใช่ แต่สิ่งนี้ไม่สมเหตุสมผลสำหรับคอสเตลโล เพราะเขาคาดหวังชื่อและได้รับคำตอบที่น่าฉงนว่าใช่แทน

การเปลี่ยนเกียร์ เมื่อพูดถึงการถือกำเนิดของปัญญาประดิษฐ์ (AI) หนึ่งในคำถามที่น่ารำคาญที่สุดที่มักถูกถามอยู่เสมอนั้นเกี่ยวข้องกับใครหรือบางทีสิ่งที่จะต้องรับผิดชอบเมื่อ AI หลงทาง

ก่อนหน้านี้ฉันเคยพูดถึงความรับผิดชอบทางอาญาเมื่อ AI นำไปสู่หรือดำเนินการทางอาญา ดูการรายงานข่าวของฉันที่ ลิงค์ที่นี่. นอกจากนี้ยังมีเรื่องของความรับผิดชอบทางแพ่ง เช่น ใครหรือสิ่งที่คุณจะฟ้องเมื่อ AI ทำผิดกับคุณ ซึ่งเป็นหัวข้อที่ผมจะกล่าวถึงในที่นี้ ทั้งหมดนี้มีข้อควรพิจารณาด้านจริยธรรม AI ที่สำคัญ สำหรับการครอบคลุมอย่างต่อเนื่องและกว้างขวางของฉันเกี่ยวกับจริยธรรม AI และ AI เชิงจริยธรรม โปรดดูที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ศีลของ AI Ethics ทำให้เราตื่นตัวอยู่เสมอ นักเทคโนโลยี AI ในบางครั้งอาจหมกมุ่นอยู่กับเทคโนโลยี โดยเฉพาะอย่างยิ่งการปรับให้เหมาะสมของเทคโนโลยีชั้นสูง พวกเขาไม่จำเป็นต้องพิจารณาถึงการแตกแขนงทางสังคมที่ใหญ่ขึ้น การมีกรอบความคิดด้าน AI Ethics และการทำเช่นนั้นร่วมกับการพัฒนาและการลงพื้นที่ของ AI เป็นสิ่งสำคัญสำหรับการผลิต AI ที่เหมาะสม ซึ่งรวมถึงการประเมินว่าบริษัทนำจริยธรรม AI ไปใช้อย่างไร

นอกจากการใช้หลักจรรยาบรรณของ AI โดยทั่วไปแล้ว ยังมีคำถามที่เกี่ยวข้องว่าเราควรมีกฎหมายเพื่อควบคุมการใช้ AI แบบต่างๆ หรือไม่ มีการบังคับใช้กฎหมายใหม่ในระดับสหพันธรัฐ รัฐ และระดับท้องถิ่นที่เกี่ยวข้องกับขอบเขตและลักษณะของวิธีการประดิษฐ์ AI ความพยายามในการร่างและตรากฎหมายดังกล่าวเป็นไปอย่างค่อยเป็นค่อยไป จรรยาบรรณของ AI ทำหน้าที่เป็นช่องว่างที่พิจารณา อย่างน้อยที่สุด และเกือบจะแน่นอนในระดับหนึ่งจะถูกรวมเข้ากับกฎหมายใหม่เหล่านั้นโดยตรง

พึงตระหนักว่ามีบางคนยืนกรานว่าเราไม่จำเป็นต้องมีกฎหมายใหม่ที่ครอบคลุม AI และกฎหมายที่มีอยู่ของเราก็เพียงพอแล้ว อันที่จริง พวกเขาเตือนล่วงหน้าว่าหากเราบังคับใช้กฎหมาย AI เหล่านี้ เราจะฆ่าห่านทองคำโดยจำกัดความก้าวหน้าของ AI ที่ก่อให้เกิดประโยชน์ทางสังคมอย่างมหาศาล

การอภิปรายอย่างดุเดือดที่เกิดขึ้นคือกฎหมายที่มีอยู่สามารถจัดการกับการเกิดขึ้นของระบบ AI ทั่วทั้งสังคมได้อย่างเพียงพอหรือไม่ ความรับผิดทางกฎหมายมักกำหนดให้คุณสามารถตรึงหางลาว่าใครเป็นผู้รับผิดชอบต่อการกระทำที่เป็นอันตราย ในกรณีของ AI อาจมีเส้นทางที่ค่อนข้างไม่ชัดเจนซึ่งเชื่อมโยงบุคคลหรือบุคคลใดบุคคลหนึ่งกับ AI ที่ดำเนินการทำร้าย AI ส่วนใหญ่ไม่สามารถติดตามแหล่งที่มาหรือนักประดิษฐ์ที่ประกอบเป็น AI

ข้อพิจารณาอีกประการหนึ่งคือแม้ว่ารากของ AI จะสามารถสืบหาถึงใครบางคนได้ แต่คำถามก็คือว่าบุคคลหรือบุคคลนั้นอาจไม่สามารถคาดการณ์ถึงผลลัพธ์ที่ไม่พึงประสงค์ที่ AI สร้างขึ้นในที่สุด ปมของการคาดการณ์ล่วงหน้าเป็นปัจจัยเด่นในการประเมินความรับผิดทางกฎหมาย

คุณอาจถูกล่อลวงให้คิดว่าคุณสามารถติดตาม AI เองและตั้งชื่อ AI ว่าเป็นฝ่ายกฎหมายที่รับผิดชอบหรือรับผิดชอบต่อความเสียหายใด ๆ ก็ตามที่ถูกกล่าวหาว่าเกิดขึ้น โดยทั่วไปแล้ว มุมมองทางกฎหมายที่มีอยู่ทั่วไปคือ AI ยังไม่บรรลุนิติภาวะในระดับหนึ่ง ดังนั้น คุณจะไม่สามารถพูดอย่างเคร่งครัดเพื่อให้ AI จ่ายเงินได้และจะต้องค้นหาคนที่ทำงานอยู่เบื้องหลังอย่างที่เป็นอยู่ (สำหรับการวิเคราะห์บุคคลตามกฎหมายสำหรับ AI ดู ลิงค์ที่นี่).

ความผิดทางกฎหมายที่อาจเกิดขึ้นทั้งหมดนี้ ทำให้เกิดแนวคิดที่ลอยอยู่ในแนวทางแก้ไขที่เป็นไปได้ ไม่ว่าจะในระยะสั้นหรือระยะยาว แนวคิดก็คือว่าบางทีควรมีการจัดตั้งกองทุนชดเชยพิเศษขึ้นเพื่อบรรเทาทุกข์ทางการเงินแก่ผู้ที่ได้รับอันตรายจาก AI หากคุณไม่สามารถให้ AI ชดเชยคุณได้ และคุณไม่สามารถตำหนิบุคคลที่น่าจะรับผิดชอบได้ ทางเลือกที่ดีที่สุดอันดับต่อไปคือการใช้กองทุนชดเชยที่มีจุดมุ่งหมายเพื่อช่วยเหลือผู้ที่ได้รับอันตรายจาก AI

กองทุนดังกล่าวจะคล้ายกับรูปแบบของการประกันภัยตามที่ระบุไว้ในรายงานการวิจัยที่กระตุ้นความคิด: "โดยพื้นฐานแล้วจะเป็นกลไกการประกันต่อความไม่แน่นอน: กรอบการทำงานที่ชัดเจนและโปร่งใสสำหรับการชดเชยที่รวดเร็วในกรณีที่คดีความรับผิดมี ความไม่แน่นอนหรือโอกาสของความสำเร็จอันเนื่องมาจากลักษณะที่คาดไม่ถึงของพฤติกรรมที่สร้างความเสียหาย (ประเภท) สร้างความเสียหายเอง หรือค่าใช้จ่ายที่มากเกินไป และ/หรือความซับซ้อนของขั้นตอน” (บทความโดย Olivia Erdelyi และ Gabor Erdelyi, “The AI ​​Liability Puzzle” และการทำงานโดยใช้เงินทุน” วารสารวิจัยปัญญาประดิษฐ์, 2021)

กองทุนชดเชยจะเป็นส่วนหนึ่งของโครงการรับประกัน AI ที่ครอบคลุม (AIGS) และมาพร้อมกับการเปลี่ยนแปลงเล็กน้อยในกฎหมายที่มีอยู่เกี่ยวกับความรับผิดทางกฎหมาย การสัมผัสที่เบาน่าจะง่ายกว่าในการออกกฎหมายและไม่ต้องการความลำบากใจทางกฎหมายและสังคมที่ลำบากหากมีการเปลี่ยนแปลงแสดงให้เห็นหลายชุดในระบอบกฎหมายที่มีอยู่ ต่อนักวิจัย: “สิ่งนี้สะท้อนถึงความเชื่อของเราที่ว่า – แม้จะมีการอุทธรณ์ของวิธีแก้ปัญหาอย่างรวดเร็ว – the ไม่เปลี่ยนแปลง การใช้กฎความรับผิดที่มีอยู่กับ AI หรือ a มีแรงจูงใจในการป้องกัน การเรียกร้องความรับผิดโดยเคร่งครัดเพื่อสร้างความรับผิดชอบไม่ว่าจะด้วยต้นทุนใดก็ตาม ไม่ใช่คำตอบที่ถูกต้องด้วยเหตุผลสามประการ: ประการแรก การเพิกเฉยว่ากฎเหล่านั้นได้รับการปรับให้เข้ากับสถานการณ์ที่แตกต่างกัน และอาจไม่เหมาะสมสำหรับ AI ทำให้พวกเขาฝ่าฝืนวัตถุประสงค์ที่สมดุลอย่างประณีตของ ระบบความรับผิดทางกฎหมาย ประการที่สอง พวกเขายับยั้งนวัตกรรม AI โดยใช้แนวทางการลงโทษอย่างไม่เหมาะสม ประการที่สาม การใช้ความรับผิดโดยเคร่งครัดอย่างไม่เหมาะสม เพียงแต่หลีกเลี่ยงปัญหาการคาดการณ์ล่วงหน้าและข้อผิดพลาดในลักษณะที่ไม่สอดคล้องตามหลักเหตุผล แทนที่จะแก้ไข” (ตามเอกสารที่อ้างถึงข้างต้น)

ข้อโต้แย้งที่สนับสนุนกองทุนชดเชย AI ดังกล่าว ได้แก่ :

  • ลดความจำเป็นในการพิจารณาคดีทางกฎหมายที่ใช้เวลานานและมีค่าใช้จ่ายสูงเพื่อรับมือกับอันตรายที่เกิดจาก AI
  • สร้างความมั่นใจให้กับมนุษย์ว่าสามารถใช้ AI ได้และได้รับการชดเชยหากได้รับอันตราย
  • ส่งเสริมนวัตกรรม AI โดยบรรเทาความไม่แน่นอนทางกฎหมายที่นักประดิษฐ์ AI เผชิญอยู่
  • นำไปใช้ได้เร็วกว่าการเปลี่ยนแปลงกฎหมายที่มีอยู่อย่างมากมาย
  • เสนอวิธีการรักษาที่ค่อนข้างชัดเจนซึ่งเชื่อถือได้และหาได้ง่าย
  • อื่นๆ

ในขณะเดียวกันผู้ที่คัดค้านแนวทางกองทุนชดเชย AI กล่าวว่า:

  • ให้ผู้ผลิต AI นอกใจกันมากเกินไปและปล่อยให้พวกเขารับผิดชอบได้
  • จะทำให้ผู้ผลิต AI กล้าที่จะประดิษฐ์ AI ที่ขาดความปลอดภัยตามหน้าที่และการควบคุมที่เหมาะสม
  • อาจกระตุ้นให้ผู้คนอ้างว่าเป็นอันตรายต่อ AI อย่างผิด ๆ เพื่อให้พวกเขาสามารถใช้ประโยชน์จากเงินทุนได้
  • เลี่ยงและบ่อนทำลายความจำเป็นที่แท้จริงในการยกเครื่องกฎหมายของเราเพื่อควบคุม AI อย่างเพียงพอ
  • อาจกลายเป็นฝันร้ายของระบบราชการที่ใช้เงินในทางที่ผิด
  • อื่นๆ

เห็นได้ชัดว่ามีทั้งผู้เสนอและฝ่ายตรงข้ามของแนวคิดที่ขัดแย้งกันโดยสิ้นเชิงนี้

คุณคงกดดันอย่างหนักที่จะแยกแยะกองทุนชดเชย AI โดยสรุปว่าเป็นแนวทางที่เป็นไปได้สำหรับความกังวลที่เพิ่มขึ้นเกี่ยวกับ AI ที่ก่อให้เกิดอันตราย และไม่ใช่วิธีการแก้ปัญหาที่เสนอให้เป็นสแลมดังค์

มุมมองหนึ่งคือผู้ผลิต AI จะต้องนำเงินเข้ากองทุนซึ่งเป็นส่วนหนึ่งของความพยายามในการคิดค้นและเผยแพร่ AI สิ่งนี้สามารถตีความได้ว่าเป็นค่าธรรมเนียมหรือภาษีประเภทหนึ่งที่พวกเขาต้องแบกรับซึ่งเป็นส่วนหนึ่งของความสามารถในการเผยแพร่ AI ของพวกเขาสู่โลก แต่ค่าใช้จ่ายที่เพิ่มขึ้นนี้อาจขัดขวางความพยายามของสตาร์ทอัพที่พยายามจะขยายขอบเขตของ AI ในปัจจุบันหรือไม่ และการบังคับใช้เพื่อให้แน่ใจว่าผู้ผลิต AI จ่ายค่าธรรมเนียมหรือภาษีจะได้รับการจัดการอย่างไร

มีคำถามมากมายเกิดขึ้นและจะต้องถูกทุบออก:

  • ประเทศใดที่กองทุนชดเชย AI จะทำได้ดีที่สุด?
  • สามารถจัดตั้งกองทุนชดเชย AI ที่เชื่อมโยงถึงกันทั่วโลกได้หรือไม่?
  • กลไกที่มีรายละเอียดและใช้การได้ที่เกี่ยวข้องกับกองทุนดังกล่าวจะเป็นอย่างไร
  • กองทุนชดเชย AI จะได้รับการสนับสนุนอย่างไร (ภาครัฐ เอกชน การกุศล)?
  • นี่จะเป็นการประกันแบบไม่มีข้อผิดพลาดหรือจะใช้แนวทางอื่นหรือไม่?
  • เป็นต้น

อาณาจักรที่มีแนวคิดกองทุนชดเชย AI อยู่แล้วประกอบด้วยระบบอัตโนมัติ เช่น ยานยนต์อัตโนมัติและรถยนต์ที่ขับด้วยตนเอง สำหรับความครอบคลุมของฉันเกี่ยวกับรถยนต์ไร้คนขับและระบบ AI อัตโนมัติ โปรดดูที่ ลิงค์ที่นี่.

นี่คือภาพร่างของการทำงานกับรถยนต์ที่ขับเคลื่อนด้วยตนเองโดยใช้ AI

สมมุติว่ารถขับเองชนคนขี่จักรยาน ผู้ขับขี่จักรยานได้รับอันตราย ผู้ขับขี่จักรยานอาจแสวงหาการชดใช้ทางกฎหมายโดยดำเนินการตามผู้ผลิตรถยนต์ที่เป็นอิสระ หรืออาจมุ่งเป้าไปที่บริษัทเทคโนโลยีขับเคลื่อนอัตโนมัติที่สร้างระบบขับเคลื่อน AI หากรถยนต์ที่ขับเคลื่อนด้วยตนเองถูกใช้งานเป็นฝูงบิน ช่องทางทางกฎหมายอีกทางหนึ่งก็คือการติดตามผู้ดำเนินการกองเรือ การพยายามฟ้องร้อง AI นั้นไม่ใช่ทางเลือกในช่วงหัวเลี้ยวหัวต่อนี้ เนื่องจากยังไม่ได้มีการจัดตั้งบุคคลตามกฎหมายของ AI

แทนที่จะดำเนินการทางกฎหมายกับฝ่ายใดฝ่ายหนึ่ง การไล่เบี้ยอีกทางหนึ่งคือการยื่นคำร้องหรืออ้างสิทธิ์ในกองทุนชดเชย AI ที่เหมาะสม กองทุนจะมีกระบวนการที่เป็นทางการซึ่งเกี่ยวข้องกับการตรวจสอบข้อเรียกร้อง จากนั้นจึงพิจารณาว่าหากมีการจ่ายเงินชดเชยให้กับผู้เรียกร้อง อาจมีกระบวนการอุทธรณ์ที่ช่วยผู้เรียกร้องที่เชื่อว่าพวกเขาถูกกองทุนปฏิเสธอย่างไม่ถูกต้องหรือกองทุนชดเชยไม่เพียงพอ

ตามทฤษฎีแล้ว กองทุนชดเชย AI จะเป็นหนทางที่รวดเร็วกว่ามากในการได้รับการชดเชยสำหรับอันตรายที่เกิดขึ้น คุณสามารถจินตนาการได้ว่าการฟ้องร้องคดีลำบากเพียงใด โดยบริษัทที่ถูกฟ้องอาจพยายามดึงคดีนี้ออกไป

ทนายความอาจเน้นย้ำว่ากองทุนชดเชย AI สามารถปล่อยให้ฝ่ายอื่น ๆ เช่นผู้ผลิต AI ดูเหมือนจะหลีกเลี่ยงบทลงโทษที่ชัดเจนสำหรับการปล่อยให้รถที่ขับด้วยตนเองของพวกเขาหลุดลอยไปตามถนนสาธารณะซึ่งจบลงด้วยการกระแทกผู้ขับขี่จักรยาน บริษัท เหล่านั้นอาจเลือกที่จะ "ประมาท" ทำอะไรอีก? หากปราศจากเงาของดาบทางกฎหมายที่ห้อยอยู่บนหัวของพวกเขา เราอาจพบว่าตัวเองต้องเผชิญหน้า AI ทุกวันซึ่งเต็มไปด้วยความสามารถที่ใกล้สูญพันธุ์

ปัดเศษและปัดเศษอาร์กิวเมนต์ไป

สรุป

จรรยาบรรณของ AI เตือนเราว่าเราควรพิจารณาการแตกสาขาทางจริยธรรมและกฎหมายของ AI อยู่เสมอ ในกรณีของกองทุนชดเชย AI แนวคิดที่เสนอเกี่ยวกับกองทุนรวมที่คล้ายกับการประกันเพื่อชดเชยผู้ที่ได้รับผลกระทบจาก AI นั้นดูน่าดึงดูด ดูเหมือนว่าเงินจะรออยู่ตรงนั้น พร้อมที่จะนำไปใช้ และให้ค่าตอบแทนโดยเร็วที่สุด

การแลกเปลี่ยนว่าสิ่งนี้อาจเปิดประตูระบายน้ำไปสู่การสร้าง AI ที่มีการควบคุมความปลอดภัยน้อยลงหรือไม่นั้นเป็นเรื่องที่น่ากังวลและน่าเป็นห่วงอย่างยิ่ง เราอาจไม่จำเป็นต้องเติมเชื้อเพลิงให้กับกองไฟที่อาจกำลังดำเนินการอยู่บ้างแล้ว

เรายังคงสามารถให้ผู้ผลิต AI คิดประดิษฐ์ AI ที่เหมาะสมและจัดตั้งกองทุนชดเชย AI เหล่านี้พร้อมกันได้หรือไม่?

บางคนก็บอกว่าใช่เราทำได้ การปรับกฎหมายที่มีอยู่ให้สอดคล้องกับกองทุนชดเชย AI ผู้ที่ได้รับอันตรายจาก AI อาจมีเส้นทางสองทางในการแสวงหาค่าตอบแทนที่เป็นธรรม

ใครเป็นคนแรก?

ใช่ นั่นคือใคร (เช่นเดียวกับเราทุกคน) ที่สังเกตเห็นครั้งแรกว่าเราควรจะครุ่นคิดเกี่ยวกับศักยภาพของการใช้เงินชดเชย AI และแก้ไขกฎหมายที่มีอยู่ แม้ว่าจะเพียงเล็กน้อยเท่านั้น ซึ่งเป็นวิธีจัดการกับการโจมตีของทั้ง AI ที่ดีและ AI ที่ไม่ดี

ไม่มีความสับสนเกี่ยวกับการพิจารณาที่สำคัญนั้น

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- ความรับผิดชอบ/