AI ที่มีความรับผิดชอบเพลิดเพลินไปกับการส่งเสริมที่โดดเด่นผ่านการประกาศจริยธรรมของ AI โดย ACM สมาคมมืออาชีพชั้นนำ

คุณเห็นหรือได้ยินข่าวหรือไม่?

กฎจริยธรรมของ AI อีกชุดหนึ่งได้รับการประกาศใหม่

ขอเสียงปรบมือดังๆ หน่อย

จากนั้นอีกครั้งคุณอาจ ไม่ ได้สังเกตเห็นเนื่องจากข้อเท็จจริงที่ว่ากฎเกณฑ์ด้านจริยธรรมของ AI อื่น ๆ อีกมากมายได้ลอยอยู่ในขณะนี้ บางคนบอกว่าการเผยแพร่ประกาศเกี่ยวกับจริยธรรมของ AI ที่ดูเหมือนจะไม่หยุดหย่อนนั้นกำลังทำให้มึนงงเล็กน้อย เราต้องการเท่าไหร่? ทุกคนสามารถติดตามพวกเขาทั้งหมดได้หรือไม่? อันไหนดีที่สุด? เราอาจใช้หลักจริยธรรมของ AI มากเกินไปหรือไม่ และอื่น ๆ

ในกรณีนี้ ผมบอกว่าเราควรจะต้อนรับสมาชิกใหม่คนล่าสุดของสโมสรเป็นพิเศษ

ฉันจะอธิบายอย่างลึกซึ้งว่าทำไมในอีกสักครู่

ประการแรก เพื่อเป็นการชี้แจง ฉันหมายถึงหลักจริยธรรมของ AI ซึ่งปัจจุบันรู้จักกันอย่างเป็นทางการว่า “คำชี้แจงเกี่ยวกับหลักการสำหรับระบบอัลกอริทึมที่มีความรับผิดชอบ” ซึ่งเผยแพร่เมื่อเร็วๆ นี้โดย ACM Technology Policy Council เมื่อวันที่ 26 ตุลาคม 2022 ขอชื่นชมทีมผู้เชี่ยวชาญที่รวบรวมเอกสารอันทรงคุณค่านี้ไว้ด้วยกัน รวมถึง Jeanna Matthews ผู้เขียนนำร่วม (Clarkson University) และ Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

บรรดาผู้ที่ทราบอาจตรวจสอบอย่างใกล้ชิดแล้วพบว่าเอกสารนี้ดูคุ้นเคยเล็กน้อย

ตาดี!

การจุติใหม่ครั้งล่าสุดนี้เป็นรูปแบบที่ได้รับการปรับปรุงและขยายจาก “คำชี้แจงเกี่ยวกับความโปร่งใสและความรับผิดชอบของอัลกอริทึม” ก่อนหน้านี้ซึ่งประกาศใช้โดยคณะกรรมการนโยบายเทคโนโลยี ACM ของสหรัฐอเมริกาและคณะกรรมการนโยบายเทคโนโลยีของ ACM ยุโรปในปี 2017 ผู้อ่านคอลัมน์ของฉันที่ซื่อสัตย์อาจจำได้ว่า ฉันได้กล่าวถึงพระราชกฤษฎีกาปี 2017 ในคอลัมน์ที่ครอบคลุมประเด็นสำคัญเกี่ยวกับจริยธรรม AI และกฎหมาย AI เป็นครั้งคราว

สำหรับการประเมินที่ครอบคลุมและต่อเนื่องของฉันและการวิเคราะห์แนวโน้มของจริยธรรม AI และกฎหมาย AI โปรดดู ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

แถลงการณ์ล่าสุดโดย ACM มีความสำคัญอย่างยิ่งด้วยเหตุผลสำคัญหลายประการ

นี่คือเหตุผล

ACM ซึ่งเป็นตัวย่อที่ใช้ง่ายสำหรับ สมาคมเพื่อการคำนวณเครื่องจักรถือเป็นสมาคมที่เน้นการใช้คอมพิวเตอร์ที่ใหญ่ที่สุดในโลก ประกอบด้วยสมาชิกประมาณ 110,000 คนหรือมากกว่านั้น ACM เป็นผู้บุกเบิกด้านคอมพิวเตอร์มายาวนาน ACM จัดทำงานวิจัยทางวิชาการชั้นนำบางส่วนในสาขาคอมพิวเตอร์ และยังให้บริการเครือข่ายระดับมืออาชีพและดึงดูดผู้ปฏิบัติงานด้านคอมพิวเตอร์อีกด้วย ด้วยเหตุนี้ ACM จึงเป็นกระบอกเสียงสำคัญที่เป็นตัวแทนโดยทั่วไปของผู้ที่มีเทคโนโลยีสูงและได้พยายามอย่างต่อเนื่องเพื่อพัฒนาด้านคอมพิวเตอร์ (ACM ก่อตั้งขึ้นในปี พ.ศ. 1947)

ฉันอาจเพิ่มบันทึกส่วนตัวเกี่ยวกับเรื่องนี้ด้วย เมื่อฉันได้เรียนคอมพิวเตอร์ครั้งแรกในโรงเรียนมัธยม ฉันเข้าร่วม ACM และเข้าร่วมในโปรแกรมการศึกษาของพวกเขา โดยเฉพาะอย่างยิ่งโอกาสที่น่าตื่นเต้นในการแข่งขันการเขียนโปรแกรมคอมพิวเตอร์ประจำปี hackathons). ฉันยังคงมีส่วนร่วมใน ACM ในขณะที่อยู่ในวิทยาลัยผ่านบทที่มหาวิทยาลัยในท้องถิ่นของฉัน และได้รับโอกาสในการเรียนรู้เกี่ยวกับความเป็นผู้นำโดยการเป็นเจ้าหน้าที่บทที่นักเรียน เมื่อเข้าสู่อุตสาหกรรมนี้ ฉันได้เข้าร่วมในบทมืออาชีพและได้รับบทบาทเป็นผู้นำอีกครั้ง หลังจากนี้ เมื่อฉันได้เป็นศาสตราจารย์ ฉันทำหน้าที่ในคณะกรรมการ ACM และคณะบรรณาธิการ พร้อมกับสนับสนุนบทนักศึกษาของมหาวิทยาลัย แม้กระทั่งทุกวันนี้ ฉันยังคงทำงานอยู่ใน ACM รวมถึงการทำหน้าที่ในคณะกรรมการนโยบายเทคโนโลยีของ ACM ของสหรัฐอเมริกา

ฉันชอบวิสัยทัศน์ ACM อันเป็นที่รักและยั่งยืนของการเรียนรู้ตลอดชีวิตและการพัฒนาอาชีพ

ไม่ว่าในกรณีใด ในแง่ของคำแถลงด้านจริยธรรมของ AI ล่าสุด ข้อเท็จจริงที่ว่า ACM ออกให้นั้นมีน้ำหนักมาก คุณอาจยืนยันได้อย่างสมเหตุสมผลว่าหลักจริยธรรมของ AI เป็นเสียงทั้งหมดหรือเสียงโดยรวมของกลุ่มผู้เชี่ยวชาญด้านคอมพิวเตอร์ทั่วโลก นั่นบอกอะไรบางอย่างอยู่ตรงนั้น

นอกจากนี้ยังมีแง่มุมที่คนอื่น ๆ ในสาขาคอมพิวเตอร์จะได้รับแรงบันดาลใจในการยกระดับและรับฟังในแง่ของการคำนึงถึงสิ่งที่แถลงการณ์ประกาศโดยเพื่อนร่วมงานด้านคอมพิวเตอร์ของพวกเขา ดังนั้น แม้แต่ผู้ที่ไม่ได้อยู่ใน ACM หรือไม่รู้อะไรเลยเกี่ยวกับกลุ่มที่นับถือ ก็หวังว่าจะมีความสนใจอย่างมากในการค้นหาว่าคำแถลงนั้นเกี่ยวกับอะไร

ในขณะเดียวกันผู้ที่เป็น ด้านนอก ของสาขาคอมพิวเตอร์อาจถูกดึงเข้าสู่คำแถลงในฐานะคนวงในเบื้องหลังที่มองว่าสิ่งที่คนในคอมพิวเตอร์พูดเกี่ยวกับ Ethical AI ฉันต้องการเน้นย้ำว่าคำแถลงนี้มีไว้สำหรับทุกคน ไม่ใช่แค่ผู้ที่อยู่ในชุมชนคอมพิวเตอร์เท่านั้น ดังนั้นโปรดจำไว้ว่าหลักปฏิบัติด้านจริยธรรมของ AI นั้นมีอยู่ทั่วกระดานเช่นเดียวกับที่เป็นอยู่

ในที่สุดก็มีการบิดเพิ่มเติมที่น้อยคนนักจะพิจารณา

บางครั้ง บุคคลภายนอกมองว่าสมาคมคอมพิวเตอร์เป็นบริษัทที่มีความลึกซึ้งในด้านเทคโนโลยี และไม่ได้ตระหนักถึงผลกระทบทางสังคมของคอมพิวเตอร์และ AI โดยเฉพาะ คุณอาจถูกล่อลวงให้สันนิษฐานว่าหน่วยงานมืออาชีพดังกล่าวสนใจเฉพาะความก้าวหน้าล่าสุดและร้อนแรงที่สุดในฮาร์ดแวร์หรือซอฟต์แวร์ พวกเขาถูกรับรู้โดยสาธารณชนในลักษณะที่หยาบกระด้างโดยระบุว่าเป็น techie nerds

พูดให้ตรงก็คือ ฉันหมกมุ่นอยู่กับผลกระทบทางสังคมของคอมพิวเตอร์ตั้งแต่ฉันเริ่มใช้คอมพิวเตอร์เป็นครั้งแรก และในทำนองเดียวกัน ACM ก็มีส่วนร่วมอย่างลึกซึ้งในหัวข้อดังกล่าวเช่นกัน

สำหรับใครก็ตามที่ประหลาดใจที่ ACM รวบรวมและเผยแพร่คำแถลงเกี่ยวกับกฎจริยธรรมของ AI พวกเขาไม่ได้ให้ความสนใจกับการวิจัยและการทำงานที่ดำเนินมาอย่างยาวนานในเรื่องเหล่านี้ ฉันขอแนะนำให้ผู้ที่สนใจควรดู ACM ให้ดี จรรยาบรรณจรรยาบรรณวิชาชีพที่เคร่งครัดซึ่งมีการพัฒนาในช่วงหลายปีที่ผ่านมา และเน้นย้ำว่าผู้พัฒนาระบบจำเป็นต้องตระหนัก ปฏิบัติตาม และระแวดระวังเกี่ยวกับผลพวงทางจริยธรรมของความพยายามและสินค้าของตน

AI ได้รับการจุดไฟเมื่อได้รับข้อมูลเกี่ยวกับจริยธรรมคอมพิวเตอร์

การมองเห็นข้อพิจารณาด้านจริยธรรมและกฎหมายในด้านคอมพิวเตอร์ได้เพิ่มขึ้นอย่างมากพร้อมกับการเกิดขึ้นของ AI ในปัจจุบัน ผู้ที่อยู่ในสายอาชีพนี้จะได้รับการแจ้งและบางครั้งก็ถูกตีกลองเกี่ยวกับการให้ความสนใจที่เหมาะสมต่อประเด็นด้านจริยธรรมของ AI และกฎหมายของ AI ฝ่ายนิติบัญญัติเริ่มตระหนักถึงแง่มุมด้านจริยธรรมของ AI และกฎหมายของ AI มากขึ้นเรื่อยๆ บริษัทต่าง ๆ ต่างก็คิดว่า AI ที่พวกเขากำลังคิดค้นหรือใช้นั้นมีทั้งประโยชน์และบางครั้งก็เปิดความเสี่ยงมหาศาลและข้อเสียที่อาจเกิดขึ้น

เรามาแกะกล่องสิ่งที่เกิดขึ้นในช่วงหลายปีที่ผ่านมา เพื่อให้สามารถกำหนดบริบทที่เหมาะสมได้ ก่อนที่เราจะเข้าสู่หลักการด้านจริยธรรม AI ชุดล่าสุดนี้

ความตระหนักที่เพิ่มขึ้นของ AI อย่างมีจริยธรรม

ยุคใหม่ของ AI ถูกมองว่าเป็นยุคแรกๆ AI เพื่อความดีหมายความว่าเราสามารถใช้ AI เพื่อทำให้มนุษยชาติดีขึ้นได้ บนส้นเท้าของ AI เพื่อความดี มาตระหนักว่าเรายังจมอยู่ใน AI สำหรับไม่ดี. ซึ่งรวมถึง AI ที่ประดิษฐ์ขึ้นหรือเปลี่ยนแปลงตนเองเพื่อให้เป็นการเลือกปฏิบัติ และทำให้ตัวเลือกทางคอมพิวเตอร์สร้างอคติที่ไม่เหมาะสม บางครั้ง AI ถูกสร้างขึ้นในลักษณะนั้น ในขณะที่ในบางกรณีก็เปลี่ยนทิศทางไปยังอาณาเขตที่ไม่ดีนั้น

ฉันต้องการทำให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ AI ที่มีความรู้สึก การสนทนานี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ ความคุ้มครองที่นี่).

ฉันขอแนะนำอย่างยิ่งว่าเราควรเก็บสิ่งต่าง ๆ ลงบนพื้นโลกและพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

โปรดใช้ความระมัดระวังในการปรับเปลี่ยน AI ในปัจจุบัน

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

ทั้งหมดนี้มีนัยยะสำคัญอย่างเด่นชัดของจริยธรรม AI และให้หน้าต่างที่มีประโยชน์ในบทเรียนที่ได้เรียนรู้ (แม้กระทั่งก่อนที่บทเรียนทั้งหมดจะเกิดขึ้น) เมื่อพูดถึงการพยายามออกกฎหมาย AI

นอกจากการใช้หลักจรรยาบรรณของ AI โดยทั่วไปแล้ว ยังมีคำถามที่เกี่ยวข้องว่าเราควรมีกฎหมายเพื่อควบคุมการใช้ AI แบบต่างๆ หรือไม่ มีการบังคับใช้กฎหมายใหม่ในระดับสหพันธรัฐ รัฐ และระดับท้องถิ่นที่เกี่ยวข้องกับขอบเขตและลักษณะของวิธีการประดิษฐ์ AI ความพยายามในการร่างและตรากฎหมายดังกล่าวเป็นไปอย่างค่อยเป็นค่อยไป จรรยาบรรณของ AI ทำหน้าที่เป็นช่องว่างที่พิจารณา อย่างน้อยที่สุด และเกือบจะแน่นอนในระดับหนึ่งจะถูกรวมเข้ากับกฎหมายใหม่เหล่านั้นโดยตรง

พึงตระหนักว่ามีบางคนยืนกรานว่าเราไม่จำเป็นต้องมีกฎหมายใหม่ที่ครอบคลุม AI และกฎหมายที่มีอยู่ของเราก็เพียงพอแล้ว พวกเขาเตือนล่วงหน้าว่าหากเราบังคับใช้กฎหมาย AI เหล่านี้ เราจะฆ่าห่านทองคำโดยการจำกัดความก้าวหน้าของ AI ที่ก่อให้เกิดประโยชน์ทางสังคมอย่างมหาศาล

ในคอลัมน์ก่อนหน้านี้ ฉันได้กล่าวถึงความพยายามระดับชาติและระดับนานาชาติในการสร้างและออกกฎหมายควบคุม AI ดู ลิงค์ที่นี่, ตัวอย่างเช่น. ข้าพเจ้ายังได้กล่าวถึงหลักจรรยาบรรณ AI ต่างๆ ที่นานาประเทศได้ระบุและนำไปใช้ เช่น ความพยายามขององค์การสหประชาชาติ เช่น ชุดจริยธรรม AI ของยูเนสโกที่รับรองเกือบ 200 ประเทศ ดู ลิงค์ที่นี่.

ต่อไปนี้คือรายการหลักที่เป็นประโยชน์ของเกณฑ์หรือคุณลักษณะด้านจริยธรรมของ AI เกี่ยวกับระบบ AI ที่ฉันเคยสำรวจมาก่อนหน้านี้อย่างใกล้ชิด:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

หลักการด้านจริยธรรมของ AI เหล่านี้ควรนำไปใช้อย่างจริงจังโดยนักพัฒนา AI ควบคู่ไปกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด

ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ได้เน้นย้ำในที่นี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ฉันยังเพิ่งตรวจสอบ AI บิลสิทธิ ซึ่งเป็นชื่ออย่างเป็นทางการของเอกสารทางการของรัฐบาลสหรัฐฯ เรื่อง “พิมพ์เขียวสำหรับบิลสิทธิ AI: ทำให้ระบบอัตโนมัติทำงานเพื่อชาวอเมริกัน” ซึ่งเป็นผลมาจากความพยายามที่ยาวนานเป็นปีของสำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยี (OSTP) ). OSTP เป็นหน่วยงานของรัฐบาลกลางที่ทำหน้าที่ให้คำแนะนำประธานาธิบดีอเมริกันและสำนักงานบริหารของสหรัฐฯ ในด้านเทคโนโลยี วิทยาศาสตร์ และวิศวกรรมที่มีความสำคัญระดับชาติต่างๆ ในแง่นั้น คุณสามารถพูดได้ว่า AI Bill of Rights นี้เป็นเอกสารที่อนุมัติและรับรองโดยทำเนียบขาวของสหรัฐอเมริกาที่มีอยู่

ใน AI Bill of Rights มีหมวดหมู่หลักห้าหมวดหมู่:

  • ระบบที่ปลอดภัยและมีประสิทธิภาพ
  • การป้องกันการเลือกปฏิบัติอัลกอริทึม
  • ข้อมูลส่วนบุคคล
  • ข้อสังเกตและคำอธิบาย
  • ทางเลือกของมนุษย์ การพิจารณา และการย้อนกลับ

ข้าพเจ้าได้ทบทวนศีลเหล่านั้นอย่างละเอียดถี่ถ้วนแล้ว ดูเถิด ลิงค์ที่นี่.

ตอนนี้ฉันได้วางรากฐานที่เป็นประโยชน์เกี่ยวกับหัวข้อจริยธรรม AI และกฎหมาย AI ที่เกี่ยวข้องเหล่านี้แล้ว เราพร้อมที่จะเข้าสู่ ACM ที่เพิ่งเปิดตัวเมื่อเร็วๆ นี้ “คำชี้แจงเกี่ยวกับหลักการสำหรับระบบอัลกอริทึมที่มีความรับผิดชอบ” (ยังไงก็ตาม เนื่องจากชื่อเอกสารอ้างอิงถึง รับผิดชอบ ระบบอัลกอริทึม คุณอาจต้องการดูการประเมินของฉันว่ามันหมายถึงอะไร AI ที่น่าเชื่อถือโปรดดูที่ ลิงค์ที่นี่).

เตรียมตัวให้พร้อมสำหรับการเดินทางสู่หลักจริยธรรม AI ชุดล่าสุดนี้

ขุดลึกลงไปในหลักจริยธรรมของ ACM ที่ประกาศโดย ACM

การประกาศของ ACM เกี่ยวกับ Ethical AI ประกอบด้วยหลักสำคัญทั้งเก้าประการเหล่านี้:

  • ความถูกต้องและความสามารถ
  • ลดอันตราย
  • การรักษาความปลอดภัยและความเป็นส่วนตัว
  • ความโปร่งใส
  • การตีความและการอธิบาย
  • การบำรุงรักษา
  • ความสามารถในการแข่งขันและการตรวจสอบได้
  • ความรับผิดชอบและความรับผิดชอบ
  • การจำกัดผลกระทบต่อสิ่งแวดล้อม

หากคุณเปรียบเทียบชุดล่าสุดนี้กับชุดอื่น ๆ ที่มีอยู่อย่างเห็นได้ชัด จะมีความคล้ายคลึงกันอย่างมากหรือคล้ายคลึงกันระหว่างชุดเหล่านี้

ในแง่หนึ่งคุณสามารถใช้เป็นสัญญาณที่ดี

โดยทั่วไป เราอาจหวังว่าหลักการด้านจริยธรรมของ AI ที่มีอยู่มากมายจะรวมเป็นหนึ่งเดียวกันทั้งหมด การเห็นว่าชุดหนึ่งเทียบได้กับอีกชุดหนึ่งทำให้คุณรู้สึกมั่นใจว่าชุดเหล่านี้อยู่ในสนามเดียวกันและไม่ได้อยู่นอกสนามทางซ้ายที่ทำให้งง

ข้อร้องเรียนที่อาจเกิดขึ้นจากบางคนคือชุดต่างๆ เหล่านี้ดูเหมือนจะเหมือนกันโดยประมาณ ซึ่งอาจสร้างความสับสนหรืออย่างน้อยก็ตกตะลึงเนื่องจากคุณสมบัติที่เราไม่ควรมีรายการที่ซ้ำกันจำนวนมาก ไม่สามารถมีเพียงรายการเดียว? แน่นอนว่าปัญหาคือไม่มีวิธีง่ายๆ ในการทำให้รายการดังกล่าวทั้งหมดเหมือนกันทุกประการ กลุ่มต่าง ๆ และหน่วยงานต่าง ๆ ได้เข้าหาสิ่งนี้ด้วยวิธีที่ต่างกัน ข่าวดีก็คือพวกเขาเกือบจะได้ข้อสรุปที่ครอบคลุมเหมือนกันทั้งหมดแล้ว เรารู้สึกโล่งใจที่ฉากไม่มีความแตกต่างมากนัก ซึ่งอาจทำให้เราไม่สบายใจหากไม่มีฉันทามติโดยรวม

คนที่ตรงกันข้ามอาจเตือนว่าความธรรมดาของรายการเหล่านี้เป็นเรื่องที่น่าอึดอัดใจ โดยโต้แย้งว่าอาจมีการคิดแบบกลุ่มเกิดขึ้น บางทีกลุ่มที่แตกต่างกันทั้งหมดเหล่านี้กำลังคิดแบบเดียวกันและไม่สามารถมองข้ามบรรทัดฐานได้ พวกเราทุกคนกำลังตกหลุมพรางเดียวกัน รายการเหล่านี้ยึดความคิดของเราอย่างเห็นได้ชัดและเราไม่สามารถมองเห็นได้ไกลกว่าจมูกของเรา

การมองข้ามจมูกของเราเป็นสิ่งที่คู่ควรอย่างไม่ต้องสงสัย

แน่นอนฉันพร้อมที่จะรับฟังสิ่งที่ตรงกันข้ามพูด บางครั้งพวกเขาจับลมของสิ่งที่มี มหึมา มุ่งหน้าสู่ภูเขาน้ำแข็งยักษ์ เราสามารถใช้จุดชมวิวแบบอีเกิลอายได้สองสามแห่ง แต่ในเรื่องของหลักจริยธรรมของ AI เหล่านี้ ยังไม่มีสิ่งใดที่ชัดเจนโดยผู้ไม่ฝักใฝ่ฝ่ายใดที่ดูเหมือนจะตัดราคาหรือสร้างความกังวลเกี่ยวกับความธรรมดาที่เกินควรที่เกิดขึ้น ฉันคิดว่าเราทำได้โอเค

ในชุด ACM นี้มีประเด็นที่โดดเด่นหรือโดดเด่นเป็นพิเศษสองสามข้อที่ฉันคิดว่าควรค่าแก่การให้ความสนใจเป็นพิเศษ

อันดับแรก ฉันชอบการใช้ถ้อยคำระดับบนสุดซึ่งค่อนข้างแตกต่างจากบรรทัดฐาน

เช่น อ้างถึง ความชอบธรรมและความสามารถ (รายการสัญลักษณ์แสดงหัวข้อย่อยแรก) ทำให้นึกถึงความสำคัญของทั้งนักออกแบบและความสามารถด้านการจัดการที่เกี่ยวข้องกับ AI นอกจากนี้ ถูกต้องตามกฎหมาย บทกลอนจบลงด้วยการพาเราไปสู่จริยธรรมของ AI และ ขอบเขตกฎหมาย AI ฉันพูดเช่นนี้เพราะหลักจริยธรรมของ AI หลายข้อมุ่งความสนใจไปที่นัยยะทางจริยธรรมเกือบทั้งหมด แต่ดูเหมือนว่าจะละเว้นหรือเมินเฉยที่จะสังเกตเห็นความแตกแยกทางกฎหมายด้วย ในสาขากฎหมาย การพิจารณาทางจริยธรรมมักถูกเรียกว่าเป็น "กฎหมายที่นุ่มนวล" ในขณะที่กฎหมายในหนังสือมักถูกตีความว่าเป็น "กฎหมายที่ยาก" (หมายความว่ากฎหมายเหล่านี้มีน้ำหนักของศาล)

สุนทรพจน์หนึ่งที่ข้าพเจ้าโปรดปรานตลอดกาลกล่าวโดยนักกฎหมายชื่อดัง เอิร์ล วอร์เรน: “ในชีวิตที่มีอารยธรรม กฎหมายลอยอยู่ในทะเลแห่งจริยธรรม”

เราจำเป็นต้องตรวจสอบให้แน่ใจว่าข้อบังคับด้านจริยธรรมของ AI นั้นครอบคลุมและเน้นย้ำถึงด้านกฎหมายที่เข้มงวด เช่น ในการร่าง ออกกฎหมาย และบังคับใช้กฎหมายของ AI

ประการที่สอง ฉันขอขอบคุณที่รายการรวมถึง ความสามารถในการแข่งขันและการตรวจสอบได้.

ฉันได้เขียนซ้ำแล้วซ้ำอีกเกี่ยวกับคุณค่าของความสามารถในการแข่งขันหรือยกธงแดงเมื่อคุณอยู่ภายใต้ระบบ AI ดู ลิงค์ที่นี่. นอกจากนี้ เรากำลังจะเห็นกฎหมายใหม่ที่บังคับให้มีการตรวจสอบระบบ AI มากขึ้นเรื่อยๆ ซึ่งฉันได้พูดถึงเกี่ยวกับกฎหมายของนครนิวยอร์ก (NYC) เกี่ยวกับอคติการตรวจสอบของระบบ AI ที่ใช้ในการว่าจ้างพนักงานและการเลื่อนตำแหน่ง ดู ลิงค์ที่นี่. น่าเสียดายที่ฉันวิจารณ์กฎหมายใหม่ของนิวยอร์คอย่างเปิดเผย หากกฎหมายตรวจสอบได้เหล่านี้มีข้อบกพร่อง กฎหมายเหล่านั้นอาจจะสร้างปัญหามากกว่าที่จะแก้ไข

ประการที่สาม มีการตื่นขึ้นอย่างค่อยเป็นค่อยไปว่า AI สามารถเติมเต็มประเด็นด้านความยั่งยืนได้ และผมยินดีที่เห็นว่า สิ่งแวดล้อม หัวข้อได้รับการเรียกเก็บเงินระดับสูงสุดในกฎจริยธรรมของ AI เหล่านี้ (ดูหัวข้อย่อยสุดท้ายของรายการ)

การสร้างระบบ AI เพียงอย่างเดียวสามารถใช้ทรัพยากรคอมพิวเตอร์จำนวนมากได้ ทรัพยากรคอมพิวเตอร์เหล่านั้นสามารถเป็นผู้แย่งชิงความยั่งยืนได้โดยตรงหรือโดยอ้อม มีการแลกเปลี่ยนที่ต้องคำนึงถึงผลประโยชน์ที่ AI มอบให้กับต้นทุนที่มาพร้อมกับ AI รายการสัญลักษณ์แสดงหัวข้อย่อยสุดท้ายของ ACM กล่าวถึงความยั่งยืนและการพิจารณาด้านสิ่งแวดล้อมที่เกิดขึ้นกับ AI สำหรับความครอบคลุมของฉันเกี่ยวกับปัญหาคาร์บอนฟุตพริ้นต์ที่เกี่ยวข้องกับ AI โปรดดู ลิงค์ที่นี่.

ตอนนี้เราได้ดูรายการหลักจริยธรรมของ AI ของ ACM เรียบร้อยแล้ว ต่อไปเราจะลงลึกลงไปในน้ำมากขึ้น

ต่อไปนี้เป็นคำอธิบายอย่างเป็นทางการสำหรับหลักปฏิบัติด้านจริยธรรม AI ระดับสูงแต่ละข้อ (อ้างจากแถลงการณ์อย่างเป็นทางการ):

1 "ความถูกต้องและความสามารถ: ผู้ออกแบบระบบอัลกอริทึมควรมีความสามารถในการจัดการและได้รับอนุญาตอย่างชัดเจนในการสร้างและปรับใช้ระบบดังกล่าว พวกเขายังจำเป็นต้องมีความเชี่ยวชาญในขอบเขตของแอปพลิเคชัน ซึ่งเป็นพื้นฐานทางวิทยาศาสตร์สำหรับการใช้งานตามวัตถุประสงค์ของระบบ และได้รับการยอมรับอย่างกว้างขวางว่าถูกต้องตามกฎหมายทางสังคมจากผู้มีส่วนได้ส่วนเสียที่ได้รับผลกระทบจากระบบ ต้องมีการประเมินทางกฎหมายและจริยธรรมเพื่อยืนยันว่าความเสี่ยงใด ๆ ที่เกิดขึ้นจากระบบจะเป็นสัดส่วนกับปัญหาที่ได้รับการแก้ไข และผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้องทั้งหมดเข้าใจถึงการแลกเปลี่ยนระหว่างผลประโยชน์และผลเสีย”

2 "ลดอันตราย: ผู้จัดการ นักออกแบบ นักพัฒนา ผู้ใช้ และผู้มีส่วนได้ส่วนเสียอื่น ๆ ของระบบอัลกอริทึมควรตระหนักถึงข้อผิดพลาดและอคติที่เป็นไปได้ที่เกี่ยวข้องกับการออกแบบ การนำไปใช้ และการใช้งาน และอันตรายที่อาจเกิดขึ้นที่ระบบอาจก่อให้เกิดกับบุคคลและสังคม องค์กรควรทำการประเมินผลกระทบต่อระบบที่พวกเขาจ้างเป็นประจำ เพื่อพิจารณาว่าระบบสามารถสร้างอันตรายหรือไม่ โดยเฉพาะอย่างยิ่งอันตรายจากการเลือกปฏิบัติ และเพื่อปรับใช้การลดผลกระทบที่เหมาะสม เมื่อเป็นไปได้ พวกเขาควรเรียนรู้จากการวัดผลการปฏิบัติงานจริง ไม่ใช่แค่แบบแผนของการตัดสินใจในอดีตเท่านั้นที่อาจเลือกปฏิบัติได้”

3 "ความปลอดภัยและความเป็นส่วนตัว: ความเสี่ยงจากผู้ประสงค์ร้ายสามารถบรรเทาลงได้ด้วยการแนะนำแนวทางปฏิบัติที่ดีที่สุดด้านความปลอดภัยและความเป็นส่วนตัวในทุกขั้นตอนของวงจรชีวิตของระบบ รวมถึงการควบคุมที่มีประสิทธิภาพเพื่อลดช่องโหว่ใหม่ๆ ที่เกิดขึ้นในบริบทของระบบอัลกอริทึม”

4 "โปร่งใส: ผู้พัฒนาระบบควรจัดทำเอกสารอย่างชัดเจนถึงวิธีการเลือกชุดข้อมูล ตัวแปร และแบบจำลองเฉพาะสำหรับการพัฒนา การฝึกอบรม การตรวจสอบความถูกต้อง และการทดสอบ ตลอดจนมาตรการเฉพาะที่ใช้ในการรับประกันข้อมูลและคุณภาพผลลัพธ์ ระบบควรระบุระดับความเชื่อมั่นในแต่ละเอาต์พุต และมนุษย์ควรเข้าแทรกแซงเมื่อระดับความเชื่อมั่นต่ำ นักพัฒนาควรจัดทำเอกสารวิธีการที่ใช้ในการสำรวจอคติที่อาจเกิดขึ้น สำหรับระบบที่มีผลกระทบร้ายแรงต่อชีวิตและความเป็นอยู่ที่ดี ควรต้องมีขั้นตอนการตรวจสอบและตรวจสอบโดยอิสระ การตรวจสอบข้อมูลและแบบจำลองสาธารณะให้โอกาสสูงสุดในการแก้ไข นักพัฒนาควรอำนวยความสะดวกในการทดสอบของบุคคลที่สามเพื่อประโยชน์สาธารณะ”

5 "การตีความและการอธิบาย: ผู้จัดการระบบอัลกอริทึมควรจัดทำข้อมูลเกี่ยวกับทั้งขั้นตอนที่อัลกอริทึมใช้ปฏิบัติตาม (การตีความ) และการตัดสินใจเฉพาะที่พวกเขาทำ (อธิบายได้) ความสามารถในการอธิบายอาจมีความสำคัญพอๆ กับความถูกต้อง โดยเฉพาะอย่างยิ่งในบริบทของนโยบายสาธารณะหรือสภาพแวดล้อมใดๆ ที่มีข้อกังวลว่าอัลกอริทึมอาจเบ้เพื่อประโยชน์กลุ่มหนึ่งเหนืออีกกลุ่มหนึ่งได้อย่างไรโดยปราศจากการรับรู้ สิ่งสำคัญคือต้องแยกความแตกต่างระหว่างคำอธิบายและการหาเหตุผลเข้าข้างตนเองหลังข้อเท็จจริงซึ่งไม่สะท้อนหลักฐานหรือกระบวนการตัดสินใจที่ใช้เพื่อบรรลุข้อสรุปที่กำลังอธิบายอยู่”

6 "การบำรุงรักษา: ควรรวบรวมหลักฐานความสมบูรณ์ของระบบอัลกอริทึมตลอดวงจรชีวิต รวมถึงเอกสารข้อกำหนดของระบบ การออกแบบหรือการนำการเปลี่ยนแปลงไปใช้ กรณีทดสอบและผลลัพธ์ และบันทึกข้อผิดพลาดที่พบและแก้ไข การบำรุงรักษาที่เหมาะสมอาจต้องการระบบการฝึกอบรมซ้ำด้วยข้อมูลการฝึกอบรมใหม่ และ/หรือการเปลี่ยนรุ่นที่ใช้”

7 "ความสามารถในการแข่งขันและการตรวจสอบ: หน่วยงานกำกับดูแลควรสนับสนุนการนำกลไกที่ช่วยให้บุคคลและกลุ่มต่างๆ สามารถตั้งคำถามเกี่ยวกับผลลัพธ์และหาทางแก้ไขผลกระทบที่เป็นผลจากการตัดสินใจที่ได้รับการแจ้งด้วยอัลกอริทึม ผู้จัดการควรตรวจสอบให้แน่ใจว่าข้อมูล แบบจำลอง อัลกอริทึม และการตัดสินใจได้รับการบันทึก เพื่อให้สามารถตรวจสอบและจำลองผลลัพธ์ได้ในกรณีที่สงสัยหรือกล่าวหาว่าเป็นอันตราย กลยุทธ์การตรวจสอบควรเปิดเผยต่อสาธารณะเพื่อให้บุคคล องค์กรสาธารณประโยชน์ และนักวิจัยสามารถตรวจสอบและแนะนำการปรับปรุงได้”

8 "ความรับผิดชอบและความรับผิดชอบ: หน่วยงานภาครัฐและเอกชนควรรับผิดชอบต่อการตัดสินใจโดยอัลกอริทึมที่พวกเขาใช้ แม้ว่าจะไม่สามารถอธิบายในรายละเอียดว่าอัลกอริทึมเหล่านั้นให้ผลลัพธ์อย่างไร หน่วยงานดังกล่าวควรรับผิดชอบระบบทั้งหมดตามที่ปรับใช้ในบริบทเฉพาะ ไม่ใช่แค่สำหรับแต่ละส่วนที่ประกอบกันเป็นระบบที่กำหนด เมื่อตรวจพบปัญหาในระบบอัตโนมัติ องค์กรที่รับผิดชอบในการปรับใช้ระบบเหล่านั้นควรจัดทำเอกสารการดำเนินการเฉพาะที่พวกเขาจะดำเนินการเพื่อแก้ไขปัญหา และควรระงับหรือยุติการใช้เทคโนโลยีดังกล่าวภายใต้สถานการณ์ใด”

9 "การจำกัดผลกระทบต่อสิ่งแวดล้อม: ระบบอัลกอริทึมควรได้รับการออกแบบทางวิศวกรรมเพื่อรายงานประมาณการผลกระทบต่อสิ่งแวดล้อม รวมทั้งการปล่อยคาร์บอนจากการคำนวณทั้งการฝึกอบรมและการปฏิบัติงาน ระบบ AI ควรได้รับการออกแบบเพื่อให้แน่ใจว่าการปล่อยคาร์บอนมีความสมเหตุสมผล โดยพิจารณาจากระดับความถูกต้องตามบริบทที่นำไปใช้งาน”

ฉันเชื่อว่าคุณจะอ่านหลักเกณฑ์จริยธรรม AI ที่สำคัญแต่ละข้ออย่างระมัดระวังและอ่านในอดีต โปรดคำนึงถึงพวกเขาด้วย

สรุป

มีส่วนที่ละเอียดอ่อนแต่สำคัญพอๆ กันของการออกเสียง ACM ซึ่งผมเชื่อว่าหลายคนอาจมองข้ามไปโดยไม่ตั้งใจ ให้ฉันแจ้งเรื่องนี้ให้คุณทราบ

ฉันกำลังพูดพาดพิงถึงส่วนที่กล่าวถึงปริศนาอันน่าปวดหัวของการต้องชั่งน้ำหนักการแลกเปลี่ยนที่เกี่ยวข้องกับหลักจริยธรรมของ AI คุณเห็นไหมว่า คนส่วนใหญ่มักพยักหน้าอย่างไร้เหตุผลเมื่ออ่านหลักการของ Ethical AI และถือว่ากฎทั้งหมดมีน้ำหนักเท่ากัน และกฎทั้งหมดจะได้รับรูปลักษณ์ที่เหมาะสมที่สุดเสมอกันในด้านความเคารพและคุณค่า

ไม่ได้อยู่ในโลกแห่งความจริง

เมื่อยางมาบรรจบกับถนน AI ชนิดใดก็ตามที่มีความซับซ้อนเพียงเล็กน้อยก็จะทดสอบหลักจริยธรรมของ AI อย่างน่ารังเกียจว่าองค์ประกอบบางอย่างมีเพียงพอเหนือหลักการอื่นๆ บางข้อหรือไม่ ฉันทราบดีว่าคุณอาจอุทานเสียงดังว่า AI ทั้งหมดต้องปฏิบัติตามหลักจริยธรรมของ AI ทั้งหมดอย่างเต็มที่ แต่นี่ไม่ใช่เรื่องจริงอย่างยิ่ง หากนั่นคือจุดยืนที่คุณต้องการ ฉันกล้าพูดได้เต็มปากว่าคุณน่าจะจำเป็นต้องบอกผู้ผลิตและผู้ใช้ AI ส่วนใหญ่หรือเกือบทั้งหมดให้ปิดร้านและเลิกใช้ AI โดยสิ้นเชิง

ต้องมีการประนีประนอมเพื่อให้ AI ออกจากประตู ดังที่กล่าวไว้ ฉันไม่ได้สนับสนุนการหักมุมที่ละเมิดหลักจริยธรรมของ AI และไม่ได้หมายความว่าพวกเขาควรละเมิดกฎหมายของ AI ต้องบรรลุขั้นต่ำเฉพาะและสูงกว่าเป้าหมายคือการพยายามให้มากขึ้น ในท้ายที่สุด ความสมดุลจำเป็นต้องได้รับการตัดสินอย่างรอบคอบ การกระทำที่สมดุลนี้ต้องทำอย่างมีสติ ชัดเจน ถูกต้องตามกฎหมาย และด้วยจริยธรรมของ AI เป็นความเชื่อที่สุจริตและจริงใจ (คุณอาจต้องการดูว่าบริษัทต่างๆ ใช้ AI Ethics Boards เพื่อพยายามและรวบรวมแนวทางที่เคร่งขรึมนี้อย่างไร ดูที่ ลิงค์ที่นี่).

ต่อไปนี้เป็นสัญลักษณ์แสดงหัวข้อย่อยที่ประกาศ ACM กล่าวถึงความซับซ้อนของการแลกเปลี่ยน (อ้างจากเอกสารที่เป็นทางการ):

  • “วิธีแก้ปัญหาควรได้สัดส่วนกับปัญหาที่กำลังแก้ไข แม้ว่านั่นจะส่งผลต่อความซับซ้อนหรือค่าใช้จ่าย (เช่น การปฏิเสธการใช้กล้องวงจรปิดสาธารณะสำหรับงานทำนายง่ายๆ)”
  • “ควรพิจารณาเมตริกประสิทธิภาพที่หลากหลายและอาจให้น้ำหนักแตกต่างกันไปตามโดเมนของแอปพลิเคชัน ตัวอย่างเช่น ในการประยุกต์ใช้ด้านการดูแลสุขภาพบางอย่าง ผลกระทบของผลเชิงลบที่ผิดพลาดอาจเลวร้ายยิ่งกว่าผลบวกที่ผิดพลาด ในขณะที่ในกระบวนการยุติธรรมทางอาญา การติดตั้งระบบปฏิบัติการที่ต้องการมากที่สุดมักไม่ค่อยเป็นระบบที่มีความแม่นยำสูงสุด”
  • “ความกังวลเกี่ยวกับความเป็นส่วนตัว การปกป้องความลับทางการค้า หรือการเปิดเผยข้อมูลวิเคราะห์ที่อาจทำให้ผู้ไม่ประสงค์ดีเล่นเกมระบบสามารถพิสูจน์ได้ว่ามีการจำกัดการเข้าถึงเฉพาะบุคคลที่มีคุณสมบัติเหมาะสม แต่ไม่ควรนำมาใช้เพื่ออ้างเหตุผลในการจำกัดการตรวจสอบโดยบุคคลที่สามหรือเพื่อแก้ตัวนักพัฒนาจากข้อผูกมัด เพื่อรับทราบและแก้ไขข้อผิดพลาด”
  • “ความโปร่งใสจะต้องจับคู่กับกระบวนการสำหรับความรับผิดชอบที่ช่วยให้ผู้มีส่วนได้ส่วนเสียที่ได้รับผลกระทบจากระบบอัลกอริทึมสามารถหาทางแก้ไขอย่างมีความหมายสำหรับอันตรายที่เกิดขึ้น ไม่ควรใช้ความโปร่งใสเพื่อสร้างความชอบธรรมให้กับระบบหรือโอนความรับผิดชอบไปยังฝ่ายอื่นๆ”
  • “เมื่อผลกระทบของระบบสูง ระบบที่อธิบายได้ดีกว่าอาจดีกว่า ในหลายกรณี ไม่มีการแลกเปลี่ยนระหว่างความสามารถในการอธิบายและความถูกต้อง อย่างไรก็ตาม ในบางบริบท คำอธิบายที่ไม่ถูกต้องอาจเลวร้ายยิ่งกว่าไม่มีคำอธิบาย (เช่น ในระบบสุขภาพ อาการอาจสอดคล้องกับความเจ็บป่วยที่เป็นไปได้หลายอย่าง ไม่ใช่แค่โรคเดียว)”

ผู้ที่กำลังพัฒนาหรือใช้ AI อาจไม่ตระหนักถึงการแลกเปลี่ยนที่พวกเขาเผชิญอย่างเปิดเผย ผู้นำระดับสูงของบริษัทอาจสันนิษฐานอย่างไร้เดียงสาว่า AI มีคุณสมบัติตรงตามหลักจริยธรรมของ AI ทั้งหมด พวกเขาอาจเชื่อเช่นนี้เพราะไม่มีความรู้เรื่อง AI หรือพวกเขาต้องการเชื่อสิ่งนี้และอาจทำชั่วพริบตาเพื่อรับใช้ AI อย่างง่ายดาย

อัตราต่อรองคือความล้มเหลวในการเผชิญหน้ากับการแลกเปลี่ยนอย่างจริงจังและเปิดเผยจะจบลงด้วย AI ที่จะก่อให้เกิดอันตราย อันตรายเหล่านั้นจะเปิดบริษัทไปสู่หนี้สินขนาดใหญ่ที่อาจเกิดขึ้นได้ ยิ่งไปกว่านั้น กฎหมายทั่วไปสามารถแบกรับการกระทำความผิดทางอาญาที่เกี่ยวข้องกับ AI ได้ รวมถึงกฎหมายใหม่ที่เน้น AI ที่ตอกย้ำในเรื่องนี้ด้วย ก้อนอิฐจำนวนมากกำลังรออยู่เหนือศีรษะของผู้ที่คิดว่าพวกเขาสามารถหาทางหลีกเลี่ยงการแลกเปลี่ยนได้ หรือผู้ที่ไม่รู้อย่างลึกซึ้งว่ามีการแลกเปลี่ยนอยู่

ฉันจะให้คำสุดท้ายในหัวข้อนี้ในแง่มุมสุดท้ายของการประกาศ ACM เนื่องจากฉันคิดว่ามันเป็นงานที่แข็งแกร่งในการอธิบายว่าหลักการด้านจริยธรรมของ AI เหล่านี้มีจุดมุ่งหมายเพื่อทำให้เกิดอะไร:

  • “คำแนะนำข้างต้นมุ่งเน้นไปที่การออกแบบ การพัฒนา และการใช้ระบบอัลกอริธึมอย่างมีความรับผิดชอบ ความรับผิดจะต้องถูกกำหนดโดยกฎหมายและนโยบายสาธารณะ พลังที่เพิ่มขึ้นของระบบอัลกอริทึมและการใช้งานในแอปพลิเคชันที่สำคัญต่อชีวิตและเป็นผลสืบเนื่อง หมายความว่าต้องใช้ความระมัดระวังอย่างมากในการใช้งาน หลักการสำคัญทั้ง XNUMX ข้อนี้ควรเป็นแรงบันดาลใจในการเริ่มการอภิปราย ริเริ่มการวิจัย และพัฒนาวิธีการกำกับดูแลเพื่อนำผลประโยชน์มาสู่ผู้ใช้ในวงกว้าง ในขณะเดียวกันก็ส่งเสริมความน่าเชื่อถือ ความปลอดภัย และความรับผิดชอบ ในท้ายที่สุด บริบทเฉพาะที่กำหนดการออกแบบที่ถูกต้องและการใช้ระบบอัลกอริทึมโดยความร่วมมือกับตัวแทนของผู้มีส่วนได้ส่วนเสียที่ได้รับผลกระทบทั้งหมด” (อ้างจากเอกสารที่เป็นทางการ)

ดังที่ถ้อยคำแห่งปัญญาบอกเราไว้อย่างแยบยล การเดินทางนับพันไมล์เริ่มต้นด้วยก้าวแรก

ฉันขอร้องให้คุณทำความคุ้นเคยกับจริยธรรมของ AI และกฎหมาย AI ไม่ว่าก้าวแรกใดก็ตามที่จะช่วยให้คุณดำเนินการได้ จากนั้นจึงให้ความช่วยเหลือในการดำเนินการที่สำคัญเหล่านี้ต่อไป ข้อดีคือเรายังอยู่ในช่วงเริ่มต้นของการรวบรวมวิธีจัดการและรับมือกับ AI ทางสังคม ดังนั้น คุณกำลังก้าวเข้าสู่ชั้นล่าง และความพยายามของคุณสามารถกำหนดอนาคตของคุณและอนาคตสำหรับเราทุกคนได้

การเดินทางของ AI เพิ่งเริ่มต้นขึ้นและขั้นตอนแรกที่สำคัญยังคงดำเนินอยู่

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- สมาคมวิชาชีพ-the-acm/