3 เหตุผลที่องค์กรของคุณจะต้องมีผู้ประเมินอัลกอริทึมภายนอก

โดย สัตตา สารมะ-หอสูง

ผู้นำธุรกิจกำลังบีบคุณค่าทั้งหมดที่พวกเขาสามารถทำได้จากปัญญาประดิษฐ์ (AI) ผลการศึกษาของ KPMG ในปี 2021 พบว่า ผู้นำธุรกิจภาครัฐ การผลิตภาคอุตสาหกรรม บริการทางการเงิน การค้าปลีก วิทยาศาสตร์เพื่อชีวิต และการดูแลสุขภาพส่วนใหญ่กล่าวว่า AI อย่างน้อยก็ทำงานได้ในระดับปานกลางในองค์กร. นอกจากนี้ ผลการศึกษายังพบว่าผู้ตอบแบบสอบถามครึ่งหนึ่งกล่าวว่าองค์กรของพวกเขาได้เร่งการนำ AI มาใช้เพื่อรับมือกับการระบาดใหญ่ของ Covid-19 ในองค์กรที่นำ AI มาใช้ อย่างน้อยครึ่งหนึ่งกล่าวว่าเทคโนโลยีเกินความคาดหมาย

อัลกอริธึม AI มีความรับผิดชอบมากขึ้นในการโต้ตอบและนวัตกรรมต่างๆ ในปัจจุบัน—จากการปรับเปลี่ยนในแบบของคุณ คำแนะนำผลิตภัณฑ์ และ บริการลูกค้า ประสบการณ์สู่ธนาคาร' การตัดสินใจให้ยืม และแม้กระทั่ง การตอบสนองของตำรวจ.

แต่สำหรับประโยชน์ทั้งหมดที่พวกเขานำเสนอ อัลกอริธึม AI มีความเสี่ยงสูงหากไม่ได้รับการตรวจสอบและประเมินผลอย่างมีประสิทธิภาพเพื่อความยืดหยุ่น ความยุติธรรม ความสามารถในการอธิบาย และความสมบูรณ์ เพื่อช่วยผู้นำธุรกิจในการติดตามและประเมิน AI การศึกษาที่อ้างถึงข้างต้นแสดงให้เห็นว่าa ผู้นำทางธุรกิจจำนวนมากขึ้นต้องการให้รัฐบาลควบคุม AI เพื่อให้องค์กรสามารถลงทุนในเทคโนโลยีและกระบวนการทางธุรกิจที่เหมาะสม สำหรับการสนับสนุนและการกำกับดูแลที่จำเป็น ควรพิจารณาการประเมินภายนอกที่เสนอโดยผู้ให้บริการที่มีประสบการณ์ในการให้บริการดังกล่าว นี่คือเหตุผลสามประการ

1. อัลกอริทึมคือ "กล่องดำ"

อัลกอริธึม AI ซึ่งเรียนรู้จากข้อมูลเพื่อแก้ปัญหาและเพิ่มประสิทธิภาพงาน ทำให้ระบบฉลาดขึ้น ช่วยให้รวบรวมและสร้างข้อมูลเชิงลึกได้เร็วกว่าที่มนุษย์เคยทำได้มาก

อย่างไรก็ตาม ผู้มีส่วนได้ส่วนเสียบางรายถือว่าอัลกอริธึมเหล่านี้เป็น "กล่องดำ" Drew Rosen กรรมการผู้จัดการฝ่ายตรวจสอบของ KPMG ซึ่งเป็นบริษัทให้บริการระดับมืออาชีพชั้นนำอธิบาย โดยเฉพาะอย่างยิ่ง ผู้มีส่วนได้ส่วนเสียบางรายอาจไม่เข้าใจว่าอัลกอริธึมมาสู่การตัดสินใจบางอย่างได้อย่างไร ดังนั้นจึงอาจไม่มั่นใจในความยุติธรรมหรือความถูกต้องของการตัดสินใจนั้น

Rosen กล่าวว่า "ผลลัพธ์ที่รวบรวมได้จากอัลกอริธึมมีแนวโน้มที่จะมีอคติและตีความผลลัพธ์ผิด “นั่นยังอาจนำไปสู่ความเสี่ยงบางอย่างต่อเอนทิตีในขณะที่พวกเขาใช้ประโยชน์จากผลลัพธ์เหล่านั้นและแบ่งปัน [พวกเขา] กับสาธารณะและผู้มีส่วนได้ส่วนเสียของพวกเขา”

ตัวอย่างเช่น อัลกอริธึมที่ใช้ข้อมูลที่ผิดพลาดนั้นไม่ได้ผลดีที่สุด—และเป็นอันตรายอย่างเลวร้ายที่สุด สิ่งที่อาจดูเหมือนในทางปฏิบัติ? พิจารณาแชทบอทที่ใช้ AI ซึ่งให้ข้อมูลบัญชีที่ไม่ถูกต้องแก่ผู้ใช้หรือเครื่องมือแปลภาษาอัตโนมัติที่แปลข้อความอย่างไม่ถูกต้อง ทั้งสองกรณีอาจส่งผลให้เกิดข้อผิดพลาดร้ายแรงหรือการตีความผิดสำหรับหน่วยงานของรัฐหรือบริษัท ตลอดจนองค์ประกอบและลูกค้าที่อาศัยการตัดสินใจของอัลกอริทึมเหล่านั้น

อีกปัจจัยหนึ่งที่ทำให้เกิดปัญหากล่องดำคือเมื่อความลำเอียงโดยธรรมชาติแทรกซึมเข้าสู่การพัฒนาแบบจำลอง AI ซึ่งอาจทำให้เกิดการตัดสินใจที่ลำเอียง ตัวอย่างเช่น ผู้ให้กู้สินเชื่อใช้ AI มากขึ้นในการคาดการณ์ความน่าเชื่อถือของผู้กู้ที่มีศักยภาพ เพื่อตัดสินใจให้สินเชื่อ อย่างไรก็ตาม ความเสี่ยงอาจเกิดขึ้นเมื่อมีการป้อนข้อมูลที่สำคัญใน AI เช่น คะแนนเครดิตของผู้กู้ที่มีศักยภาพ มีข้อผิดพลาดด้านวัสดุส่งผลให้บุคคลเหล่านั้นถูกปฏิเสธเงินกู้

สิ่งนี้เน้นให้เห็นถึงความจำเป็นของผู้ประเมินภายนอกที่สามารถทำหน้าที่เป็นผู้ประเมินที่เป็นกลางและจัดให้มีการประเมินที่เน้นตามเกณฑ์ที่ยอมรับ เกี่ยวกับความเกี่ยวข้องและความน่าเชื่อถือของข้อมูลในอดีตและสมมติฐานที่ขับเคลื่อนอัลกอริทึม

2. ผู้มีส่วนได้ส่วนเสียและหน่วยงานกำกับดูแลเรียกร้องความโปร่งใส

ในปี 2022 ไม่มีข้อกำหนดการรายงานในปัจจุบันสำหรับ AI ที่รับผิดชอบ อย่างไรก็ตาม Rosen กล่าวว่า "เช่นเดียวกับที่หน่วยงานกำกับดูแลได้แนะนำกฎระเบียบ ESG [สิ่งแวดล้อม สังคมและธรรมาภิบาล] เพื่อ รายงานตัวชี้วัด ESG บางอย่างเป็นเพียงเรื่องของเวลาที่เราเห็นข้อกำหนดการรายงานกฎระเบียบเพิ่มเติมสำหรับ AI ที่รับผิดชอบ”

อันที่จริง มีผลใช้บังคับวันที่ 1 มกราคม พ.ศ. 2023 ที่นครนิวยอร์ก กฎหมายท้องถิ่น 144 กำหนดให้ต้องมีการตรวจสอบอคติเกี่ยวกับเครื่องมือตัดสินใจการจ้างงานอัตโนมัติก่อนที่จะใช้งาน

และในระดับสหพันธรัฐ พระราชบัญญัติความคิดริเริ่มด้านปัญญาประดิษฐ์แห่งชาติปี 2020—ซึ่งสร้างขึ้นบน คำสั่งผู้บริหาร พ.ศ. 2019—เน้นที่มาตรฐานทางเทคนิคและคำแนะนำของ AI นอกจากนี้ พระราชบัญญัติความรับผิดชอบอัลกอริทึม อาจต้องมีการประเมินผลกระทบของระบบการตัดสินใจอัตโนมัติและกระบวนการตัดสินใจที่สำคัญยิ่ง และในต่างประเทศ พระราชบัญญัติปัญญาประดิษฐ์ ได้รับการเสนอโดยเสนอกรอบการกำกับดูแลที่ครอบคลุมโดยมีวัตถุประสงค์เฉพาะด้านความปลอดภัยของ AI การปฏิบัติตามกฎระเบียบธรรมาภิบาลและความน่าเชื่อถือ

ด้วยการเปลี่ยนแปลงเหล่านี้ องค์กรต่างๆ จึงอยู่ภายใต้กล้องจุลทรรศน์การกำกับดูแล ผู้ประเมินอัลกอริธึมอาจจัดทำรายงานดังกล่าวซึ่งระบุข้อกำหนดด้านกฎระเบียบและเพิ่มความโปร่งใสของผู้มีส่วนได้ส่วนเสีย ในขณะเดียวกันก็หลีกเลี่ยงความเสี่ยงที่ผู้มีส่วนได้ส่วนเสียตีความหรือถูกตีความผิด เข้าใจผิด โดยผลการประเมิน

3. บริษัทได้รับประโยชน์จากการบริหารความเสี่ยงระยะยาว

Steve Camara ซึ่งเป็นหุ้นส่วนในแนวปฏิบัติด้านการรับประกันเทคโนโลยีของ KPMG คาดการณ์ว่าการลงทุนด้าน AI จะยังคงเติบโตต่อไปในขณะที่หน่วยงานดำเนินการตามกระบวนการอัตโนมัติ พัฒนานวัตกรรมที่ปรับปรุงประสบการณ์ของลูกค้า และกระจายการพัฒนา AI ไปยังหน้าที่ต่างๆ ของธุรกิจ เพื่อให้สามารถแข่งขันและทำกำไรได้ องค์กรต่างๆ จะต้องมีการควบคุมที่มีประสิทธิภาพ ซึ่งไม่เพียงแต่จัดการกับข้อบกพร่องในทันทีของ AI แต่ยังช่วยลดความเสี่ยงในระยะยาวที่เกี่ยวข้องกับการดำเนินธุรกิจที่ใช้ AI เป็นตัวขับเคลื่อน

นี่คือจุดที่ผู้ประเมินภายนอกก้าวเข้ามาในฐานะแหล่งข้อมูลที่เชื่อถือได้และชาญฉลาด เนื่องจากองค์กรต่างๆ ยอมรับความสมบูรณ์ของ AI มากขึ้นในฐานะตัวขับเคลื่อนธุรกิจ การเป็นหุ้นส่วนอาจกลายเป็นบริการเฉพาะกิจน้อยลงและมีการทำงานร่วมกันที่สอดคล้องกันมากขึ้น Camara อธิบาย

“เราเห็นหนทางข้างหน้าที่จะต้องมีความสัมพันธ์อย่างต่อเนื่องระหว่างองค์กรที่กำลังพัฒนาและดำเนินการ AI อย่างต่อเนื่องและผู้ประเมินภายนอกที่มีวัตถุประสงค์” เขากล่าว

มองไปยังสิ่งที่จะเกิดขึ้นต่อไป

ในอนาคต องค์กรอาจใช้การประเมินจากภายนอกเป็นวัฏจักรมากขึ้น เมื่อพวกเขาพัฒนาโมเดลใหม่ นำเข้าแหล่งข้อมูลใหม่ รวมโซลูชันของผู้จำหน่ายบุคคลที่สาม หรือสำรวจข้อกำหนดการปฏิบัติตามข้อกำหนดใหม่ เป็นต้น

เมื่อมีการบังคับใช้ข้อกำหนดด้านกฎระเบียบและการปฏิบัติตามข้อกำหนดเพิ่มเติม ผู้ประเมินภายนอกอาจสามารถให้บริการเพื่อประเมินโดยตรงว่าองค์กรได้ปรับใช้หรือใช้ AI ในส่วนที่เกี่ยวข้องกับข้อกำหนดเหล่านั้นได้ดีเพียงใด ผู้ประเมินเหล่านี้จะอยู่ในตำแหน่งที่ดีที่สุดในการแบ่งปันผลการประเมินในลักษณะที่ชัดเจนและสม่ำเสมอ

ในการใช้ประโยชน์จากเทคโนโลยีในขณะเดียวกันก็ป้องกันข้อจำกัดต่างๆ ขององค์กร องค์กรต้องแสวงหาผู้ประเมินภายนอกเพื่อจัดทำรายงานที่สามารถพึ่งพาได้เพื่อแสดงความโปร่งใสมากขึ้นเมื่อปรับใช้อัลกอริธึม จากจุดนั้น ทั้งองค์กรและผู้มีส่วนได้ส่วนเสียสามารถเข้าใจพลังของ AI และข้อจำกัดได้ดีขึ้น

ที่มา: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/