การปฏิวัติ AI ในการกำกับดูแลกิจการ – เสนอโดย Fiduciaries

ลองจินตนาการถึงห้องประชุมที่มีปัญญาประดิษฐ์ (AI) นั่งอยู่ในฐานะสมาชิกที่ลงคะแนนเสียงโดยมีหน้าที่ได้รับความไว้วางใจ แทนที่จะเป็นผู้ชม แนวคิดนี้มีการขยายสาขาที่สำคัญสำหรับอนาคตของการกำกับดูแลกิจการ นี่คืออนาคตที่บรรยายไว้ในงานสำคัญเรื่อง “Artificial Fiduciaries” เพื่อที่จะแก้ไขข้อบกพร่องเหล่านี้ การศึกษาได้เสนอแนวทางใหม่: หน่วยงานด้านปัญญาประดิษฐ์ (AI) ที่มีภาระหน้าที่และการดูแลในระดับเดียวกับผู้กำกับที่เป็นมนุษย์เมื่อทำหน้าที่เป็นผู้ไว้วางใจ

แนวคิดเรื่องความไว้วางใจเทียม

ในการกำกับดูแลกิจการ การสรรหากรรมการอิสระถือเป็นเรื่องที่ยากลำบากมานานแล้ว การจำกัดวาระและการตรวจสอบจากภายนอกเป็นสองตัวอย่างของการปฏิรูปที่มีอยู่ซึ่งยังไม่บรรลุวัตถุประสงค์โดยรวม อ้างอิงจากบทความ ปัญญาประดิษฐ์ให้วิธีการรักษาแบบพิเศษในรูปแบบของ “ผู้ไว้วางใจเทียม” แนวทางนี้ขยายและปรับปรุงแนวคิดในการใช้ผู้ให้บริการบอร์ด (BSP) เพื่อจัดการกับฟังก์ชันของบอร์ด ผู้รับความไว้วางใจจาก AI มีความสามารถในการให้ความเป็นอิสระอย่างแท้จริง และปรับปรุงกระบวนการตัดสินใจ ตรงกันข้ามกับ BSP ซึ่งถูกจำกัดโดยอคติของมนุษย์และข้อจำกัดทางเทคโนโลยี

ผู้ไว้วางใจเทียมอาจทำหน้าที่เป็นผู้ไกล่เกลี่ยที่เป็นกลาง ส่งเสริมการเปิดกว้าง และอาจจะทำให้การกำกับดูแลบริษัทเป็นประชาธิปไตยในระดับสากล ยังคงมีคำถามสำคัญที่ต้องตอบ: AI สามารถปฏิบัติตามภาระผูกพันอันเข้มงวดของผู้ได้รับความไว้วางใจได้จริงหรือ? นักวิชาการด้านกฎหมาย เช่น Eugene Volok ได้แสดงความกังวลว่าการตัดสินด้วยความเห็นอกเห็นใจอาจมีบทบาทสำคัญในตำแหน่งนี้ ซึ่งการศึกษายอมรับว่า อย่างไรก็ตาม ยืนยันว่าแทนที่จะจำลองความสามารถของมนุษย์อย่างแม่นยำ คำถามควรอยู่ที่ว่า AI สามารถบรรลุเป้าหมายของความรับผิดชอบที่ได้รับมอบหมายได้หรือไม่

การกำหนดอนาคตของการกำกับดูแลกิจการ

จากการศึกษาพบว่า Fiduciaries เทียมสามารถทำหน้าที่เป็นกรรมการภายนอกที่เป็นกลาง ในขณะเดียวกันก็ปฏิบัติหน้าที่ที่ได้รับความไว้วางใจต่อบริษัทและนักลงทุนด้วย คาดว่าการทำงานควบคู่กับมนุษย์จะให้ผลลัพธ์ที่ดีกว่า อย่างไรก็ตาม เนื่องจากความไว้วางใจจาก AI นั้นเป็นอัลกอริทึมโดยธรรมชาติ หน้าที่เฉพาะของพวกเขาจึงอาจแตกต่างกัน เรียงความเน้นย้ำถึงความจำเป็นในความยืดหยุ่นในขณะเดียวกันก็รักษามาตรฐานพฤติกรรมระดับสูง และอธิบายว่าหน้าที่ของการดูแลและความภักดีสามารถขยายไปสู่ผู้รับความไว้วางใจเทียมได้อย่างไร

อย่างไรก็ตาม การศึกษานี้ไม่ได้หลีกเลี่ยงการพูดคุยถึงข้อบกพร่องที่อาจเกิดขึ้น การวิเคราะห์อย่างละเอียดเสร็จสิ้นในประเด็นต่างๆ เช่น อคติ การขาดความโปร่งใส (ปัญหา "กล่องดำ") อันตรายด้านความปลอดภัย และศักยภาพของผู้กำกับที่ชาญฉลาดอย่างยิ่งในการควบคุมการสนทนา เพื่อลดอันตรายเหล่านี้ รายงานจึงแนะนำกรอบการทำงานด้านจริยธรรม นโยบายความโปร่งใส และมาตรฐานที่แม่นยำสำหรับขั้นตอนการตัดสินใจของ AI การพูดคุยครั้งนี้ช่วยเพิ่มการอภิปรายในปัจจุบันเกี่ยวกับความเป็นธรรมของอัลกอริทึมในการพัฒนา AI อย่างมาก

เรียงความยังออกคำเตือนไม่ให้มองว่า AI เป็นเพียงเครื่องมือเท่านั้น แนวคิดก็คือผู้ไว้วางใจเทียมควรจะสามารถตัดสินได้ด้วยตัวเอง โดยปราศจากข้อจำกัดของระบบที่ตั้งโปรแกรมไว้ล่วงหน้า เพื่อที่จะแก้ไขข้อจำกัดด้านทุนทางสังคมและประเด็นด้านจริยธรรมที่ซับซ้อน การศึกษานี้นำเสนอกระบวนทัศน์การทำงานร่วมกันซึ่งผู้ได้รับความไว้วางใจทั้งที่เป็นมนุษย์และเทียมจะร่วมมือกันในขณะที่ใช้จุดแข็งของตน ในความร่วมมือนี้ จำเป็นต้องมีการตรวจสอบโดยมนุษย์เพื่อให้แน่ใจว่าคำแนะนำที่ดีที่สุดได้รับการปฏิบัติ และการตัดสินใจของ AI อยู่ภายใต้บรรทัดฐานทางจริยธรรมที่เข้มงวด

ส่งผลต่อการกำกับดูแลกิจการที่ดีในอนาคต

ส่วนสุดท้ายของรายงานจะพิจารณาว่าการกำกับดูแลกิจการจะเปลี่ยนแปลงไปอย่างไรเมื่อ AI มีการบูรณาการมากขึ้น แนะนำกรอบกฎหมายเพื่อควบคุมการเกิดขึ้นของผู้รับความไว้วางใจเทียม การสืบสวนนี้ไม่เพียงแต่กระตุ้นการสนทนาทางวิชาการเท่านั้น แต่ยังทำหน้าที่เป็นการเรียกร้องให้สมาชิกสภานิติบัญญัติแก้ไขกฎหมายปัจจุบัน และเปิดประตูสำหรับการนำ AI ไปใช้อย่างมีจริยธรรมในห้องประชุมคณะกรรมการ คำถามยังคงอยู่: เราพร้อมที่จะยอมรับ AI ในฐานะพันธมิตรด้านการกำกับดูแลกิจการที่เชื่อถือได้หรือไม่?

ที่มา: https://www.cryptopolitan.com/ai-corporate-governance-ai-fiduciaries/