จรรยาบรรณของ AI และกฎหมาย AI อาจถูกนำมาใช้และบังคับใช้คำเตือนด้านความปลอดภัยสำหรับ AI ที่มีอยู่และในอนาคตทั้งหมด

กิจกรรมประจำวันของคุณถูกทิ้งระเบิดอย่างไม่ต้องสงสัยด้วยคำเตือนล่วงหน้าอย่างน้อยหนึ่งพันครั้ง

ลองเหล่านี้สำหรับขนาด:

  • ต้องสวมแว่นตานิรภัยตลอดเวลา
  • อันตราย: สารเคมีอันตรายในบริเวณใกล้เคียง
  • ไฟฟ้าแรงสูง – Keep out
  • คำเตือน ระวังสิ่งรอบตัว
  • วัตถุในกระจกอยู่ใกล้กว่าที่ปรากฏ
  • ถอดเด็กออกก่อนพับ (ตามที่ระบุไว้ในรถเข็นเด็ก)
  • ข้อควรระวัง: อย่าลืมละเว้นข้อความนี้

ส่วนใหญ่เป็นป้ายหรือป้ายกำกับที่มีประโยชน์และรอบคอบซึ่งให้บริการเพื่อให้เราปลอดภัยด้วยความหวัง

โปรดทราบว่าฉันได้แอบดู "ค่าผิดปกติ" สองสามรายการในรายการเพื่อสร้างประเด็นสำคัญ

ตัวอย่างเช่น บางคนเชื่อว่ารถเข็นเด็กมีป้ายเตือนว่าไม่ควรพับรถเข็นในขณะที่ทารกยังนั่งอยู่ในอุปกรณ์คุมกำเนิด แม้ว่าเครื่องหมายจะเหมาะสมและมีประโยชน์ตามหน้าที่อย่างแน่นอน แต่ดูเหมือนว่าสามัญสำนึกพื้นฐานจะเพียงพอแล้ว

บุคคลใดจะไม่ทราบเจตนาของตนว่าต้องเอาทารกออกก่อน?

คนอื่น ๆ เน้นว่าป้ายกำกับดังกล่าวมีจุดประสงค์ที่สำคัญ ประการแรก บางคนอาจลืมไปว่าต้องถอดทารกออกก่อนที่จะพับรถเข็นขึ้น บางทีบุคคลนั้นอาจสันนิษฐานว่าผู้เดินทอดน่องได้รับการออกแบบมาอย่างชาญฉลาดเพื่อให้แน่ใจว่าการพับจะไม่เป็นอันตรายต่อทารก หรืออาจมีคุณลักษณะด้านความปลอดภัยในตัวที่ป้องกันการพับเมื่อใดก็ตามที่มีเด็กอยู่ในรถเข็น เป็นต้น

นอกจากนี้ อาจเป็นไปได้ว่าบุคคลนั้นฟุ้งซ่านและจะพับรถเข็นอย่างไม่ใส่ใจ ห้อมล้อมทารกและทุกสิ่ง แต่โชคดีที่ฉลากเตือนให้บุคคลนั้นไม่ทำเช่นนั้น (บางคนแย้งว่าไม่น่าเป็นไปได้ที่บุคคลดังกล่าวจะสังเกตเห็นฉลาก ถึงอย่างไร). นอกจากนี้ยังมีข้อเท็จจริงที่ว่าอาจมีคนฟ้องผู้ผลิตรถเข็นเด็กหากไม่มีป้ายดังกล่าว คุณสามารถจินตนาการถึงหนึ่งในคดีฟ้องร้องที่หนักหน่วงซึ่งมีทารกได้รับบาดเจ็บ และผู้ปกครองตัดสินใจที่จะเก็บเงินหนึ่งล้านเหรียญเพราะรถเข็นเด็กไม่มีป้ายเตือนติดไว้ บริษัทผู้เดินทอดน่องจะเสียใจที่ไม่ได้ใช้เงินไม่กี่เซ็นต์ที่จำเป็นในการทำและวางป้ายเตือนบนรถเข็น

ดูข้อความเตือนสุดท้ายที่ฉันได้ระบุไว้ข้างต้นอย่างใกล้ชิดด้วย

ฉันเลือกที่จะวางข้อความที่ไม่สุภาพเกี่ยวกับการทำให้แน่ใจว่าจะไม่สนใจข้อความนั้น เนื่องจากมีป้ายเตือนปลอมจำนวนมากที่ผู้คนซื้อหรือทำขึ้นเพื่อความสนุกสนานในทุกวันนี้ อันนี้เป็นนักบิดใจเชิงปรัชญาที่แท้จริง หากคุณอ่านคำเตือนที่บอกว่าไม่ต้องสนใจคำเตือน คุณจะทำอย่างไรเมื่ออ่านคำเตือนแล้ว คุณอ่านแล้ว ดังนั้นมันจึงชัดแจ้งในใจของคุณ แน่นอน คุณสามารถเพิกเฉยได้ แต่อีกครั้ง คุณไม่ได้รับคำแนะนำเลยว่าอะไรคือสิ่งที่คุณควรเพิกเฉย มุกนี้วนไปวนมา

แน่นอน ป้ายเตือนโดยสุจริตมักไม่มีลักษณะล้อเล่นหรือตลกขบขัน

เราควรจะใช้คำเตือนอย่างจริงจังทีเดียว

โดยปกติ หากคุณไม่ปฏิบัติตามคำเตือนที่ระบุไว้ ถือว่าคุณยอมรับความเสี่ยงอย่างร้ายแรง และอาจเป็นไปได้ว่าถ้าคุณไม่ปฏิบัติตามและปฏิบัติตามคำเตือน คุณก็อาจทำให้ผู้อื่นตกอยู่ในความเสี่ยงเช่นกัน พิจารณาการกระทำของการขับรถ ช่วงเวลาที่คุณอยู่หลังพวงมาลัยรถ การกระทำของคุณในฐานะคนขับสามารถทำร้ายตัวคุณเอง บวกกับคุณสามารถทำร้ายผู้โดยสารของคุณ และคุณสามารถทำร้ายผู้อื่นได้ เช่น ผู้คนในรถคันอื่นหรือคนเดินถนนที่อยู่ใกล้เคียง ในแง่นั้น คำเตือนไม่ได้เป็นเพียงเพื่อประโยชน์ของคุณเท่านั้น แต่ยังอาจเป็นประโยชน์ต่อผู้อื่นด้วย

เหตุใดฉันจึงครอบคลุมแง่มุมของคำเตือนและป้ายเตือนเหล่านี้

เนื่องจากบางคนยืนยันอย่างรุนแรงว่าเราต้องการสัญญาณเตือนและสัญญาณเตือนเกี่ยวกับปัญญาประดิษฐ์ (AI) ในปัจจุบัน

ที่จริงแล้ว แนวคิดก็คือการวางป้ายกำกับดังกล่าวบน AI ในปัจจุบันและ AI ในอนาคตด้วย สรุปแล้ว AI ทั้งหมดจะมีรูปแบบหรือรูปแบบของคำเตือนหรือคำเตือนที่เกี่ยวข้อง

ความคิดที่ดีหรือความคิดที่ไม่ดี?

ปฏิบัติหรือไม่ปฏิบัติ?

ไปข้างหน้าและแกะความคิดและดูว่าเราสามารถทำอะไรได้บ้าง

อันดับแรก ฉันต้องการวางรากฐานที่สำคัญบางอย่างเกี่ยวกับ AI และโดยเฉพาะอย่างยิ่ง AI Ethics และกฎหมาย AI การทำเช่นนี้เพื่อให้แน่ใจว่าหัวข้อของคำเตือน AI นั้นสมเหตุสมผลตามบริบท สำหรับผู้ที่สนใจโดยทั่วไปเกี่ยวกับจริยธรรม AI และกฎหมาย AI ดูการรายงานที่ครอบคลุมและต่อเนื่องของฉันที่ ลิงค์ที่นี่ และ ลิงค์ที่นี่เพียงเพื่อชื่อไม่กี่

ความตระหนักที่เพิ่มขึ้นของ AI อย่างมีจริยธรรมและกฎหมาย AI

ยุคใหม่ของ AI ถูกมองว่าเป็นยุคแรกๆ AI เพื่อความดีหมายความว่าเราสามารถใช้ AI เพื่อทำให้มนุษยชาติดีขึ้นได้ บนส้นเท้าของ AI เพื่อความดี มาตระหนักว่าเรายังจมอยู่ใน AI สำหรับไม่ดี. ซึ่งรวมถึง AI ที่ประดิษฐ์ขึ้นหรือเปลี่ยนแปลงตนเองเพื่อให้เป็นการเลือกปฏิบัติ และทำให้ตัวเลือกทางคอมพิวเตอร์สร้างอคติที่ไม่เหมาะสม บางครั้ง AI ถูกสร้างขึ้นในลักษณะนั้น ในขณะที่ในบางกรณีก็เปลี่ยนทิศทางไปยังอาณาเขตที่ไม่ดีนั้น

ฉันต้องการทำให้แน่ใจว่าเราอยู่ในหน้าเดียวกันเกี่ยวกับธรรมชาติของ AI ในปัจจุบัน

วันนี้ไม่มี AI ใดที่มีความรู้สึก เราไม่มีสิ่งนี้ เราไม่ทราบว่า AI ที่มีความรู้สึกจะเป็นไปได้หรือไม่ ไม่มีใครสามารถคาดเดาได้อย่างเหมาะเจาะว่าเราจะได้รับ AI ที่มีความรู้สึกหรือไม่ และ AI ที่มีความรู้สึกจะเกิดขึ้นอย่างอัศจรรย์อย่างปาฏิหาริย์ในรูปแบบของซุปเปอร์โนวาทางปัญญาเชิงคำนวณหรือไม่ ลิงค์ที่นี่).

ประเภทของ AI ที่ฉันมุ่งเน้นประกอบด้วย AI ที่ไม่มีความรู้สึกที่เรามีในปัจจุบัน หากเราต้องการคาดเดาอย่างดุเดือดเกี่ยวกับ AI ที่มีความรู้สึก การสนทนานี้อาจไปในทิศทางที่ต่างไปจากเดิมอย่างสิ้นเชิง AI ที่มีความรู้สึกควรจะมีคุณภาพของมนุษย์ คุณจะต้องพิจารณาว่า AI ที่มีความรู้สึกนั้นเทียบเท่ากับความรู้ความเข้าใจของมนุษย์ ยิ่งไปกว่านั้น เนื่องจากบางคนคาดเดาว่าเราอาจมี AI ที่ฉลาดล้ำ จึงเป็นไปได้ว่า AI ดังกล่าวจะฉลาดกว่ามนุษย์ ความคุ้มครองที่นี่).

ฉันขอแนะนำอย่างยิ่งว่าเราควรเก็บสิ่งต่าง ๆ ลงบนพื้นโลกและพิจารณา AI ที่ไม่มีความรู้สึกเชิงคำนวณในปัจจุบัน

ตระหนักว่า AI ในปัจจุบันไม่สามารถ "คิด" ในรูปแบบใดๆ ที่เท่าเทียมกับความคิดของมนุษย์ได้ เมื่อคุณโต้ตอบกับ Alexa หรือ Siri ความสามารถในการสนทนาอาจดูคล้ายกับความสามารถของมนุษย์ แต่ความจริงก็คือมันเป็นการคำนวณและขาดความรู้ความเข้าใจของมนุษย์ ยุคใหม่ของ AI ได้ใช้ประโยชน์จาก Machine Learning (ML) และ Deep Learning (DL) อย่างกว้างขวาง ซึ่งใช้ประโยชน์จากการจับคู่รูปแบบการคำนวณ สิ่งนี้นำไปสู่ระบบ AI ที่มีลักษณะเหมือนมนุษย์ ในขณะเดียวกัน ทุกวันนี้ไม่มี AI ใดที่มีลักษณะคล้ายสามัญสำนึก และไม่มีความมหัศจรรย์ทางปัญญาใดๆ เกี่ยวกับการคิดที่แข็งแกร่งของมนุษย์

โปรดใช้ความระมัดระวังในการปรับเปลี่ยน AI ในปัจจุบัน

ML/DL คือรูปแบบหนึ่งของการจับคู่รูปแบบการคำนวณ วิธีปกติคือคุณรวบรวมข้อมูลเกี่ยวกับงานการตัดสินใจ คุณป้อนข้อมูลลงในคอมพิวเตอร์รุ่น ML/DL โมเดลเหล่านั้นพยายามค้นหารูปแบบทางคณิตศาสตร์ หลังจากพบรูปแบบดังกล่าวแล้ว หากพบ ระบบ AI จะใช้รูปแบบดังกล่าวเมื่อพบข้อมูลใหม่ เมื่อนำเสนอข้อมูลใหม่ รูปแบบที่อิงตาม "ข้อมูลเก่า" หรือข้อมูลในอดีตจะถูกนำไปใช้เพื่อแสดงการตัดสินใจในปัจจุบัน

ฉันคิดว่าคุณสามารถเดาได้ว่าสิ่งนี้กำลังมุ่งหน้าไปที่ใด หากมนุษย์ที่ทำตามแบบแผนในการตัดสินใจได้รวมเอาอคติที่ไม่ดีเข้าไว้ โอกาสที่ข้อมูลจะสะท้อนสิ่งนี้ในรูปแบบที่ละเอียดอ่อนแต่มีความสำคัญ การจับคู่รูปแบบการคำนวณของ Machine Learning หรือ Deep Learning จะพยายามเลียนแบบข้อมูลตามหลักคณิตศาสตร์ ไม่มีความคล้ายคลึงของสามัญสำนึกหรือแง่มุมอื่น ๆ ของการสร้างแบบจำลองที่ประดิษฐ์โดย AI ต่อตัว

นอกจากนี้ นักพัฒนา AI อาจไม่ทราบว่าเกิดอะไรขึ้นเช่นกัน คณิตศาสตร์ลี้ลับใน ML/DL อาจทำให้ยากต่อการค้นหาอคติที่ซ่อนอยู่ในขณะนี้ คุณจะหวังและคาดหวังอย่างถูกต้องว่านักพัฒนา AI จะทดสอบอคติที่ซ่อนอยู่ แม้ว่าจะยากกว่าที่คิดก็ตาม มีโอกาสสูงที่แม้จะมีการทดสอบที่ค่อนข้างกว้างขวางว่าจะมีความลำเอียงที่ยังคงฝังอยู่ในโมเดลการจับคู่รูปแบบของ ML/DL

คุณสามารถใช้สุภาษิตที่มีชื่อเสียงหรือน่าอับอายของขยะในถังขยะออก เรื่องนี้คล้ายกับอคติมากกว่าที่จะแทรกซึมอย่างร้ายกาจเมื่ออคติที่จมอยู่ใน AI การตัดสินใจของอัลกอริทึม (ADM) ของ AI จะเต็มไปด้วยความไม่เท่าเทียมกันตามความเป็นจริง

ไม่ดี.

ทั้งหมดนี้มีนัยยะสำคัญอย่างเด่นชัดของจริยธรรม AI และให้หน้าต่างที่มีประโยชน์ในบทเรียนที่ได้เรียนรู้ (แม้กระทั่งก่อนที่บทเรียนทั้งหมดจะเกิดขึ้น) เมื่อพูดถึงการพยายามออกกฎหมาย AI

นอกจากการใช้หลักจรรยาบรรณของ AI โดยทั่วไปแล้ว ยังมีคำถามที่เกี่ยวข้องว่าเราควรมีกฎหมายเพื่อควบคุมการใช้ AI แบบต่างๆ หรือไม่ มีการบังคับใช้กฎหมายใหม่ในระดับสหพันธรัฐ รัฐ และระดับท้องถิ่นที่เกี่ยวข้องกับขอบเขตและลักษณะของวิธีการประดิษฐ์ AI ความพยายามในการร่างและตรากฎหมายดังกล่าวเป็นไปอย่างค่อยเป็นค่อยไป จรรยาบรรณของ AI ทำหน้าที่เป็นช่องว่างที่พิจารณา อย่างน้อยที่สุด และเกือบจะแน่นอนในระดับหนึ่งจะถูกรวมเข้ากับกฎหมายใหม่เหล่านั้นโดยตรง

พึงตระหนักว่ามีบางคนยืนกรานว่าเราไม่จำเป็นต้องมีกฎหมายใหม่ที่ครอบคลุม AI และกฎหมายที่มีอยู่ของเราก็เพียงพอแล้ว พวกเขาเตือนล่วงหน้าว่าหากเราบังคับใช้กฎหมาย AI เหล่านี้ เราจะฆ่าห่านทองคำโดยการจำกัดความก้าวหน้าของ AI ที่ก่อให้เกิดประโยชน์ทางสังคมอย่างมหาศาล

ในคอลัมน์ก่อนหน้านี้ ฉันได้กล่าวถึงความพยายามระดับชาติและระดับนานาชาติในการสร้างและออกกฎหมายควบคุม AI ดู ลิงค์ที่นี่, ตัวอย่างเช่น. ข้าพเจ้ายังได้กล่าวถึงหลักจรรยาบรรณ AI ต่างๆ ที่นานาประเทศได้ระบุและนำไปใช้ เช่น ความพยายามขององค์การสหประชาชาติ เช่น ชุดจริยธรรม AI ของยูเนสโกที่รับรองเกือบ 200 ประเทศ ดู ลิงค์ที่นี่.

ต่อไปนี้คือรายการหลักที่เป็นประโยชน์ของเกณฑ์หรือคุณลักษณะด้านจริยธรรมของ AI เกี่ยวกับระบบ AI ที่ฉันเคยสำรวจมาก่อนหน้านี้อย่างใกล้ชิด:

  • ความโปร่งใส
  • ความยุติธรรมและความเป็นธรรม
  • การไม่อาฆาตพยาบาท
  • ความรับผิดชอบ
  • ความเป็นส่วนตัว
  • ประโยชน์
  • เสรีภาพและเอกราช
  • วางใจ
  • การพัฒนาอย่างยั่งยืน
  • เกียรติ
  • ความเป็นน้ำหนึ่งใจเดียวกัน

หลักการด้านจริยธรรมของ AI เหล่านี้ควรนำไปใช้อย่างจริงจังโดยนักพัฒนา AI ควบคู่ไปกับผู้ที่จัดการความพยายามในการพัฒนา AI และแม้แต่ผู้ที่ปฏิบัติงานและบำรุงรักษาระบบ AI ในท้ายที่สุด

ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของการพัฒนาและการใช้งาน AI ทั้งหมดจะได้รับการพิจารณาให้อยู่ในขอบเขตของการปฏิบัติตามบรรทัดฐานที่กำหนดไว้ของ AI เชิงจริยธรรม นี่เป็นไฮไลท์สำคัญ เนื่องจากมีการสันนิษฐานตามปกติว่า "เฉพาะผู้เขียนโค้ด" หรือผู้ที่ตั้งโปรแกรม AI จะต้องปฏิบัติตามแนวคิด AI Ethics ตามที่ได้เน้นย้ำในที่นี้ ต้องใช้หมู่บ้านในการประดิษฐ์และใส่ AI และทั้งหมู่บ้านจะต้องมีความรอบรู้และปฏิบัติตามหลักจริยธรรม AI

ฉันยังเพิ่งตรวจสอบ AI บิลสิทธิ ซึ่งเป็นชื่ออย่างเป็นทางการของเอกสารทางการของรัฐบาลสหรัฐฯ เรื่อง “พิมพ์เขียวสำหรับบิลสิทธิ AI: ทำให้ระบบอัตโนมัติทำงานเพื่อชาวอเมริกัน” ซึ่งเป็นผลมาจากความพยายามที่ยาวนานเป็นปีของสำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยี (OSTP) ). OSTP เป็นหน่วยงานของรัฐบาลกลางที่ทำหน้าที่ให้คำแนะนำประธานาธิบดีอเมริกันและสำนักงานบริหารของสหรัฐฯ ในด้านเทคโนโลยี วิทยาศาสตร์ และวิศวกรรมที่มีความสำคัญระดับชาติต่างๆ ในแง่นั้น คุณสามารถพูดได้ว่า AI Bill of Rights นี้เป็นเอกสารที่อนุมัติและรับรองโดยทำเนียบขาวของสหรัฐอเมริกาที่มีอยู่

ใน AI Bill of Rights มีหมวดหมู่หลักห้าหมวดหมู่:

  • ระบบที่ปลอดภัยและมีประสิทธิภาพ
  • การป้องกันการเลือกปฏิบัติอัลกอริทึม
  • ข้อมูลส่วนบุคคล
  • ข้อสังเกตและคำอธิบาย
  • ทางเลือกของมนุษย์ การพิจารณา และการย้อนกลับ

ข้าพเจ้าได้ทบทวนศีลเหล่านั้นอย่างละเอียดถี่ถ้วนแล้ว ดูเถิด ลิงค์ที่นี่.

ตอนนี้ฉันได้วางรากฐานที่เป็นประโยชน์ในหัวข้อเกี่ยวกับจริยธรรม AI และกฎหมาย AI แล้ว เราพร้อมที่จะเข้าสู่หัวข้อที่น่าสนใจว่า AI ควรมีป้ายกำกับคำเตือนหรือไม่

เตรียมตัวให้พร้อมสำหรับการเดินทางให้ข้อมูลที่เปิดหูเปิดตา

การติดป้ายเตือนบน AI เพื่อเป็นแนวทางในการปกป้องมนุษยชาติ

มีข่าวลือเพิ่มขึ้นเรื่อย ๆ ว่าบางที AI ควรจะมาพร้อมกับคำเตือนบางอย่าง

ตัวอย่างเช่น ในบทความล่าสุดใน จากเอ็มไอทีเทคโนโลยี ที่กล่าวถึงความสนใจที่เพิ่มขึ้นในการตรวจสอบ AI แนวคิดในการให้สัญญาณเตือนเกิดขึ้น: "การเติบโตของการตรวจสอบเหล่านี้แสดงให้เห็นว่าวันหนึ่งเราอาจเห็นคำเตือนแบบซองบุหรี่ว่าระบบ AI อาจเป็นอันตรายต่อสุขภาพและความปลอดภัยของคุณ ภาคส่วนอื่นๆ เช่น เคมีภัณฑ์และอาหาร มีการตรวจสอบอย่างสม่ำเสมอเพื่อให้มั่นใจว่าผลิตภัณฑ์มีความปลอดภัยในการใช้งาน สิ่งนี้สามารถกลายเป็นบรรทัดฐานใน AI ได้หรือไม่” (จากเอ็มไอทีเทคโนโลยี, Melissa Heikkilä, 24 ตุลาคม 2022).

มาพูดคุยกันเล็กน้อยเกี่ยวกับสัญญาณเตือนและสัญญาณเตือน

โดยทั่วไปเราทุกคนคุ้นเคยกับป้ายเตือนและคำเตือนเกี่ยวกับผลิตภัณฑ์และบริการมากมายในชีวิตประจำวัน ในบางครั้ง ป้ายความปลอดภัยถูกกำหนดโดยกฎหมาย ในขณะที่ในบางกรณี อาจมีดุลยพินิจในการใช้ป้ายดังกล่าว นอกจากนี้ ป้ายความปลอดภัยบางอย่างยังเป็นมาตรฐาน เช่น ระบุไว้ตามมาตรฐาน ANSI Z535 และมาตรฐาน OSHA 1910.14 มาตรฐานดังกล่าวครอบคลุมถึงแง่มุมต่างๆ เช่น ถ้อยคำของเครื่องหมาย สีและแบบอักษรที่ใช้ รูปทรงของเครื่องหมาย และรายละเอียดอื่นๆ

ควรมีมาตรฐานสำหรับสัญญาณเตือนดังกล่าว เมื่อใดก็ตามที่คุณเห็นสัญญาณดังกล่าว หากเป็นไปตามมาตรฐานที่ระบุไว้ คุณมักจะเชื่อว่าสัญลักษณ์นั้นถูกต้องตามกฎหมาย และคุณต้องใช้การประมวลผลทางปัญญาน้อยลงเพื่อวิเคราะห์และทำความเข้าใจสัญญาณ สำหรับสัญญาณที่ไม่ใช่แนวทางที่เป็นมาตรฐาน คุณมักจะต้องคำนวณทางจิตใจว่าสัญญาณกำลังบอกคุณว่าอย่างไร บางทีอาจเสียเวลาอันมีค่าในการดำเนินการ หรือคุณอาจตัดสินสัญญาณผิดโดยสิ้นเชิงและไม่เข้าใจคำเตือนในมืออย่างเหมาะสม

สัญญาณดังกล่าวสามารถมีอยู่ได้ซึ่งมักจะจำแนกได้ดังนี้:

  • สัญญาณอันตราย: ความกังวลสูงสุดและบ่งบอกถึงอันตรายทันทีที่มีผลกระทบร้ายแรง
  • สัญญาณเตือน บ่งชี้อันตรายที่น้อยกว่า “อันตราย” แต่ยังค่อนข้างร้ายแรง
  • สัญญาณเตือน: บ่งบอกถึงอันตรายที่อาจเกิดขึ้นซึ่งน้อยกว่า "คำเตือน" แต่ก็ยังจริงจังอยู่
  • ป้ายแจ้งเตือน: บ่งบอกถึงการให้ข้อมูลข่าวสารที่น้อยกว่า “ข้อควรระวัง” แต่ยังก่อให้เกิดประเด็นที่น่าเป็นห่วง

จากพื้นฐานข้างต้นเกี่ยวกับคำเตือนและสัญญาณเตือน เราสามารถดำเนินการต่อและลองใช้สิ่งนี้ตามบริบทกับการใช้ AI

ประการแรก เราอาจเห็นด้วยอย่างใดอย่างหนึ่งว่าป้าย AI อาจอยู่ในช่วงความรุนแรงที่ใกล้เคียงกันตามปกติกับสัญญาณประจำวัน เช่น:

  • AI สัญญาณอันตราย: AI ที่มีความห่วงใยสูงสุดและบ่งบอกถึงอันตรายในทันทีที่มีผลกระทบร้ายแรง
  • สัญญาณเตือน AI: AI บ่งบอกถึงอันตรายที่น้อยกว่า “อันตราย” แต่ยังค่อนข้างร้ายแรง
  • AI สัญญาณเตือน: AI บ่งบอกถึงอันตรายที่อาจเกิดขึ้นซึ่งน้อยกว่า "คำเตือน" แต่ก็ยังจริงจังอยู่
  • ป้ายแจ้งเตือน AI: AI ที่บ่งบอกถึงการแจ้งข้อมูลข่าวสารที่น้อยกว่า "ข้อควรระวัง" แต่ก็ยังมีแง่มุมที่น่าเป็นห่วง

ประเด็นสำคัญคือไม่ใช่ว่า AI ทั้งหมดจะน่ากังวลเท่าๆ กัน อาจเป็นไปได้ว่า AI ก่อให้เกิดความเสี่ยงอย่างมากหรือมีความเสี่ยงเพียงเล็กน้อยเท่านั้น ดังนั้นป้ายควรสะท้อนว่าอันไหนเป็นอันไหน หากคำเตือนหรือสัญญาณเตือนของ AI ทั้งหมดเป็นเพียงความสามารถเดียวกัน เราคงไม่ทราบหรือไม่ทราบว่าควรกังวลอย่างมากหรือกังวลเพียงเล็กน้อยเกี่ยวกับ AI เท่านั้น การใช้รูปแบบถ้อยคำที่พิมพ์ออกมาอาจทำให้ชีวิตง่ายขึ้นเมื่อมองเห็นและตีความสัญญาณเตือนที่เกี่ยวข้องกับ AI

คุณอาจสงสัยว่าสัญญาณจะพูดอะไรในแง่ของความเฉพาะเจาะจงของข้อความที่จะถ่ายทอด

นั่นเป็นเรื่องยากที่จะจัดการได้อย่างแน่นอน ความเป็นไปได้ของ AI ในการทำสิ่งต่าง ๆ ที่ถือว่าไม่ปลอดภัยหรือน่าเป็นห่วงนั้นจะมีมากมายมหาศาลและแทบจะไม่มีที่สิ้นสุด เราสามารถต้มพวกเขาลงในชุดประจำบางชุดที่สะกดคำเพียงไม่กี่คำแต่ละคำได้หรือไม่ หรือเราจะต้องอนุญาตให้มีแนวทางอิสระมากขึ้นว่าถ้อยคำจะดำเนินไปอย่างไร?

ฉันจะให้คุณไตร่ตรองคำถามเปิดนั้น

ต่อไปเรามักจะเห็นป้ายเตือนติดอยู่บนสิ่งของต่างๆ ระบบ AI ไม่จำเป็นต้องเป็น "วัตถุ" ในแง่เดียวกับการติดป้ายตามธรรมเนียม สิ่งนี้ทำให้เกิดคำถามว่าจะนำเสนอสัญญาณเตือน AI ที่ใด

อาจเป็นไปได้ว่าเมื่อคุณเรียกใช้แอปโดยบอกว่าสมาร์ทโฟนของคุณใช้ AI อยู่ จะมีข้อความแสดงขึ้นซึ่งมีคำเตือนเกี่ยวกับ AI แอพจะแจ้งเตือนคุณเกี่ยวกับการใช้งาน AI ที่สำคัญ นี่อาจเป็นข้อความป๊อปอัปหรืออาจนำเสนอในรูปแบบภาพและการได้ยินที่หลากหลาย

นอกจากนี้ยังมีสถานการณ์การใช้บริการของคุณที่ได้รับการสนับสนุนจาก AI แม้ว่าคุณอาจไม่ได้โต้ตอบกับ AI โดยตรงก็ตาม ตัวอย่างเช่น คุณอาจกำลังสนทนากับตัวแทนที่เป็นมนุษย์เกี่ยวกับการขอสินเชื่อบ้าน ซึ่งตัวแทนจะอยู่เบื้องหลังอย่างเงียบๆ โดยใช้ระบบ AI เพื่อชี้นำความพยายามของพวกเขา

ดังนั้น เราควรคาดหวังว่าสัญญาณเตือนภัยของ AI ควรมีอยู่ในกรณีการใช้งาน AI ทั้งสองกรณี ดังนี้:

  • AI เฉพาะผลิตภัณฑ์: AI ในฐานะผลิตภัณฑ์ควรมีคำเตือนหรือสัญญาณเตือน AI ทันที
  • AI ที่เน้นการบริการ: AI ในฐานะบริการ (ทางตรงหรือทางอ้อม) ควรมีสัญญาณเตือนหรือสัญญาณเตือน AI

ผู้คลางแคลงใจจะแนะนำอย่างรวดเร็วว่าสัญญาณเตือน AI อาจถูกปลอมแปลงโดยผู้ผลิตแอปเพื่อไม่ให้การแจ้งเตือนเห็นได้ชัด บางทีคำเตือนอาจปรากฏขึ้นชั่วขณะหนึ่ง และคุณไม่ได้สังเกตว่ามีการแสดงคำเตือนนั้นจริงๆ เคล็ดลับลับๆ ล่อๆ อีกประการหนึ่งคือการสร้างเกมขึ้นมา ดูเหมือนเป็นการบั่นทอนความจริงจังของการตื่นตัวและกล่อมให้ผู้คนคิดว่าคำเตือนนั้นไม่สำคัญ

ใช่ คุณสามารถเดิมพันได้เลยว่าสัญญาณเตือนที่เกี่ยวข้องกับ AI จะถูกหลอกและใช้ในลักษณะที่ไม่ได้อยู่ในจิตวิญญาณและเจตนาของการส่งข้อความเตือนที่พวกเขาควรจะสื่อ

ความสงสัยทั้งหมดเหล่านี้เชื่อมโยงว่าเราจะใช้จริยธรรมของ AI เป็น "กฎหมายที่อ่อนนุ่ม" เพื่อพยายามผลักดันคำเตือนและข้อควรระวังที่เกี่ยวข้องกับ AI หรือไม่หรือว่าเราจะใช้ "กฎหมายที่เข้มงวด" รวมถึงกฎหมายที่ตราขึ้นด้วยการสนับสนุนจากศาล ตามทฤษฎีแล้ว การบังคับใช้กฎหมายที่นุ่มนวลจะทำให้มีการเล่นตลกกับเรื่องนี้มากขึ้น ในขณะที่กฎหมายในหนังสือจะมาพร้อมกับศักยภาพในการบังคับใช้ของรัฐบาลและนำมาซึ่งความเข้มงวดมากขึ้น

ข้อกังวลอีกประการหนึ่งคือว่าป้าย AI จะสร้างความแตกต่างหรือไม่

การวิจัยเกี่ยวกับพฤติกรรมผู้บริโภคจำนวนมากมักจะแสดงผลลัพธ์ที่ยุ่งเหยิงเมื่อพูดถึงการจัดทำป้ายเตือนสำหรับผู้บริโภค บางครั้งคำเตือนก็ได้ผล บางครั้งก็ไม่ ลองใช้การวิจัยบางอย่างกับบริบทของ AI

พิจารณาแง่มุมเหล่านี้:

  • การตรวจสอบ: ผู้ที่ใช้ AI ที่มีป้ายเตือน AI ที่ใช้งานได้จะสังเกตหรือตรวจพบว่ามีการแสดงสัญญาณหรือไม่ (สมมติว่ามีป้ายดังกล่าวเกิดขึ้น) หรือไม่?
  • ความเข้าใจ: สำหรับผู้ที่สังเกตเห็นพวกเขาจะเข้าใจหรือเข้าใจสิ่งที่สัญญาณเตือน AI พยายามจะแนะนำหรือไม่?
  • การดำเนินการ: สำหรับผู้ที่ทำให้จิตก้าวกระโดด สัญญาณเตือน AI จะกระตุ้นให้พวกเขาดำเนินการหรือทำหน้าที่ชี้นำพฤติกรรมของพวกเขาตามนั้นหรือไม่?

คุณสามารถคาดการณ์ได้ว่าหากมีโมเมนตัมเพิ่มขึ้นเนื่องจากมีสัญญาณเตือน AI นักวิจัยจะต้องศึกษาเรื่องนี้อย่างใกล้ชิด แนวคิดนี้จะช่วยในการชี้แจงภายใต้สถานการณ์ใดที่คำเตือนจะเป็นประโยชน์และเมื่อใดที่ไม่เป็นเช่นนั้น สิ่งนี้เกี่ยวข้องกับการออกแบบและรูปลักษณ์ที่เกี่ยวข้อง เราอาจคาดหวังว่าประชาชนโดยรวมจะต้องได้รับการศึกษาหรือแจ้งเกี่ยวกับการเกิดขึ้นของคำเตือนและสัญญาณเตือน AI เหล่านี้เพื่อที่พวกเขาจะได้คุ้นเคยกับพวกเขา

มีการหักมุมมากมายที่ต้องพิจารณา

คำเตือนหรือสัญญาณเตือน AI ควรเกิดขึ้นเฉพาะตอนเริ่มใช้งานแอปเท่านั้นหรือไม่ บางทีจุดเริ่มต้นอาจไม่เพียงพอด้วยตัวมันเอง ในแวบแรกบุคคลอาจคิดว่าแอปกำลังเล่นอย่างปลอดภัยโดยใช้คำเตือน จึงไม่ให้ความสำคัญกับคำเตือนมากนัก เมื่อบุคคลนั้นกำลังใช้แอปอยู่ตรงกลาง อาจต้องมีคำเตือนเพิ่มเติม ในช่วงหัวเลี้ยวหัวต่อนั้น บุคคลนั้นตระหนักดีถึงสิ่งที่แอปกำลังดำเนินการอยู่ และพวกเขาอาจลืมข้อความเตือนที่ระบุก่อนหน้านี้ไปแล้ว

คำเตือนหรือคำเตือนของ AI อาจเกิดขึ้น:

  • ก่อนเริ่มแอพและในขณะที่แอพกำลังจะเรียกใช้
  • นำเสนอเมื่อเริ่มต้นแอปและอยู่ที่จุดเริ่มต้นเท่านั้น
  • แสดงที่จุดเริ่มต้นและอีกครั้งกลางทาง
  • แสดงหลายครั้งตลอดการใช้งาน AI
  • มอบให้เมื่อสิ้นสุดการใช้แอพ
  • ให้หลังจากออกจากแอพและอาจถึงนาที ชั่วโมง หรือวันต่อมา
  • เป็นต้น

คุณคิดว่าผู้ที่ใช้ AI จำเป็นต้องยืนยันหรือรับทราบคำเตือนหรือสัญญาณเตือนของ AI ดังกล่าวหรือไม่?

บางคนจะยืนกรานว่าบุคคลนั้นควรจะต้องยอมรับว่าพวกเขาเห็นคำเตือน ซึ่งอาจขัดขวางผู้ที่อาจอ้างว่าไม่มีข้อความเตือนใดๆ นอกจากนี้ยังอาจทำให้ผู้คนจริงจังกับข้อความมากขึ้น เนื่องจากพวกเขาถูกขอให้ยืนยันว่าพวกเขาปฏิบัติตามคำเตือน

นี่เป็นคำถามที่ยากสำหรับคุณ

ควร ทั้งหมด AI ต้องให้คำเตือนหรือข้อบ่งชี้ด้านความปลอดภัยหรือไม่?

คุณอาจโต้แย้งว่าใช่ AI ทั้งหมดต้องมีสิ่งนี้ แม้ว่า AI จะเป็นเพียงความเสี่ยงด้านความปลอดภัยเพียงเล็กน้อย แต่ก็ควรมีสัญญาณเตือนบางรูปแบบ อาจเป็นเพียงการแจ้งเตือนหรือข้อมูลบ่งชี้ คนอื่นจะโต้แย้งข้อโต้แย้งนี้ พวกเขาจะโต้เถียงว่าคุณกำลังลงน้ำ ไม่ใช่ว่า AI ทั้งหมดต้องการสิ่งนี้ นอกจากนี้ หากคุณบังคับให้ AI ทั้งหมดมี คุณจะลดจุดประสงค์ลง คนจะมึนเมื่อเห็นคำเตือน วิธีการทั้งหมดจะกลายเป็นเรื่องตลก

ในมุมที่เกี่ยวข้อง ให้พิจารณาสิ่งที่ผู้ผลิต AI มักจะพูด

ทัศนะหนึ่งก็คือว่านี่จะเป็นความเจ็บปวดในสิ่งที่คุณรู้ว่าควรทำอย่างไร การปรับเปลี่ยนระบบ AI ทั้งหมดของคุณและเพิ่มคุณสมบัตินี้อาจมีค่าใช้จ่ายสูง การเพิ่มข้อมูลแบบก้าวไปข้างหน้าอาจมีค่าใช้จ่ายน้อยกว่า แม้ว่าจะมีค่าใช้จ่ายที่เกี่ยวข้องกับการรวมข้อกำหนดนี้

ความมัวหมองเป็นอีกหนึ่งข้อร้องเรียนที่อาจเกิดขึ้น ต้องแสดงข้อความประเภทใด หากไม่มีมาตรฐานใด ๆ แสดงว่าผู้ผลิต AI จะต้องสร้างสิ่งใหม่ ค่าใช้จ่ายเพิ่มเติมนี้ไม่เพียง แต่อาจเปิดประตูสู่การถูกฟ้องร้องได้ คุณสามารถจินตนาการได้ว่าผู้ผลิต AI อาจถูกนำไปทำงานที่คำเตือนของพวกเขาไม่ดีเท่ากับระบบ AI อื่น ๆ ทนายความจะลงเอยด้วยการรวมกลุ่มจากความสับสนที่เกิดขึ้น

นอกจากนี้ยังมีความกังวลว่าผู้คนจะกลัวข้อความความปลอดภัยเหล่านี้เกินควร

ผู้ผลิต AI อาจเห็นจำนวนผู้ใช้ลดลงอย่างรวดเร็วเนื่องจากข้อความด้านความปลอดภัยที่มีจุดประสงค์เพื่อให้ข้อมูลเตือนเท่านั้น คนจะไม่ทราบว่าจะทำอย่างไรกับข้อความ หากพวกเขาไม่เคยเห็นข้อความดังกล่าวมาก่อน พวกเขาอาจจะตกใจทันทีและหลีกเลี่ยงการใช้ AI โดยไม่จำเป็น

ฉันพูดถึงแง่มุมเหล่านั้นเพราะบางคนได้ประกาศแล้วว่า "ไม่เจ็บ" ที่จะเริ่มรวมถึงคำเตือนของ AI หรือข้อความด้านความปลอดภัย สำหรับพวกเขา ไอเดียนี้สมบูรณ์แบบพอๆ กับพายแอปเปิล ไม่มีใครสามารถหักล้างประโยชน์ของการเรียกร้องความปลอดภัยหรือคำเตือนที่เกี่ยวข้องกับ AI ได้อย่างจริงจัง แต่แน่นอน นั่นไม่ใช่วิธีคิดในโลกแห่งความเป็นจริงเกี่ยวกับเรื่องนี้

คุณยังสามารถไปต่อและอ้างว่าข้อความเตือนของ AI สามารถสร้างรูปแบบของฮิสทีเรียได้ หากจู่ๆ เราบังคับให้ระบบ AI มีข้อความดังกล่าว ผู้คนอาจเข้าใจผิดเกี่ยวกับเจตนา คุณเห็นไหมว่ามีคำแนะนำมากมายที่เรากำลังเผชิญกับวิกฤตอัตถิภาวนิยมของ AI โดยที่ AI จะเข้ายึดครองโลกและกวาดล้างมนุษยชาติ ดู ลิงค์ที่นี่ สำหรับการวิเคราะห์การเรียกร้องประเภทดังกล่าวของฉัน

การใช้ข้อความเตือน AI อาจ "สร้างแรงบันดาลใจ" ให้บางคนเชื่อว่าจุดจบใกล้เข้ามาแล้ว เหตุใดข้อความอื่นจึงปรากฏขึ้นในขณะนี้ แน่นอนว่ามันเป็นเครื่องบ่งชี้ว่าในที่สุด AI ก็พร้อมที่จะกลายเป็นผู้กดขี่ข่มเหงของเรา

ผลลัพธ์ที่เยือกเย็นอย่างสิ้นหวังจากการพยายามทำสิ่งที่ถูกต้องโดยทำให้สาธารณชนตระหนักถึงวิธีที่ AI สามารถผสมผสานกับความสามารถที่เลือกปฏิบัติหรืออื่น ๆ AI สำหรับไม่ดี ด้าน

สรุป

เจมส์ รัสเซลล์ โลเวลล์ กวีชาวอเมริกันผู้โด่งดังเคยกล่าวไว้ว่า: “ประสบการณ์เพียงหนามเดียวก็คุ้มค่าแก่การเตือนในถิ่นทุรกันดาร”

ฉันนำคำพูดอันสูงส่งเพื่อแสดงความคิดเห็นสรุปเกี่ยวกับคำเตือนของ AI หรือข้อความด้านความปลอดภัย

โอกาสคือจนกว่าเราจะมีการรับรู้อย่างกว้างขวางว่า AI ทำสิ่งที่ไม่ดีจะไม่มีเสียงโห่ร้องสำหรับข้อความเตือนที่เกี่ยวข้องกับ AI ผู้ผลิต AI เหล่านั้นที่เลือกที่จะทำเช่นนั้นโดยสมัครใจอาจจะได้รับการยกย่อง แม้ว่าพวกเขาจะพบว่าตัวเองถูกคุกคามโดยไม่ได้ตั้งใจก็ตาม ผู้เชี่ยวชาญบางคนอาจไล่ตามพวกเขาเพื่อใช้ประโยชน์จาก AI ที่ดูเหมือนต้องการคำเตือน ในขณะเดียวกันก็ละเลยที่จะตระหนักว่าพวกเขากำลังพยายามไปก่อนและผู้ผลิต AI รายอื่นทั้งหมดล้าหลัง

ถูกสาปถ้าคุณทำ อาจจะไม่ถูกสาปถ้าคุณไม่ทำ

การพิจารณาอีกประการหนึ่งเกี่ยวข้องกับการเปลี่ยนสิ่งที่ดูเหมือนจะเป็นแนวคิดเชิงแนวคิดที่ดีให้กลายเป็นแนวทางปฏิบัติที่เป็นประโยชน์และเป็นประโยชน์ มันง่ายที่จะโบกมือและตะโกนบอกสายลมว่า AI ควรมีข้อความเตือนและความปลอดภัย ส่วนที่ยากคือการตัดสินใจว่าข้อความเหล่านั้นควรเป็นอย่างไร เมื่อใดและที่ใดควรนำเสนอ ต้นทุนของข้อความเหล่านั้นจะทำให้เกิดประโยชน์เพียงพอหรือไม่ เป็นต้น

เราจะให้คำสุดท้ายแก่ James Russell Lowell ในหัวข้อนี้ในตอนนี้: “ความคิดสร้างสรรค์ไม่ใช่การค้นหาสิ่งใดสิ่งหนึ่ง แต่เป็นการสร้างบางสิ่งออกมาหลังจากที่ค้นพบแล้ว”

เดาว่าถึงเวลาแล้วที่จะพับแขนเสื้อของเราและลงมือทำสิ่งนี้ และนั่นไม่ใช่แค่การเตือน แต่เป็นการกระทำ

ที่มา: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- alerts-on-all-existing-and-future-ai/