Microsoft ปรับปรุงความปลอดภัยของ AI Chatbot เพื่อขัดขวางมิจฉาชีพ

Microsoft Corp ได้เพิ่มคุณลักษณะด้านความปลอดภัยจำนวนหนึ่งใน Azure AI Studio ซึ่งเมื่อเวลาผ่านไป ควรจะลดโอกาสที่ผู้ใช้จะกำหนดค่าโมเดล AI ในโหมดที่จะทำให้พวกเขาทำงานผิดปกติหรือไม่เหมาะสมต่อไป บริษัทเทคโนโลยีข้ามชาติที่ตั้งอยู่ใน Redmond วอชิงตันสรุปการปรับปรุงในบล็อกโพสต์ โดยเน้นการรับประกันความสมบูรณ์ของการโต้ตอบของ AI และเสริมสร้างความไว้วางใจในฐานผู้ใช้

โล่พร้อมท์และอื่น ๆ 

การพัฒนาที่สำคัญอย่างหนึ่งคือการสร้าง "prompt shields" ซึ่งเป็นเทคโนโลยีที่ออกแบบมาเพื่อค้นหาและกำจัดการฉีด prompt ในขณะที่สนทนากับแชทบอท AI สิ่งเหล่านี้เรียกว่าการเจลเบรก และโดยพื้นฐานแล้วเป็นอินพุตจากผู้ใช้ที่มีเจตนาที่จะสร้างในลักษณะที่กระตุ้นให้เกิดการตอบสนองที่ไม่ต้องการจากโมเดล AI

ตัวอย่างเช่น Microsoft กำลังมีส่วนร่วมทางอ้อมด้วยการฉีดคำสั่งทันที ซึ่งการดำเนินการตามคำสั่งที่ชั่วร้ายเป็นไปได้ และสถานการณ์เช่นนั้นอาจนำไปสู่ผลกระทบด้านความปลอดภัยที่รุนแรง เช่น การโจรกรรมข้อมูล และการไฮแจ็กระบบ กลไกเหล่านี้เป็นกุญแจสำคัญในการตรวจจับและตอบสนองต่อภัยคุกคามที่ไม่ซ้ำใครเหล่านี้ในแบบเรียลไทม์ ตามที่ Sarah Bird ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ด้าน AI ที่รับผิดชอบของ Microsoft กล่าว

ไมโครซอฟต์เสริมว่าเร็วๆ นี้จะมีการแจ้งเตือนบนหน้าจอของผู้ใช้ ซึ่งจะแจ้งเตือนเมื่อโมเดลมีแนวโน้มที่จะแสดงข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิด เพื่อให้มั่นใจว่าผู้ใช้จะเป็นมิตรและไว้วางใจได้มากขึ้น

สร้างความน่าเชื่อถือในเครื่องมือ AI 

ความพยายามของ Microsoft เป็นส่วนหนึ่งของโครงการริเริ่มที่ยิ่งใหญ่กว่า ซึ่งมีจุดมุ่งหมายเพื่อให้ผู้คนมีความมั่นใจใน AI เจนเนอเรชั่นที่ได้รับความนิยมมากขึ้นเรื่อยๆ ซึ่งกำลังถูกนำไปใช้อย่างกว้างขวางในบริการที่กำหนดเป้าหมายไปที่ผู้บริโภครายบุคคลและลูกค้าองค์กร Microsoft ดำเนินการอย่างดีหลังจากเกิดเหตุการณ์ดังกล่าว โดยที่ผู้ใช้มีความสามารถในการเล่นเกมแชทบอท Copilot ให้สร้างผลลัพธ์ที่แปลกประหลาดหรือเป็นอันตราย สิ่งนี้จะสนับสนุนผลลัพธ์ที่แสดงให้เห็นถึงความจำเป็นในการป้องกันที่แข็งแกร่งต่อกลวิธีบิดเบือนดังกล่าว ซึ่งมีแนวโน้มเพิ่มขึ้นด้วยเทคโนโลยี AI และความรู้ยอดนิยม การคาดการณ์และการบรรเทาผลกระทบถือเป็นการรับรู้ถึงรูปแบบการโจมตี เช่น การที่ผู้โจมตีตั้งคำถามซ้ำๆ หรือกระตุ้นให้แสดงบทบาทสมมติ

ในฐานะนักลงทุนและหุ้นส่วนเชิงกลยุทธ์รายใหญ่ที่สุดของ OpenAI Microsoft กำลังผลักดันขอบเขตของวิธีการรวมและสร้างเทคโนโลยี AI ที่สร้างความรับผิดชอบและปลอดภัย ทั้งสองมุ่งมั่นที่จะปรับใช้อย่างมีความรับผิดชอบและเป็นโมเดลพื้นฐานของ Generative AI สำหรับมาตรการด้านความปลอดภัย แต่ Bird ยอมรับว่าโมเดลภาษาขนาดใหญ่เหล่านี้ แม้ว่าจะถูกมองว่าเป็นรากฐานสำหรับนวัตกรรม AI ส่วนใหญ่ในอนาคต แต่ก็ไม่สามารถพิสูจน์ได้ว่ามีการบิดเบือน

การสร้างรากฐานเหล่านี้จะใช้เวลามากกว่าการพึ่งพาแบบจำลองเพียงอย่างเดียว จำเป็นต้องมีแนวทางที่ครอบคลุมด้านความปลอดภัยและการรักษาความปลอดภัยของ AI

Microsoft เพิ่งประกาศการเสริมสร้างมาตรการรักษาความปลอดภัยสำหรับ Azure AI Studio เพื่อแสดงและรับประกันขั้นตอนเชิงรุกที่กำลังดำเนินการเพื่อปกป้องภูมิทัศน์ภัยคุกคาม AI ที่เปลี่ยนแปลงไป

พยายามหลีกเลี่ยงการใช้ AI ในทางที่ผิดและรักษาความสมบูรณ์และความน่าเชื่อถือของการโต้ตอบของ AI โดยผสมผสานหน้าจอและการแจ้งเตือนที่ทันท่วงที

ด้วยการพัฒนาอย่างต่อเนื่องของเทคโนโลยี AI และการนำไปใช้ในชีวิตประจำวัน ถึงเวลาแล้วที่ Microsoft และชุมชน AI ที่เหลือจะต้องรักษาจุดยืนด้านความปลอดภัยอย่างระมัดระวัง

ที่มา: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/