วุฒิสมาชิกถาม Meta CEO Zuckerberg เกี่ยวกับ LLaMA AI Model “รั่วไหล”

วุฒิสมาชิก XNUMX คนถาม Zuckerberg เกี่ยวกับการรั่วไหลของ LLaMA AI Model และกล่าวหาว่าเมตาไม่ปฏิบัติตามมาตรการรักษาความปลอดภัย Meta ถูกตั้งคำถามเกี่ยวกับนโยบายความปลอดภัยและมาตรการป้องกัน

Meta จะรับผิดชอบต่อ "การรั่วไหล"

เมื่อเร็ว ๆ นี้ โมเดลภาษาขนาดใหญ่ที่ก้าวล้ำของ Meta อย่าง LLaMA ได้รั่วไหลออกมาและเกิดความกังวลเกี่ยวกับสิ่งเดียวกัน Sen. Richard Blumenthal (D-CT) ประธานคณะอนุกรรมการด้านความเป็นส่วนตัว เทคโนโลยี & กฎหมายของวุฒิสภา และ Josh Hawley (R-MO) สมาชิกระดับสูงได้เขียนจดหมายที่ตั้งคำถามเกี่ยวกับการรั่วไหลของ AI Model 

สมาชิกวุฒิสภากลัวว่าการรั่วไหลนี้อาจนำไปสู่อาชญากรรมทางไซเบอร์ต่างๆ เช่น สแปม การฉ้อฉล มัลแวร์ การละเมิดความเป็นส่วนตัว การคุกคาม และการกระทำผิดและอันตรายอื่นๆ มีคำถามมากมายเกิดขึ้นและนักการเมืองสองคนสนใจระบบความปลอดภัยของ Meta อย่างลึกซึ้ง พวกเขาถามว่าต้องปฏิบัติตามขั้นตอนใดเพื่อประเมินความเสี่ยงก่อนเปิดตัว LLaMA พวกเขากล่าวว่าพวกเขามีความกระตือรือร้นที่จะเข้าใจนโยบายและแนวทางปฏิบัติที่มีอยู่เพื่อป้องกันการละเมิดโมเดลเมื่อพร้อมใช้งาน

จากการตอบคำถามของ Meta วุฒิสมาชิกกล่าวหาว่า Meta มีการเซ็นเซอร์ที่ไม่เหมาะสมและไม่มีมาตรการรักษาความปลอดภัยเพียงพอสำหรับโมเดล ChatGPT ของ Open AI ปฏิเสธคำขอบางส่วนตามจริยธรรมและหลักเกณฑ์ ตัวอย่างเช่น เมื่อ ChatGPT ถูกขอให้เขียนจดหมายในนามของลูกชายของใครบางคนและขอเงินเพื่อออกจากสถานการณ์ที่ยากลำบาก ก็จะปฏิเสธคำขอนั้น ในทางกลับกัน LLaMA จะทำตามคำขอและสร้างจดหมาย นอกจากนี้ยังจะทำตามคำขอที่เกี่ยวข้องกับการทำร้ายตนเอง อาชญากรรม และการต่อต้านชาวยิว

สิ่งสำคัญคือต้องเข้าใจคุณสมบัติที่หลากหลายและเป็นเอกลักษณ์ของ LLaMA ไม่เพียงแค่แตกต่าง แต่ยังเป็นหนึ่งในโมเดลภาษาขนาดใหญ่ที่กว้างขวางที่สุดจนถึงปัจจุบัน เกือบทุก LLM ที่ไม่ถูกตรวจซึ่งเป็นที่นิยมในปัจจุบันมีพื้นฐานมาจาก LLaMA มีความซับซ้อนและแม่นยำสูงสำหรับโมเดลโอเพ่นซอร์ส ตัวอย่างของ LLM ที่ใช้ LLaMA เช่น Alpaca, Vicuna ของ Stanford เป็นต้น LLaMA มีบทบาทสำคัญในการทำให้ LLM เป็นอย่างที่เป็นอยู่ทุกวันนี้ LLaMA รับผิดชอบในการพัฒนาแชทบอทที่มียูทิลิตี้ต่ำไปจนถึงโหมดที่ปรับแต่งอย่างละเอียด

LLaMA เปิดตัวในเดือนกุมภาพันธ์ ตามที่วุฒิสมาชิก Meta อนุญาตให้นักวิจัยดาวน์โหลดโมเดล แต่ไม่ได้ใช้มาตรการรักษาความปลอดภัย เช่น การรวมศูนย์หรือการจำกัดการเข้าถึง การโต้เถียงเกิดขึ้นเมื่อโมเดล LLaMA ที่สมบูรณ์ปรากฏบน BitTorrent สิ่งนี้ทำให้ทุกคนและทุกคนสามารถเข้าถึงโมเดลได้ สิ่งนี้นำไปสู่การประนีประนอมในคุณภาพของโมเดล AI และทำให้เกิดปัญหาในการใช้งานในทางที่ผิด 

ในตอนแรกวุฒิสมาชิกไม่แน่ใจด้วยซ้ำว่ามี "การรั่วไหล" หรือไม่ แต่ปัญหาเกิดขึ้นเมื่ออินเทอร์เน็ตเต็มไปด้วยการพัฒนา AI ที่เปิดตัวโดยสตาร์ทอัพ กลุ่ม และนักวิชาการ จดหมายระบุว่า Meta จะต้องรับผิดชอบต่อการใช้ LLaMA ในทางที่ผิด และต้องได้รับการดูแลป้องกันขั้นต่ำก่อนที่จะเผยแพร่

Meta ทำให้น้ำหนักของ LLaMA พร้อมใช้งานสำหรับนักวิจัย น่าเสียดายที่น้ำหนักเหล่านี้รั่วไหลออกมา ซึ่งทำให้เข้าถึงได้ทั่วโลกเป็นครั้งแรก

กระทู้ล่าสุด โดย Ritika Sharma (ดูทั้งหมด)

ที่มา: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/