FBI เตือนกลโกงการกรรโชก AI Deepfake

ความสามารถของ AI กำเนิดในการสร้างภาพที่เหมือนจริงนั้นน่าประทับใจ แต่สำนักงานสืบสวนกลางแห่งสหรัฐอเมริการะบุว่าอาชญากรกำลังใช้ Deepfakes เพื่อกำหนดเป้าหมายเหยื่อเพื่อขู่กรรโชก

“เอฟบีไอยังคงได้รับรายงานจากผู้ที่ตกเป็นเหยื่อ ซึ่งรวมถึงเด็กเล็กและผู้ใหญ่ที่ไม่ยินยอม ซึ่งรูปภาพหรือวิดีโอถูกดัดแปลงเป็นเนื้อหาที่โจ่งแจ้ง” หน่วยงานดังกล่าวระบุในการแจ้งเตือนของ PSA เมื่อวันจันทร์

เอฟบีไอกล่าวว่าหน่วยงานบังคับใช้กฎหมายได้รับรายงานมากกว่า 7,000 ฉบับเมื่อปีที่แล้วเกี่ยวกับการขู่กรรโชกทางออนไลน์ที่มุ่งเป้าไปที่ผู้เยาว์ โดยมีผู้ที่ตกเป็นเหยื่อของสิ่งที่เรียกว่า “การหลอกลวงทางเพศ” โดยใช้ Deepfake เพิ่มขึ้นตั้งแต่เดือนเมษายน

Deepfake เป็นประเภทเนื้อหาวิดีโอหรือเสียงที่พบได้บ่อยมากขึ้นซึ่งสร้างขึ้นด้วยปัญญาประดิษฐ์ซึ่งแสดงให้เห็นเหตุการณ์เท็จที่แยกแยะได้ยากขึ้นว่าเป็นของปลอม ต้องขอบคุณแพลตฟอร์ม AI กำเนิด เช่น Midjourney 5.1 และ DALL-E 2 ของ OpenAI

ในเดือนพฤษภาคม Elon Musk CEO ของ Tesla และ Twitter ที่ทำขึ้นเพื่อหลอกลวงนักลงทุน crypto กลายเป็นไวรัล วิดีโอที่แชร์บนโซเชียลมีเดียมีฟุตเทจของ Musk จากการสัมภาษณ์ครั้งก่อน ซึ่งตัดต่อให้เหมาะกับกลโกง

Deepfakes นั้นไม่ได้มุ่งร้ายไปซะหมด การ Deepfakes ของสมเด็จพระสันตะปาปาฟรานซิสที่สวมแจ็กเก็ต Balenciaga สีขาวกลายเป็นไวรัลเมื่อต้นปีนี้ และไม่นานมานี้ Deepfakes ที่สร้างโดย AI ยังถูกนำมาใช้เพื่อทำให้เหยื่อการฆาตกรรมฟื้นคืนชีพ

ในคำแนะนำ FBI เตือนไม่ให้จ่ายค่าไถ่ใด ๆ เพราะการทำเช่นนั้นไม่ได้รับประกันว่าอาชญากรจะไม่โพสต์ Deepfake ต่อไป

เอฟบีไอยังแนะนำด้วยความระมัดระวังเมื่อแบ่งปันข้อมูลส่วนตัวและเนื้อหาออนไลน์ รวมถึงการใช้ฟีเจอร์ความเป็นส่วนตัว เช่น การทำให้บัญชีเป็นส่วนตัว เฝ้าติดตามกิจกรรมออนไลน์ของเด็กๆ และเฝ้าดูพฤติกรรมที่ผิดปกติจากคนที่คุณเคยมีปฏิสัมพันธ์ด้วยในอดีต หน่วยงานยังแนะนำให้ทำการค้นหาข้อมูลส่วนตัวและสมาชิกในครอบครัวทางออนไลน์บ่อยๆ

หน่วยงานอื่นๆ ที่ส่งสัญญาณเตือน ได้แก่ คณะกรรมาธิการการค้าแห่งสหพันธรัฐสหรัฐฯ ซึ่งเตือนว่าอาชญากรใช้ Deepfake เพื่อหลอกลวงเหยื่อที่ไม่สงสัยให้ส่งเงิน หลังจากสร้างเสียง Deepfake ของเพื่อนหรือสมาชิกในครอบครัวที่ระบุว่าพวกเขาถูกลักพาตัว

“ปัญญาประดิษฐ์ไม่ใช่แนวคิดที่ห่างไกลจากภาพยนตร์ไซไฟอีกต่อไป เรากำลังอยู่กับมันที่นี่และเดี๋ยวนี้ สแกมเมอร์สามารถใช้ AI เพื่อโคลนเสียงของคนที่คุณรักได้” FTC กล่าวในการแจ้งเตือนผู้บริโภคเมื่อเดือนมีนาคม พร้อมเสริมว่าความต้องการของอาชญากรทั้งหมดคือคลิปเสียงสั้นๆ ของสมาชิกในครอบครัวเพื่อให้เสียงที่บันทึกเป็นจริง

FBI ยังไม่ได้ตอบกลับ ถอดรหัสของ ขอความคิดเห็น

ติดตามข่าวสาร crypto รับการอัปเดตทุกวันในกล่องจดหมายของคุณ

ที่มา: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams