YouTube และ Twitter ควรรับผิดชอบต่อเนื้อหาที่เป็นอันตรายมากกว่านี้หรือไม่ ศาลฎีกาพิจารณานักวิจารณ์ด้านเทคนิค

ท็อปไลน์

ศาลสูงสุดพิจารณาว่าแพลตฟอร์มสื่อสังคมออนไลน์หลักๆ ที่มีความรับผิดชอบ เช่น Twitter, Facebook, YouTube โดยเฉพาะนั้นเป็นอย่างไรสำหรับโพสต์ที่อันตรายที่สุด ท้าทายการปกป้องในวงกว้างที่บริษัทเทคโนโลยีอ้างว่าจำเป็นเพื่อป้องกันไม่ให้อินเทอร์เน็ตกลายเป็นดินแดนรกร้างว่างเปล่า แต่นักวิจารณ์อ้างว่า ไปไกลเกินไป

ข้อเท็จจริงที่สำคัญ

ศาลฎีกา จะได้ยิน การโต้แย้งด้วยปากเปล่าในวันจันทร์ในกรณี (กอนซาเลซกับกูเกิล) ที่สมาชิกในครอบครัวของเหยื่อในการโจมตีของผู้ก่อการร้ายในปารีสปี 2015 ฟ้องกูเกิล โดยกล่าวหาว่า YouTube (บริษัทกูเกิล) ควรรับผิดหลังจากอัลกอริทึมแนะนำวิดีโอการรับสมัครของ ISIS ให้กับผู้สนับสนุนที่มีศักยภาพ และ ฟังข้อโต้แย้งในวันพุธที่ Twitter v. Taamneh ซึ่งมีเป้าหมายคล้ายกันกับบริษัทโซเชียลมีเดียเกี่ยวกับบทบาทของพวกเขาในการโจมตีของผู้ก่อการร้ายในปี 2017 ในตุรกี

กรณีแรกท้าทายว่า YouTube จะรับผิดชอบต่อคำแนะนำที่ให้ไว้หรือไม่ 230 มาตรา Communications Decency Act ปี 1996 ซึ่งปกป้องแพลตฟอร์มโซเชียลมีเดียและบริษัทอินเทอร์เน็ตอื่น ๆ จากความรับผิดทางกฎหมาย โดยระบุว่าพวกเขาไม่มีส่วนรับผิดชอบตามกฎหมายต่อเนื้อหาของบุคคลที่สามที่โพสต์บนแพลตฟอร์มของตน

แพลตฟอร์มเทคโนโลยีรวมถึง Google, Meta, Twitter, Microsoft, Yelp, Reddit, Craigslist, Wikipedia และอื่น ๆ ได้โต้แย้งในการยื่นฟ้องว่าคำตัดสินของศาลที่ระบุว่า YouTube สามารถรับผิดได้จะส่งผลร้ายแรง ส่งผลให้แพลตฟอร์มออนไลน์จำกัดเนื้อหาที่อาจเป็นไปได้ในวงกว้าง ถูกพิจารณาว่าไม่ชอบด้วยกฎหมาย—หรือใช้แนวทางตรงกันข้ามและปล่อยทุกอย่างไว้โดยไม่มีการกรองเนื้อหาที่เป็นปัญหาอย่างชัดเจน

กลุ่มผู้สนับสนุนการแก้ไขครั้งแรก ซึ่งรวมถึง ACLU และ Knight Foundation ได้เตือนว่าข้อจำกัดดังกล่าวอาจทำให้การพูดไม่ติดขัด และหากแพลตฟอร์มเทคโนโลยีถูกบังคับให้กำจัดอัลกอริธึมคำแนะนำ Google แย้งว่าอินเทอร์เน็ตอาจกลายเป็น

กรณีของ Twitter ซึ่งรวมถึง Facebook และ Google ไม่เกี่ยวกับมาตรา 230 แต่ถามว่าบริษัทโซเชียลมีเดียสามารถรับผิดชอบภายใต้พระราชบัญญัติต่อต้านการก่อการร้ายหรือไม่ ซึ่งอนุญาตให้มีการฟ้องร้องใครก็ตามที่ “ช่วยเหลือและสนับสนุน” การกระทำดังกล่าว การก่อการร้ายระหว่างประเทศ

หลังจากศาลชั้นต้นพบว่า แค่รู้ว่าผู้ก่อการร้ายอยู่ในกลุ่มผู้ใช้ของบริษัทก็เพียงพอแล้วสำหรับการฟ้องร้อง Twitter แย้งว่าคำตัดสินดังกล่าวจะส่งผลให้เกิด “ความรับผิดในวงกว้างโดยเฉพาะ” สำหรับบริษัทสื่อสังคมออนไลน์ และ Facebook และ Google เสนอว่าอาจยืดเวลาออกไป ถึงองค์กรอื่น ๆ ที่อาจต้องทำงานโดยทางอ้อมกับผู้ก่อการร้าย รวมถึงกลุ่มมนุษยธรรมที่ทำงานภาคพื้นดินในประเทศต่าง ๆ เช่น ซีเรีย

หัวหน้านักวิจารณ์

โจทก์ที่ฟ้อง Google ปฏิเสธคำทำนายที่เลวร้ายของบริษัทเทคโนโลยีในก สั้น ต่อศาลโดยโต้แย้งว่ากว้างเกินไปและ "ส่วนใหญ่ไม่เกี่ยวข้องกับประเด็นเฉพาะ" ในคดีนี้ “การคาดคะเนว่าคำตัดสินของศาลนี้จะส่งผลร้ายแรงนั้นทำได้ง่าย แต่มักจะประเมินได้ยาก” ผู้ยื่นคำร้องแย้ง โดยสังเกตว่าในขณะที่บริษัทสื่อสังคมออนไลน์ยังคงมีมาตรการป้องกันทางกฎหมายอื่นๆ เพื่อปกป้องพวกเขา เช่น การแก้ไขครั้งแรก มี “ปฏิเสธไม่ได้ว่าเนื้อหาที่ได้รับการโปรโมตบนเว็บไซต์โซเชียลมีเดียก่อให้เกิดอันตรายร้ายแรง”

ในทางตรงกันข้าม

ฝ่ายบริหารของไบเดนมี ที่ถกเถียงกันอยู่ ศาลฎีกาควรจำกัดขอบเขตของมาตรา 230 ให้แคบลงเพื่อให้มีความเป็นไปได้มากขึ้นในการฟ้องแพลตฟอร์มสื่อสังคมออนไลน์ โดยเตือนไม่ให้มี "การอ่านกว้างเกินไป" ของกฎหมายที่อาจ "บ่อนทำลายความสำคัญของกฎเกณฑ์อื่นๆ ของรัฐบาลกลาง" ทำเนียบขาวแย้งว่ามาตรา 230 ไม่ได้ปกป้อง YouTube จากการฟ้องร้องเกี่ยวกับคำแนะนำที่เป็นอันตรายซึ่งอัลกอริทึมจัดทำขึ้น เนื่องจากคำแนะนำนั้นสร้างโดยบริษัทและไม่ใช่เนื้อหาจากบุคคลที่สาม ผู้สนับสนุนของโจทก์ก็ได้ ข้อเสนอแนะ การพิจารณาคดีของ Google สามารถช่วยให้แพลตฟอร์มโซเชียลมีเดียล้างอัลกอริทึมที่ส่งผลให้เกิดคำแนะนำที่เป็นอันตรายต่อผู้เยาว์ได้ด้วยศูนย์ข้อมูลความเป็นส่วนตัวทางอิเล็กทรอนิกส์ การโต้เถียง บริษัทโซเชียลมีเดียใช้ประโยชน์จากลักษณะทั่วไปของมาตรา 230 และ "ใช้มาตรา 230 เป็นเกราะกำบังแทนที่จะทำให้ผลิตภัณฑ์ของตนปลอดภัยยิ่งขึ้น"

ใบเสนอราคาที่สำคัญ

“การปฏิเสธการคุ้มครองมาตรา 230(c)(1) ต่อการแสดงคำแนะนำของ YouTube อาจส่งผลกระทบร้ายแรงต่อศาล” Google โต้แย้งต่อศาลในช่วงสั้นๆ โดยให้เหตุผลว่าการยกเลิกมาตรา 230 “จะเป็นการยกระดับอินเทอร์เน็ตและส่งเสริมการปราบปรามในวงกว้างในทางที่ผิด คำพูดและการแพร่กระจายของคำพูดที่น่ารังเกียจมากขึ้น”

สิ่งที่ต้องระวัง

การพิจารณาคดีในทั้งสองกรณีจะเกิดขึ้นเมื่อสิ้นสุดวาระของศาลฎีกาในปลายเดือนมิถุนายนหรือต้นเดือนกรกฎาคม นอกจากนี้ยังเป็นไปได้ที่ศาลจะไม่ออกคำวินิจฉัยที่ครอบคลุมเมื่อบริษัทสื่อสังคมออนไลน์ต้องรับผิดตามมาตรา 230: Google โต้เถียงหากศาลตัดสินคดี Twitter โดยบอกว่าครอบครัวของเหยื่อไม่มีเหตุที่จะฟ้อง ก็ให้ยกฟ้องคดี Google ด้วยสาเหตุเดียวกัน โดยไม่เข้า มาตรา 230 เลย

พื้นหลังที่สำคัญ

คดีของ Google มาถึงศาลฎีกาหลังจากศาลชั้นต้นและศาลอุทธรณ์ต่างเข้าข้างแพลตฟอร์มโซเชียลมีเดีย โดยตัดสินว่าแพลตฟอร์มดังกล่าวได้รับการคุ้มครองตามมาตรา 230 และไม่สามารถฟ้องร้องได้ คดีนี้ได้รับการพิจารณาร่วมกับคดี Twitter ต่อหน้าศาลอุทธรณ์รอบที่เก้า แต่ศาลอุทธรณ์ตัดสินแพลตฟอร์มโซเชียลมีเดียในคดี Twitter โดยถือว่า Twitter, Facebook และ Google ล้วนต้องรับผิดตามกฎหมายต่อต้านการก่อการร้ายด้วยซ้ำ เนื่องจากยึดถือความคุ้มครองของมาตรา 230 แยกต่างหาก คดีเกี่ยวกับโซเชียลมีเดียมาถึงศาลสูงสุด เนื่องจากอำนาจที่เพิ่มขึ้นของ Big Tech และความล้มเหลวของแพลตฟอร์มต่างๆ ในการกลั่นกรองเนื้อหาที่เป็นอันตรายได้สำเร็จ ได้ถูกวิจารณ์จากทั้งสองฝ่ายของช่องทางเดินทางการเมือง และศาลฎีกาก็รับฟ้องคดีหลังจากผู้พิพากษาที่เอนเอียงไปทางอนุรักษ์นิยม Clarence Thomas แนะนำว่าศาลควร พิจารณา ประเด็นมาตรา 230.

แทนเจนต์

ฝ่ายนิติบัญญัติของพรรครีพับลิกันโดยเฉพาะ ตั้งเป้า ที่มาตรา 230 และพยายามที่จะทำให้บริษัทสื่อสังคมออนไลน์มีความรับผิดชอบตามกฎหมายมากขึ้น เนื่องจากพวกเขากล่าวหาบริษัทสื่อสังคมออนไลน์ว่าใช้คำพูดของพวกอนุรักษ์นิยมที่เยือกเย็น Sen. Ted Cruz (R-Texas) นำสมาชิกสภานิติบัญญัติ GOP 11 คนยื่นคำร้อง สั้น การโต้แย้งให้ศาลฎีกาจำกัดขอบเขตของมาตรา 230 การโต้แย้งบริษัทสื่อสังคมออนไลน์ได้ใช้การตีความกฎหมายอย่างกว้างๆ เพื่อ “[ไม่] อายที่จะจำกัดการเข้าถึงและลบเนื้อหาโดยอิงจากการเมืองของผู้พูด”

อ่านเพิ่มเติม

ศาลฎีกาเพื่อพิจารณาว่าบริษัทเทคโนโลยี—เช่น Google, Twitter—สามารถรับผิดชอบต่อการแนะนำเนื้อหาได้หรือไม่ (Forbes)

ทุกสิ่งที่คุณต้องรู้เกี่ยวกับมาตรา 230 (หมิ่น)

26 คำเหล่านี้ 'สร้างอินเทอร์เน็ต' ตอนนี้ศาลฎีกาอาจจะมาสำหรับพวกเขา (CNN)

ที่มา: https://www.forbes.com/sites/alisondurkee/2023/02/20/sould-youtube-twitter-be-more-responsible-for-dangerous-content-supreme-court-considers-tech-critics/