ข้อโต้แย้งว่าเทสลา FSD จะวิ่งทับเด็กหรือเด็กหุ่นเชิดหรือไม่?

A วิดีโอล่าสุด จากเทสลาTSLA
- นักวิจารณ์ Dan O'Dowd แห่ง "Dawn Project" แสดงเส้นทางทดสอบด้วยถนนที่ทำจากกรวย ที่นั่น คนขับที่ใช้ต้นแบบ FSD ของเทสลาขับรถไปที่หุ่นจำลองการชนของเด็กและชนมัน เป็นที่ถกเถียงกันอยู่ว่า Telsa FSD ไม่สามารถเบรกสำหรับเด็กได้อย่างน่าเชื่อถือ นักวิจารณ์ของ O'Dowd กล่าวหาว่าวิดีโอดังกล่าวเป็นการแกล้งทำหรือสร้างมาไม่ดี และบางคนก็ทำการสาธิตของตนเอง รวมถึงทำการทดสอบกับเด็กๆ ที่เป็น "อาสาสมัคร" ที่มีชีวิตจริง มีเพียงไม่กี่คนที่คิดว่าต้นแบบอย่างเทสลา FSD ควรจะเบรกสำหรับเด็กได้อย่างน่าเชื่อถือหรือไม่ ซึ่งเป็นประเด็นที่น่าสนใจจริงๆ

O'Dowd เขียนบ่อยครั้งว่าเขาต้องการให้ Tesla FSD ถูกแบน ฉันครอบคลุมการรณรงค์ของเขาก่อนหน้านี้ และเมื่อเร็ว ๆ นี้เขาได้ลงสมัครรับการเสนอชื่อวุฒิสภาแคลิฟอร์เนียเพียงเพื่อเรียกใช้โฆษณาแคมเปญต่อต้านเทสลา FSD เขาได้ยกระดับความโกรธแค้นของ Elon Musk และชุมชนแกนนำโปรเทสลาอย่างเป็นธรรมชาติ ดังนั้นจึงมีการชกกันในทันที วิดีโอต้นฉบับที่ลิงก์ด้านบนไม่แสดงว่า FSD เปิดใช้งานอยู่ แม้ว่าการเปิดตัวในภายหลังจะแสดงให้เห็น บางคนแนะนำว่าภาพหน้าจอที่อ่านยากบอกว่าคนขับกำลังเหยียบคันเร่ง ข้อมูลอื่นๆ แสดงให้เห็นว่ารถกำลังวิ่งช้าลงหรือออกคำเตือน และมีการโต้เถียงกันไปมาว่าการสาธิตเป็นอย่างไร

โฆษณา

การสาธิตได้รับเลือกให้เป็นการยั่วยุ เพราะไม่มีอะไรน่ากลัวไปกว่ารถชนเด็ก เด็ก 3 คนเสียชีวิตในอุบัติเหตุรถชนทุกวันในสหรัฐอเมริกา และในแต่ละปีเด็กประมาณ 170 คนถูกรถยนต์ฆ่าตาย สำหรับหลาย ๆ คน ปฏิกิริยาก็คือไม่มีเทคโนโลยีใดที่จะเอาชนะเด็กได้ NHTHT
SA ได้เริ่มการสอบสวนเกี่ยวกับการปรับใช้ Tesla Autopilot (ซึ่งเป็นผลิตภัณฑ์ที่วางจำหน่าย) และเริ่มมองหาต้นแบบ FSD คนอื่น ๆ เช่น Ralph Nader ได้เรียกร้องให้นำต้นแบบ FSD ออกจากถนน หลังจากที่มีคนจำนวนน้อยมากที่ทำการทดสอบซ้ำกับเด็กจริง NHTSA ได้ออกคำเตือนว่าอย่าทำเช่นนี้ และ Youtube ได้ดึงวิดีโอของผู้ที่ทำการทดสอบดังกล่าว มีรายงานว่าเทสลาได้ขอให้ลบวิดีโอของรถของพวกเขาที่ชนกับหุ่นทดสอบด้วย เดอะวอชิงตันโพสต์รายงานว่าเห็นจดหมายหยุดและเลิกจ้างจากเทสลา

ปัญหานี้ซับซ้อนมาก และเนื่องจากไม่ใช่เรื่องผิดปกติเกินไป จึงไม่มีใครเข้าใจตรงกันว่าถูกต้อง ระบบ FSD แม้ว่าจะเรียกว่าเบต้า แต่เรียกว่าต้นแบบได้แม่นยำกว่า ต้นแบบที่ขับเคลื่อนด้วยตนเอง (และรุ่นเบต้า) จำเป็นต้องมีการทดสอบจำนวนมากบนท้องถนนในมุมมองของนักพัฒนาส่วนใหญ่ และทุกทีมทำเช่นนี้ โดยมี "ไดรเวอร์ด้านความปลอดภัย" ของมนุษย์คอยตรวจสอบระบบและเข้าแทรกแซงเป็นประจำเมื่อเกิดข้อผิดพลาดเพื่อป้องกันเหตุการณ์ เทสลาเป็นเรื่องผิดปกติที่อนุญาตให้ลูกค้าทั่วไปมีส่วนร่วมในการทดสอบนี้ ในขณะที่บริษัทอื่นๆ ทั้งหมดมีพนักงาน ซึ่งได้รับการฝึกอบรมในระดับหนึ่งเพื่อทำหน้าที่นี้ และโดยทั่วไปมีพนักงาน 2 คนต่อรถหนึ่งคัน

โดยธรรมชาติแล้ว ต้นแบบจะล้มเหลว รวมถึงสิ่งสำคัญ เช่น การหยุดสำหรับคนเดินถนน ทุกทีมตั้งแต่ที่เก่งที่สุดอย่าง Waymo ลงมาจนถึงทีมที่แย่ที่สุด ได้วางยานพาหนะไว้บนท้องถนน ซึ่งมักจะทำสิ่งที่เลวร้ายอยู่เป็นประจำ ยกเว้นการแทรกแซงและส่วนใหญ่รู้สึกว่าทำการทดสอบยานพาหนะในระยะเริ่มต้นดังกล่าวและยังคงมีความจำเป็นต่อความก้าวหน้าและปรับใช้รถยนต์ในที่สุด เมื่อปรับใช้แล้ว รถยนต์จะมีคุณภาพสูงขึ้นมากและช่วยชีวิตผู้คน — หลายคน — ดังนั้นทุกคนต้องการให้การติดตั้งใช้งานนั้นเกิดขึ้นโดยเร็วที่สุด แต่มีหลายประเด็นที่จะพูดถึงว่าเราไปถึงจุดนั้นได้อย่างไรและเมื่อเราไปถึง มัน.

โฆษณา

ระบบช่วยเหลือผู้ขับขี่เทียบกับการขับขี่ด้วยตนเอง

นอกเหนือจากคำถามที่ว่าการใช้ลูกค้าของเทสลาในการทดสอบต้นแบบเป็นความคิดที่ดีหรือไม่ ประเด็นมากมายเกี่ยวกับความแตกต่างระหว่างระบบช่วยเหลือผู้ขับขี่ ซึ่งเกี่ยวข้องกับมนุษย์ที่มีส่วนร่วมในการขับเคลื่อนอย่างเต็มที่ แต่ดูแลระบบมากกว่าการเคลื่อนไหวร่างกาย ระบบควบคุมและระบบขับเคลื่อนอัตโนมัติซึ่งไม่จำเป็นต้องมีมนุษย์ควบคุม (และแน่นอนว่ารถสามารถวิ่งได้โดยไม่มีใครอยู่ในนั้น)

คนวงในในอุตสาหกรรมหลายคนรู้สึกว่าสิ่งเหล่านี้เป็นสองสิ่งที่แตกต่างกันพอสมควร และเป็นข้อผิดพลาดสำหรับ NHTSA ที่จะประกาศว่าพวกเขาเป็นเพียง "ระดับ" ที่แตกต่างกันของเทคโนโลยีระบบอัตโนมัติ สเตอร์ลิง แอนเดอร์สัน ผู้ร่วมก่อตั้งระบบขับเคลื่อนอัตโนมัติ Aurora คิดว่าการเปลี่ยนจากระบบช่วยเหลือผู้ขับขี่ (หรือ ADAS สำหรับระบบช่วยเหลือผู้ขับขี่ขั้นสูง) ไปเป็นการขับรถด้วยตนเองก็เหมือนกับการพยายามไปถึงดวงจันทร์ด้วยการสร้างบันไดให้สูงขึ้น

ระบบช่วยเหลือผู้ขับขี่ขั้นสูงขนาดใหญ่ระบบแรกที่ให้คนเหยียบแป้นได้คือระบบควบคุมความเร็วอัตโนมัติ โดยเฉพาะอย่างยิ่งระบบควบคุมความเร็วอัตโนมัติแบบปรับได้ ต่อมา การดูแลเลนก็มาถึง ซึ่งให้คุณละมือจากพวงมาลัย และในไม่ช้า ทั้งสองก็ถูกรวมเข้าด้วยกันในผลิตภัณฑ์อย่าง "ออโตไพลอต" ของเทสลา เนื่องจากเครื่องมือ ADAS (driver Assist) สิ่งเหล่านี้มีไว้เพื่อใช้ด้วยความเอาใจใส่อย่างเต็มที่

โฆษณา

แม้ว่าจะไม่ใช่ทุกคนที่เชื่อในตอนแรก แต่ข้อสรุปทั่วไปในวันนี้คือระบบเหล่านี้ทำงานได้และไม่ก่อให้เกิดอันตรายบนท้องถนน ผู้คนยังสงสัยเกี่ยวกับระบบควบคุมความเร็วอัตโนมัติแบบพื้นฐานในตอนแรก แต่ในไม่ช้ามันก็กลายเป็นคุณสมบัติทั่วไปในรถยนต์

Tesla Autopilot ตั้งคำถามใหม่ด้วยเหตุผลหลายประการ แต่ประเด็นที่น่าสนใจที่สุดคือการทำงานที่เหนือกว่าผลิตภัณฑ์รุ่นก่อนๆ อย่างชัดเจน ซึ่งรวมถึงระบบควบคุมความเร็วอัตโนมัติที่ง่ายกว่า ทว่าความเหนือกว่านั้นอาจทำให้อันตรายมากขึ้น และทำให้ด้อยกว่าได้ ความขัดแย้งที่แปลกประหลาดเกิดขึ้นเมื่อระบบดีขึ้น ผลลัพธ์ก็อาจแย่ลง เนื่องจากระบบที่เหนือกว่าจะทำให้เกิด (บางคนยังเชื่อว่าชื่อ "Autopilot" และ FSD ของเทสลาสนับสนุนให้เกิดความพึงพอใจ และการส่งข้อความสาธารณะเกี่ยวกับผลิตภัณฑ์เหล่านี้ก็เช่นกัน)

นี่ไม่ใช่ความขัดแย้งที่ดีที่จะมี เราต้องการพัฒนาระบบให้ดีขึ้น แต่ถ้าระบบโดยรวมแย่ลงในขณะที่คุณทำให้ดีขึ้น ก็ยิ่งยากขึ้นมากที่จะได้ระบบที่ดีจริงๆ ในขณะที่คุณเดินทางผ่านหุบเขาอันตรายที่สิ่งต่างๆ จะแย่ลงก่อนที่จะดีขึ้น ทุกวันนี้ เราไม่เคยทำผิดกับระบบควบคุมความเร็วอัตโนมัติแบบมาตรฐานเพราะจะชนเด็กหรือฝ่าไฟแดง ระบบเหล่านั้นเรียบง่ายกว่ามาก และไม่มีความสามารถเลยที่จะหลีกเลี่ยงข้อผิดพลาดเหล่านั้น แต่หลายคนต้องการจับผิดระบบที่เหนือชั้นกว่ามากซึ่งจะหยุดเพื่อสิ่งกีดขวางส่วนใหญ่ เพราะมันไม่หยุดเพื่อ 100% แม้ว่าจะไม่มีระบบใดที่สมบูรณ์แบบพอที่จะหลีกเลี่ยงข้อผิดพลาดได้ 100% และแม้ว่ามนุษย์ก็จะไม่สมบูรณ์แบบเช่นกัน

โฆษณา

ฉันมีส่วนร่วมในการร่างกฎหมายการทดสอบการขับขี่ด้วยตนเองฉบับแรกของโลกในเนวาดาและแคลิฟอร์เนีย ผู้เล่นเห็นพ้องกันว่าควรมีกฎพื้นฐานเกี่ยวกับวิธีการทดสอบบนท้องถนน (กฎก่อนหน้านี้ไม่ได้ห้าม เนื่องจากไม่มีใครคิดจะทำอย่างนั้น) ในเวลาเดียวกัน ผู้ผลิตรถยนต์ที่ขายเครื่องมือ ADAS ก็ทำเช่นเดียวกัน ไม่ต้องการให้รถยนต์ ADAS ของตนอยู่ภายใต้ข้อบังคับการทดสอบการขับขี่ด้วยตนเอง ดังนั้น การทำงานของ ADAS จึงไม่ครอบคลุมอยู่ในข้อบังคับเหล่านั้น

โดยเฉพาะในแคลิฟอร์เนีย คำถามนี้ทำให้เกิดคำถามเปิดขึ้น การทดสอบการขับขี่ด้วยตนเองทั้งหมด (โดยมีข้อยกเว้นบางประการเมื่อเร็วๆ นี้) ดำเนินการโดยคนขับด้านความปลอดภัยที่ควบคุมดูแล ด้วยวิธีนี้มันเหมือนกับการขับรถ ADAS เป็นอย่างมาก กฎหมายไม่ชัดเจนเกี่ยวกับความแตกต่างที่สร้างสถานการณ์ที่น่าสนใจบางอย่าง แอนโธนี่ เลวานดอฟสกี้ ซึ่งมีส่วนร่วมในการร่างข้อบังคับด้วย ต่อมาเป็นหัวหน้าของ UberUBER
เอทีจี. เขาประกาศว่าเนื่องจากรถทุกคันในตอนนั้นทำงานด้วยคนขับที่ปลอดภัยเท่านั้น นี่คือ ADAS และ Uber ไม่จำเป็นต้องปฏิบัติตามกฎการทดสอบการขับขี่ด้วยตนเอง California DMV กล่าวว่าไม่มี ภายใต้ตรรกะนี้ไม่มีใครทดสอบการขับขี่ด้วยตนเอง และนั่นไม่ใช่เจตนาของกฎหมาย พวกเขาบอก Uber ว่าพวกเขาจำเป็นต้องลงทะเบียนเป็นรถทดสอบขับเอง มิฉะนั้นพวกเขาจะดึงป้ายทะเบียนรถ Uber โดยใช้พลังพิเศษของพวกเขา อูเบอร์ปฏิบัติตาม

โฆษณา

DMV ใช้แนวทางที่ว่า หากคุณกำลังพยายามสร้างระบบขับเคลื่อนอัตโนมัติ แม้ว่าระบบจะไม่สมบูรณ์แบบในช่วงแรกๆ ที่ต้องการการดูแลและได้รับการควบคุมดูแลอยู่เสมอ คุณก็ควรได้รับการพิจารณาให้เป็นบริษัททดสอบการขับขี่ด้วยตนเองซึ่งอยู่ภายใต้กฎเกณฑ์

อย่างไรก็ตาม เทสลายังคงใช้แนวทางเดิม เนื่องจากเทสลามีผลิตภัณฑ์ ADAS อย่างแน่นอน พวกเขาจึงไม่รายงานการทดสอบการขับขี่ด้วยตนเองต่อรัฐ จนถึงตอนนี้ DMV ปล่อยให้สไลด์นี้ แม้แต่การทดสอบ Tesla FSD โดยพนักงานของ Tesla ซึ่งยากมากที่จะแยกแยะกับสิ่งที่พวกเขาห้ามไม่ให้ Uber ทำ DMV อาจควบคุมสิ่งนี้ได้ดี แต่แล้วการใช้งานของลูกค้านั้นเป็นเครื่องมือช่วยไดรเวอร์อย่างเป็นทางการ (ถ้าคุณอ่านรายละเอียดและไม่สนใจชื่อ)

แต่ดูเหมือนว่าจะได้ผล

แนวทางแก้ไขหลักสำหรับเรื่องนี้คือวิธีการสร้างความมั่นใจว่าการกำกับดูแลจะยังคงอยู่ในระดับสูง มีเทคนิคต่างๆ สำหรับเรื่องนี้ รวมถึงการตรวจสอบผู้ขับขี่ในรูปแบบต่างๆ และการจู้จี้หากพวกเขาไม่สนใจ หรือตามที่ระบุไว้ว่ามีนักขับรถมืออาชีพที่ผ่านการฝึกอบรมมาแล้ว หรือแม้แต่ทีมที่มีสายตาหลายคู่อยู่บนท้องถนน เป็นเวลาหลายทศวรรษแล้วที่เราได้ฝึกอบรมนักขับวัยรุ่นในโรงเรียนสอนขับรถโดยมีครูฝึกที่สามารถจับล้อและมีเบรกของตัวเองเพื่อหยุดรถ และระบบนั้นก็ทำงานได้ดีมาก

โฆษณา

ข้อสรุปที่ชัดเจนจนถึงตอนนี้คือใช้งานได้ ประวัติความปลอดภัยของ บริษัท ที่ขับเคลื่อนด้วยตนเองรายใหญ่เช่น Waymo เป็นแบบอย่าง Waymo รายงานการทดสอบกับผู้ขับขี่ด้านความปลอดภัยกว่า 20 ล้านไมล์ในปี 2021 และในขณะนั้นอาจมีอุบัติเหตุ 2 ครั้ง โดยเฉลี่ยแล้ว มนุษย์จะประสบอุบัติเหตุเกือบ 40 ครั้งในช่วงเวลานั้น เช่นเดียวกับการขับรถของนักเรียนที่มีครูสอนขับรถยนต์ทำได้ดีกว่าผู้ขับขี่ที่ได้รับใบอนุญาตใหม่ ระบบตรวจสอบก็ทำงานได้อย่างชัดเจน และยานพาหนะเหล่านี้สร้างความเสี่ยงต่อสาธารณชนได้น้อยกว่าการขับรถที่คล้ายคลึงกันโดยคนทั่วไป

อย่างน้อยในสหรัฐอเมริกา ถ้าไม่มีผู้ได้รับบาดเจ็บ หรืออย่างน้อยที่สุด ถ้าระดับความเสี่ยงน้อยกว่าการขับรถปกติ กิจกรรมโดยทั่วไปจะไม่ได้รับการควบคุม แนวทางของสหรัฐฯ อนุญาตมากกว่ามาก — คุณไม่จำเป็นต้องพิสูจน์ว่าสิ่งที่คุณทำนั้นปลอดภัย แต่ถ้าปรากฏว่าไม่ปลอดภัย คุณอาจถูกหยุดและพบว่าต้องรับผิดชอบต่ออันตรายใดๆ ที่คุณก่อขึ้น บางประเทศอาจต้องการให้หน่วยงานกำกับดูแลตัดสินใจล่วงหน้าว่ามีบางสิ่งที่ปลอดภัยหรือไม่ ซึ่งสูงกว่าเกณฑ์มากซึ่งไม่เอื้อต่อการสร้างนวัตกรรมมากนัก

แน่นอน ในกรณีที่มีชื่อเสียงเรื่องหนึ่ง แนวทางของคนขับปลอดภัยเสียชีวิต เมื่อรถของ Uber ATG ฆ่าคนเดินถนนในรัฐแอริโซนา การสอบสวนของ NTSB และคดีในศาลในเวลาต่อมาพบว่าคนขับด้านความปลอดภัยนั้นประมาทเลินเล่อ (เธอกำลังดูทีวีแทนที่จะทำงาน) แม้ว่า Uber ก็ถูกตำหนิเนื่องจากมีวัฒนธรรมที่แย่ในการจัดการไดรเวอร์ด้านความปลอดภัยซึ่งมีส่วนทำให้เกิดข้อผิดพลาดนี้ อย่างไรก็ตาม ข้อสรุปที่สำคัญคือ ระบบขับขี่ปลอดภัยทำงานได้ไม่เสี่ยงต่อสาธารณะเกินควรแม้ว่าจะเห็นได้ชัดว่าเป็นไปได้ที่ผู้ขับขี่ด้านความปลอดภัยของมนุษย์จะประมาทเลินเล่อและก่อให้เกิดความเสี่ยงสูง

โฆษณา

นั่นคือระบบที่มีไดรเวอร์ที่ได้รับการฝึกอบรมผ่านการฝึกอบรม เทสลาก้าวต่อไปและมีลูกค้าธรรมดาทำหน้าที่นี้ มีหลายเหตุการณ์ที่ผู้ขับขี่ของ Tesla ละเลยอย่างชัดเจนในการดูแลผลิตภัณฑ์ Autopilot และเกิดปัญหาขึ้นรวมถึงเหตุการณ์ร้ายแรง อย่างไรก็ตาม รถยนต์ของเทสลาขับเคลื่อนด้วย Autopilot เป็นระยะทางหลายไมล์มากกว่าทีมที่ขับด้วยตนเอง ดังนั้นการมีอยู่ของเหตุการณ์เชิงลบและแม้แต่โศกนาฏกรรมจึงไม่จำเป็นต้องเป็นหลักฐานว่าระบบกำลังเปิดเผยต่อสาธารณชนในความเสี่ยงที่มากขึ้น

ในแต่ละไตรมาส Tesla เผยแพร่สถิติที่ทำให้เข้าใจผิดซึ่งระบุว่าผู้ขับขี่ที่ใช้ Autopilot มีประวัติด้านความปลอดภัยที่ดีกว่าผู้ที่ไม่มี แม้ว่าผู้ใช้ Autopilot บางรายจะประมาทเลินเล่อก็ตาม แม้ว่าตัวเลขเหล่านี้จะเท่ากับการโกหก ฉันและคนอื่นๆ พยายามทำวิศวกรรมย้อนกลับ ตัวเลขจริง และตัวเลขจริงก็ไม่ได้แย่ขนาดนั้น และแนะนำว่าผู้ใช้ Autopilot มีบันทึกความปลอดภัยที่คล้ายคลึงกับผู้ที่ไม่ใช่ผู้ใช้ แม้ว่าจะไม่เหนือกว่า แต่ก็ไม่ได้ทำให้ผู้คนมีความเสี่ยงเพิ่มเติม ผลลัพธ์นั้นใกล้เคียงพอที่ NHTSA กำลังดำเนินการสอบสวนอุบัติเหตุของ Tesla กับยานพาหนะฉุกเฉิน ไม่ทราบว่าพวกเขาจะใช้แนวทางป้องกันไว้ก่อนหรือดูบันทึกความปลอดภัยโดยรวมหรือไม่

หลายคนแนะนำว่าเทสลาสามารถปรับปรุงบันทึกของพวกเขาด้วยการตรวจสอบผู้ขับขี่ที่ดีขึ้น การตรวจสอบมาตรฐานต้องการเพียงให้ผู้ขับขี่ใช้กำลังกับล้อเป็นประจำ บริษัทอื่นๆ มีกล้องที่คอยดูสายตาของคนขับเพื่อให้แน่ใจว่าพวกเขากำลังเฝ้าดูถนน — หาก Uber ATG ทำเช่นนี้ พวกเขาจะป้องกันไม่ให้เสียชีวิตได้ เทสลาเพิ่งเริ่มใช้การตรวจสอบการจ้องมองของคนขับเช่นกัน

โฆษณา

ควรสังเกตว่าการคำนวณที่แสดงความปลอดภัยของ Tesla Autopilot เหมือนกับการขับรถปกตินั้นเป็นสิ่งที่มีประโยชน์ อันที่จริงแล้วเป็นการรวมกันของอัตราการเกิดอุบัติเหตุที่สูงขึ้นในกลุ่มผู้ใช้ Autopilot ที่ประมาทเลินเล่อซึ่งเพิกเฉยต่อท้องถนนหรือเข้าสู่ความอิ่มเอมของระบบอัตโนมัติ และบันทึกความปลอดภัยที่ดีขึ้นจากผู้ที่ขยันหมั่นเพียร เรามีช่วงเวลาที่ยากลำบากในเชิงปรัชญากับเรื่องนี้ เราไม่ชอบการทำให้คนบางคนมีความเสี่ยงสูงขึ้น แม้ว่าผู้คนจำนวนมากจะได้รับความเสี่ยงที่ลดลงก็ตาม เราไม่ชอบมันมากจนอาจกีดกันคนที่ขยันหมั่นเพียรจากเครื่องมือที่ทำให้พวกเขาปลอดภัยมากขึ้นในการปกป้องผู้ที่ประมาทเลินเล่อ แม้ว่านี่ไม่ใช่เป้าหมายของเรา

สิ่งที่เกี่ยวกับFSD

ข้อมูลข้างต้นเกี่ยวข้องกับ Autopilot ซึ่งเป็นผลิตภัณฑ์สำหรับการขนส่ง Tesla FSD ไม่ใช่ผลิตภัณฑ์สำหรับการขนส่ง พวกเขาเรียกมันว่า "เบต้า" (ซึ่งเป็นผลิตภัณฑ์เกือบขั้นสุดท้ายในขั้นตอนการทดสอบสุดท้ายก่อนวางจำหน่าย) แต่ก็ไม่เป็นเช่นนั้นเลย ตอนนี้พวกเขามีเจ้าของเทสลามากกว่า 100,000 รายที่ทดลองใช้งาน ในการใช้งาน เจ้าของจะต้องจ่ายค่าธรรมเนียม (ตอนนี้เพิ่มขึ้นเป็น 15,000 ดอลลาร์) เพื่อสั่งจองระบบ FSD ล่วงหน้าในที่สุด และผ่านการทดสอบการขับขี่อย่างปลอดภัยเพื่อเข้ากลุ่มทดสอบ การทดสอบการขับขี่อย่างปลอดภัยนั้นส่วนใหญ่เป็นการหลอกลวงและไม่ได้ทดสอบสิ่งที่คุณต้องการสำหรับงานนี้ แต่ก็ไม่ได้หมายความว่าทุกคนที่จ่ายเงินจะได้รับการทดสอบ

พวกเขาเตือนไดรเวอร์ว่าระบบมีข้อบกพร่องมากมายและต้องการการดูแลอย่างต่อเนื่องเช่น ADAS โดยกล่าวว่า "จะทำสิ่งผิดในเวลาที่เลวร้ายที่สุด" นั่นเป็นคำกล่าวที่ค่อนข้างชัดเจน แต่ในขณะเดียวกันชื่อ "การขับเคลื่อนด้วยตัวเองเต็มรูปแบบ" ก็ทำให้เกิดภาพที่แตกต่างจาก ADAS อย่างเห็นได้ชัด ฉันได้ขับเคลื่อนด้วยระบบนี้และตัดสินว่าประสิทธิภาพของระบบค่อนข้างแย่ในฐานะระบบขับเคลื่อนด้วยตัวเอง

โฆษณา

ถึงกระนั้น แม้จะมีสัญชาตญาณตรงกันข้าม วิธีการของเทสลาก็ดูเหมือนจะได้ผล ด้วยจำนวนผู้ขับขี่ 100,000 คน ระบบกำลังดำเนินการหลายล้านไมล์ (แม้ว่าจะไม่มีข้อมูลสาธารณะว่าผู้ขับขี่แต่ละคนใช้ระบบมากน้อยเพียงใด) เราทราบดีว่ามีการตรวจสอบจากสาธารณะอย่างมากเกี่ยวกับอุบัติเหตุใดๆ ที่เกี่ยวข้องกับการทดสอบ FSD ระบบและมีเหตุการณ์เล็ก ๆ น้อย ๆ เท่านั้นที่เปิดเผยต่อสาธารณะ แม้ว่าผู้ทดสอบ Tesla FSD บางรายจะเป็นแฟนตัวยงของ Tesla ที่พวกเขาอาจซ่อนอุบัติเหตุที่เกิดขึ้น แต่ก็ไม่น่าเป็นไปได้อย่างยิ่งที่อุบัติเหตุสำคัญๆ จำนวนมากจะเกิดขึ้นโดยที่ไม่มีใครเปิดเผย ตำรวจที่ร้ายแรงรายใดก็ตามรายงานอุบัติเหตุ โดยเฉพาะอุบัติเหตุจากการบาดเจ็บ มักจะได้รับความสนใจอย่างมาก เช่นเดียวกับที่พวกเขาทำกับออโตไพลอต

และเราไม่เห็นพวกเขา แม้ว่านี่ไม่ใช่การวิเคราะห์ทางวิทยาศาสตร์ที่แท้จริง แต่ดูเหมือนว่าโปรแกรม FSD ของ Tesla จะไม่ทำให้ประชาชนตกอยู่ในความเสี่ยง อาจเป็นเพราะว่าระบบไม่ดี ผู้ขับขี่ส่วนใหญ่รู้ดีว่าการไม่สนใจระบบนี้ในสถานะปัจจุบันคงเป็นเรื่องโง่มาก เป็นไปได้ว่าเมื่อมันดีขึ้นสิ่งนี้จะเปลี่ยนไป หากคุณพิจารณาระบบควบคุมความเร็วอัตโนมัติแบบพื้นฐาน ซึ่งดูดั้งเดิมกว่ามาก ก็ใช้งานได้เพราะไม่มีใครกล้าให้ความสนใจกับท้องถนนขณะใช้งาน

โฆษณา

การตั้งชื่อของเทสลา

เทสลาไม่ได้ช่วยตัวเองด้วยชื่อผลิตภัณฑ์ หลายคนวิพากษ์วิจารณ์ Autopilot ในฐานะชื่อเพราะการรับรู้ของสาธารณชน (เท็จ) คือนักบินอัตโนมัติของเครื่องบินบินเครื่องบินด้วยตัวเอง อันที่จริง ระบบขับเคลื่อนอัตโนมัติของเครื่องบินเป็นระบบที่ง่ายกว่าและง่ายกว่ามากเมื่อเทียบกับระบบ Autopilot ในรถยนต์ของ Tesla และมันใช้งานได้เพียงเพราะว่าในอากาศ คุณอยู่ไกลจากทุกสิ่งที่คุณอาจจะชน นั่นไม่ได้หยุดการรับรู้ของสาธารณชนที่ผิดพลาดแม้ว่า ด้วย FSD มันยิ่งแย่ลงไปอีก ยังไม่ถึงขั้นขับเอง ไม่ใกล้ และไม่ "เต็ม" อย่างแน่นอน ความสับสนนี้ทำให้ Waymo เลิกใช้คำว่า self-driving เพื่ออธิบายผลิตภัณฑ์ของตน เนื่องจากกลัวว่า Tesla จะกำหนดคำนี้ผิดในความคิดของสาธารณชน

เทสลาไม่ต้องการโฆษณาเกินจริงสำหรับผลิตภัณฑ์ของตน พวกเขาขายทุกอย่างที่ทำได้ เป็นเรื่องน่างงงวยที่พวกเขาจงใจไปกับชื่อเหล่านี้แทนที่จะพูดเกินจริงและแสดงผลเกินงบ พวกเขาจะช่วยตัวเองให้พ้นจากความเศร้าโศกได้มาก — นอกเหนือจากประเภท "การประชาสัมพันธ์ทั้งหมดเป็นการประชาสัมพันธ์ที่ดี"

เป็นไปได้ไหมถ้าเทสลาจะตีหุ่นขนาดเด็ก?

คำตอบที่น่าประหลาดใจคือ “อาจจะ” ระบบต้นแบบการทดสอบทั้งหมดจะทำสิ่งนี้ และไม่ห้ามการทดสอบต้นแบบทั้งหมด ไม่มีทางใดที่จะเรียกร้องความสมบูรณ์แบบได้แม้แต่ในประเด็นที่ชวนให้นึกถึงเช่นการชนกับเด็ก เป็นการยากที่จะกำหนดระเบียบข้อบังคับที่จะห้าม Tesla FSD ที่ไม่ได้ห้ามหรือชะลอการพัฒนาเทคโนโลยีที่สำคัญมากซึ่งจะช่วยชีวิตคนนับล้านได้ทันเวลา หลายล้านชีวิตไม่ใช่สิ่งเล็กน้อย แต่จะเป็นหนึ่งในความก้าวหน้าที่ยิ่งใหญ่ที่สุดด้านความปลอดภัยในประวัติศาสตร์ของมนุษย์

โฆษณา

อย่างมากที่สุด เราสามารถพยายามกำหนดสิ่งต่าง ๆ เพื่อให้ผู้ดูแลระบบการทดสอบดังกล่าวมีคุณสมบัติตรงตามเกณฑ์ที่กำหนด เราอาจยืนยันว่าพวกเขาได้รับการติดตามที่ดีขึ้น (ซึ่งเทสลากำลังทำอยู่) เราอาจขอให้พวกเขาเป็นมืออาชีพหรือผ่านการทดสอบ แต่จากนั้นเราจะสร้างเนื้อหาที่กำหนดและบังคับใช้การทดสอบเหล่านี้ ซึ่งจะทำให้ยุ่งยาก คุณสามารถเป็นครูสอนขับรถได้เพียงแค่ผ่านการทดสอบข้อเขียนและรับใบรับรองการมีสุขภาพที่ดี โดยไม่ต้องทำการทดสอบทักษะสด

อย่างไรก็ตาม เราสามารถกำหนดชุดของกฎสำหรับผู้ที่สามารถดูแลระบบต้นแบบ และอาจหยุดกิจกรรมของเทสลา แต่การทำเช่นนั้นจะต้องตกอยู่ในความขัดแย้งที่ว่า "ยิ่งดียิ่งไม่ชอบ" เราไม่ต้องการทำให้การข้ามหุบเขานั้นยากขึ้นเพื่อให้กลายเป็นระบบที่ดีขึ้น คำถามที่แท้จริงคือทำไมเราถึงอยากไปที่นั่นถ้าไม่มีใครได้รับบาดเจ็บ ขณะนี้ยังไม่มีรายงานผู้ได้รับบาดเจ็บ และแน่นอนว่าไม่มีระดับใดๆ ที่บ่งชี้ว่ามีความเสี่ยงมากกว่าการขับรถธรรมดา เราไม่ต้องการที่จะตกหลุมพรางของการห้ามสิ่งต่าง ๆ เพราะเรามีสัญชาตญาณว่าสิ่งเหล่านั้นเป็นอันตราย เราเพียงต้องการห้ามสิ่งที่เป็นอันตรายจริงๆ

ค่อนข้างเป็นไปได้ที่การทดสอบ Tesla FSD ในภายหลังจะเริ่มเป็นอันตรายเกินไป สิ่งนี้อาจเกิดขึ้นเนื่องจากความพอใจของระบบอัตโนมัติหรือการเปลี่ยนแปลงระบบ มีเหตุผลสมควรที่จะขอให้ Tesla รายงานต่อเจ้าหน้าที่ว่ามีเหตุการณ์เกิดขึ้นกี่ครั้งระหว่างการทดสอบระบบ เพื่อให้เราสามารถทราบได้ว่าเหตุการณ์ดังกล่าวเป็นอันตรายหรือไม่และเมื่อใด แนวทางของ O'Dowd ที่ว่า "เราควรห้ามสิ่งนี้เพราะดูเหมือนว่าฉันจะเป็นอันตราย" เป็นแนวทางที่ผิด อย่างน้อยก็ในสหรัฐอเมริกา

โฆษณา

อ่านและแสดงความคิดเห็นที่นี่

ที่มา: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- พลาดตรงจุด/