A วิดีโอล่าสุด จากเทสลา
O'Dowd เขียนบ่อยครั้งว่าเขาต้องการให้ Tesla FSD ถูกแบน ฉันครอบคลุมการรณรงค์ของเขาก่อนหน้านี้ และเมื่อเร็ว ๆ นี้เขาได้ลงสมัครรับการเสนอชื่อวุฒิสภาแคลิฟอร์เนียเพียงเพื่อเรียกใช้โฆษณาแคมเปญต่อต้านเทสลา FSD เขาได้ยกระดับความโกรธแค้นของ Elon Musk และชุมชนแกนนำโปรเทสลาอย่างเป็นธรรมชาติ ดังนั้นจึงมีการชกกันในทันที วิดีโอต้นฉบับที่ลิงก์ด้านบนไม่แสดงว่า FSD เปิดใช้งานอยู่ แม้ว่าการเปิดตัวในภายหลังจะแสดงให้เห็น บางคนแนะนำว่าภาพหน้าจอที่อ่านยากบอกว่าคนขับกำลังเหยียบคันเร่ง ข้อมูลอื่นๆ แสดงให้เห็นว่ารถกำลังวิ่งช้าลงหรือออกคำเตือน และมีการโต้เถียงกันไปมาว่าการสาธิตเป็นอย่างไร
โฆษณา
การสาธิตได้รับเลือกให้เป็นการยั่วยุ เพราะไม่มีอะไรน่ากลัวไปกว่ารถชนเด็ก เด็ก 3 คนเสียชีวิตในอุบัติเหตุรถชนทุกวันในสหรัฐอเมริกา และในแต่ละปีเด็กประมาณ 170 คนถูกรถยนต์ฆ่าตาย สำหรับหลาย ๆ คน ปฏิกิริยาก็คือไม่มีเทคโนโลยีใดที่จะเอาชนะเด็กได้ NHT
ปัญหานี้ซับซ้อนมาก และเนื่องจากไม่ใช่เรื่องผิดปกติเกินไป จึงไม่มีใครเข้าใจตรงกันว่าถูกต้อง ระบบ FSD แม้ว่าจะเรียกว่าเบต้า แต่เรียกว่าต้นแบบได้แม่นยำกว่า ต้นแบบที่ขับเคลื่อนด้วยตนเอง (และรุ่นเบต้า) จำเป็นต้องมีการทดสอบจำนวนมากบนท้องถนนในมุมมองของนักพัฒนาส่วนใหญ่ และทุกทีมทำเช่นนี้ โดยมี "ไดรเวอร์ด้านความปลอดภัย" ของมนุษย์คอยตรวจสอบระบบและเข้าแทรกแซงเป็นประจำเมื่อเกิดข้อผิดพลาดเพื่อป้องกันเหตุการณ์ เทสลาเป็นเรื่องผิดปกติที่อนุญาตให้ลูกค้าทั่วไปมีส่วนร่วมในการทดสอบนี้ ในขณะที่บริษัทอื่นๆ ทั้งหมดมีพนักงาน ซึ่งได้รับการฝึกอบรมในระดับหนึ่งเพื่อทำหน้าที่นี้ และโดยทั่วไปมีพนักงาน 2 คนต่อรถหนึ่งคัน
โดยธรรมชาติแล้ว ต้นแบบจะล้มเหลว รวมถึงสิ่งสำคัญ เช่น การหยุดสำหรับคนเดินถนน ทุกทีมตั้งแต่ที่เก่งที่สุดอย่าง Waymo ลงมาจนถึงทีมที่แย่ที่สุด ได้วางยานพาหนะไว้บนท้องถนน ซึ่งมักจะทำสิ่งที่เลวร้ายอยู่เป็นประจำ ยกเว้นการแทรกแซงและส่วนใหญ่รู้สึกว่าทำการทดสอบยานพาหนะในระยะเริ่มต้นดังกล่าวและยังคงมีความจำเป็นต่อความก้าวหน้าและปรับใช้รถยนต์ในที่สุด เมื่อปรับใช้แล้ว รถยนต์จะมีคุณภาพสูงขึ้นมากและช่วยชีวิตผู้คน — หลายคน — ดังนั้นทุกคนต้องการให้การติดตั้งใช้งานนั้นเกิดขึ้นโดยเร็วที่สุด แต่มีหลายประเด็นที่จะพูดถึงว่าเราไปถึงจุดนั้นได้อย่างไรและเมื่อเราไปถึง มัน.
โฆษณา
ระบบช่วยเหลือผู้ขับขี่เทียบกับการขับขี่ด้วยตนเอง
นอกเหนือจากคำถามที่ว่าการใช้ลูกค้าของเทสลาในการทดสอบต้นแบบเป็นความคิดที่ดีหรือไม่ ประเด็นมากมายเกี่ยวกับความแตกต่างระหว่างระบบช่วยเหลือผู้ขับขี่ ซึ่งเกี่ยวข้องกับมนุษย์ที่มีส่วนร่วมในการขับเคลื่อนอย่างเต็มที่ แต่ดูแลระบบมากกว่าการเคลื่อนไหวร่างกาย ระบบควบคุมและระบบขับเคลื่อนอัตโนมัติซึ่งไม่จำเป็นต้องมีมนุษย์ควบคุม (และแน่นอนว่ารถสามารถวิ่งได้โดยไม่มีใครอยู่ในนั้น)
คนวงในในอุตสาหกรรมหลายคนรู้สึกว่าสิ่งเหล่านี้เป็นสองสิ่งที่แตกต่างกันพอสมควร และเป็นข้อผิดพลาดสำหรับ NHTSA ที่จะประกาศว่าพวกเขาเป็นเพียง "ระดับ" ที่แตกต่างกันของเทคโนโลยีระบบอัตโนมัติ สเตอร์ลิง แอนเดอร์สัน ผู้ร่วมก่อตั้งระบบขับเคลื่อนอัตโนมัติ Aurora คิดว่าการเปลี่ยนจากระบบช่วยเหลือผู้ขับขี่ (หรือ ADAS สำหรับระบบช่วยเหลือผู้ขับขี่ขั้นสูง) ไปเป็นการขับรถด้วยตนเองก็เหมือนกับการพยายามไปถึงดวงจันทร์ด้วยการสร้างบันไดให้สูงขึ้น
ระบบช่วยเหลือผู้ขับขี่ขั้นสูงขนาดใหญ่ระบบแรกที่ให้คนเหยียบแป้นได้คือระบบควบคุมความเร็วอัตโนมัติ โดยเฉพาะอย่างยิ่งระบบควบคุมความเร็วอัตโนมัติแบบปรับได้ ต่อมา การดูแลเลนก็มาถึง ซึ่งให้คุณละมือจากพวงมาลัย และในไม่ช้า ทั้งสองก็ถูกรวมเข้าด้วยกันในผลิตภัณฑ์อย่าง "ออโตไพลอต" ของเทสลา เนื่องจากเครื่องมือ ADAS (driver Assist) สิ่งเหล่านี้มีไว้เพื่อใช้ด้วยความเอาใจใส่อย่างเต็มที่
โฆษณา
แม้ว่าจะไม่ใช่ทุกคนที่เชื่อในตอนแรก แต่ข้อสรุปทั่วไปในวันนี้คือระบบเหล่านี้ทำงานได้และไม่ก่อให้เกิดอันตรายบนท้องถนน ผู้คนยังสงสัยเกี่ยวกับระบบควบคุมความเร็วอัตโนมัติแบบพื้นฐานในตอนแรก แต่ในไม่ช้ามันก็กลายเป็นคุณสมบัติทั่วไปในรถยนต์
Tesla Autopilot ตั้งคำถามใหม่ด้วยเหตุผลหลายประการ แต่ประเด็นที่น่าสนใจที่สุดคือการทำงานที่เหนือกว่าผลิตภัณฑ์รุ่นก่อนๆ อย่างชัดเจน ซึ่งรวมถึงระบบควบคุมความเร็วอัตโนมัติที่ง่ายกว่า ทว่าความเหนือกว่านั้นอาจทำให้อันตรายมากขึ้น และทำให้ด้อยกว่าได้ ความขัดแย้งที่แปลกประหลาดเกิดขึ้นเมื่อระบบดีขึ้น ผลลัพธ์ก็อาจแย่ลง เนื่องจากระบบที่เหนือกว่าจะทำให้เกิด (บางคนยังเชื่อว่าชื่อ "Autopilot" และ FSD ของเทสลาสนับสนุนให้เกิดความพึงพอใจ และการส่งข้อความสาธารณะเกี่ยวกับผลิตภัณฑ์เหล่านี้ก็เช่นกัน)
นี่ไม่ใช่ความขัดแย้งที่ดีที่จะมี เราต้องการพัฒนาระบบให้ดีขึ้น แต่ถ้าระบบโดยรวมแย่ลงในขณะที่คุณทำให้ดีขึ้น ก็ยิ่งยากขึ้นมากที่จะได้ระบบที่ดีจริงๆ ในขณะที่คุณเดินทางผ่านหุบเขาอันตรายที่สิ่งต่างๆ จะแย่ลงก่อนที่จะดีขึ้น ทุกวันนี้ เราไม่เคยทำผิดกับระบบควบคุมความเร็วอัตโนมัติแบบมาตรฐานเพราะจะชนเด็กหรือฝ่าไฟแดง ระบบเหล่านั้นเรียบง่ายกว่ามาก และไม่มีความสามารถเลยที่จะหลีกเลี่ยงข้อผิดพลาดเหล่านั้น แต่หลายคนต้องการจับผิดระบบที่เหนือชั้นกว่ามากซึ่งจะหยุดเพื่อสิ่งกีดขวางส่วนใหญ่ เพราะมันไม่หยุดเพื่อ 100% แม้ว่าจะไม่มีระบบใดที่สมบูรณ์แบบพอที่จะหลีกเลี่ยงข้อผิดพลาดได้ 100% และแม้ว่ามนุษย์ก็จะไม่สมบูรณ์แบบเช่นกัน
โฆษณา
ฉันมีส่วนร่วมในการร่างกฎหมายการทดสอบการขับขี่ด้วยตนเองฉบับแรกของโลกในเนวาดาและแคลิฟอร์เนีย ผู้เล่นเห็นพ้องกันว่าควรมีกฎพื้นฐานเกี่ยวกับวิธีการทดสอบบนท้องถนน (กฎก่อนหน้านี้ไม่ได้ห้าม เนื่องจากไม่มีใครคิดจะทำอย่างนั้น) ในเวลาเดียวกัน ผู้ผลิตรถยนต์ที่ขายเครื่องมือ ADAS ก็ทำเช่นเดียวกัน ไม่ต้องการให้รถยนต์ ADAS ของตนอยู่ภายใต้ข้อบังคับการทดสอบการขับขี่ด้วยตนเอง ดังนั้น การทำงานของ ADAS จึงไม่ครอบคลุมอยู่ในข้อบังคับเหล่านั้น
โดยเฉพาะในแคลิฟอร์เนีย คำถามนี้ทำให้เกิดคำถามเปิดขึ้น การทดสอบการขับขี่ด้วยตนเองทั้งหมด (โดยมีข้อยกเว้นบางประการเมื่อเร็วๆ นี้) ดำเนินการโดยคนขับด้านความปลอดภัยที่ควบคุมดูแล ด้วยวิธีนี้มันเหมือนกับการขับรถ ADAS เป็นอย่างมาก กฎหมายไม่ชัดเจนเกี่ยวกับความแตกต่างที่สร้างสถานการณ์ที่น่าสนใจบางอย่าง แอนโธนี่ เลวานดอฟสกี้ ซึ่งมีส่วนร่วมในการร่างข้อบังคับด้วย ต่อมาเป็นหัวหน้าของ Uber
โฆษณา
DMV ใช้แนวทางที่ว่า หากคุณกำลังพยายามสร้างระบบขับเคลื่อนอัตโนมัติ แม้ว่าระบบจะไม่สมบูรณ์แบบในช่วงแรกๆ ที่ต้องการการดูแลและได้รับการควบคุมดูแลอยู่เสมอ คุณก็ควรได้รับการพิจารณาให้เป็นบริษัททดสอบการขับขี่ด้วยตนเองซึ่งอยู่ภายใต้กฎเกณฑ์
อย่างไรก็ตาม เทสลายังคงใช้แนวทางเดิม เนื่องจากเทสลามีผลิตภัณฑ์ ADAS อย่างแน่นอน พวกเขาจึงไม่รายงานการทดสอบการขับขี่ด้วยตนเองต่อรัฐ จนถึงตอนนี้ DMV ปล่อยให้สไลด์นี้ แม้แต่การทดสอบ Tesla FSD โดยพนักงานของ Tesla ซึ่งยากมากที่จะแยกแยะกับสิ่งที่พวกเขาห้ามไม่ให้ Uber ทำ DMV อาจควบคุมสิ่งนี้ได้ดี แต่แล้วการใช้งานของลูกค้านั้นเป็นเครื่องมือช่วยไดรเวอร์อย่างเป็นทางการ (ถ้าคุณอ่านรายละเอียดและไม่สนใจชื่อ)
แต่ดูเหมือนว่าจะได้ผล
แนวทางแก้ไขหลักสำหรับเรื่องนี้คือวิธีการสร้างความมั่นใจว่าการกำกับดูแลจะยังคงอยู่ในระดับสูง มีเทคนิคต่างๆ สำหรับเรื่องนี้ รวมถึงการตรวจสอบผู้ขับขี่ในรูปแบบต่างๆ และการจู้จี้หากพวกเขาไม่สนใจ หรือตามที่ระบุไว้ว่ามีนักขับรถมืออาชีพที่ผ่านการฝึกอบรมมาแล้ว หรือแม้แต่ทีมที่มีสายตาหลายคู่อยู่บนท้องถนน เป็นเวลาหลายทศวรรษแล้วที่เราได้ฝึกอบรมนักขับวัยรุ่นในโรงเรียนสอนขับรถโดยมีครูฝึกที่สามารถจับล้อและมีเบรกของตัวเองเพื่อหยุดรถ และระบบนั้นก็ทำงานได้ดีมาก
โฆษณา
ข้อสรุปที่ชัดเจนจนถึงตอนนี้คือใช้งานได้ ประวัติความปลอดภัยของ บริษัท ที่ขับเคลื่อนด้วยตนเองรายใหญ่เช่น Waymo เป็นแบบอย่าง Waymo รายงานการทดสอบกับผู้ขับขี่ด้านความปลอดภัยกว่า 20 ล้านไมล์ในปี 2021 และในขณะนั้นอาจมีอุบัติเหตุ 2 ครั้ง โดยเฉลี่ยแล้ว มนุษย์จะประสบอุบัติเหตุเกือบ 40 ครั้งในช่วงเวลานั้น เช่นเดียวกับการขับรถของนักเรียนที่มีครูสอนขับรถยนต์ทำได้ดีกว่าผู้ขับขี่ที่ได้รับใบอนุญาตใหม่ ระบบตรวจสอบก็ทำงานได้อย่างชัดเจน และยานพาหนะเหล่านี้สร้างความเสี่ยงต่อสาธารณชนได้น้อยกว่าการขับรถที่คล้ายคลึงกันโดยคนทั่วไป
อย่างน้อยในสหรัฐอเมริกา ถ้าไม่มีผู้ได้รับบาดเจ็บ หรืออย่างน้อยที่สุด ถ้าระดับความเสี่ยงน้อยกว่าการขับรถปกติ กิจกรรมโดยทั่วไปจะไม่ได้รับการควบคุม แนวทางของสหรัฐฯ อนุญาตมากกว่ามาก — คุณไม่จำเป็นต้องพิสูจน์ว่าสิ่งที่คุณทำนั้นปลอดภัย แต่ถ้าปรากฏว่าไม่ปลอดภัย คุณอาจถูกหยุดและพบว่าต้องรับผิดชอบต่ออันตรายใดๆ ที่คุณก่อขึ้น บางประเทศอาจต้องการให้หน่วยงานกำกับดูแลตัดสินใจล่วงหน้าว่ามีบางสิ่งที่ปลอดภัยหรือไม่ ซึ่งสูงกว่าเกณฑ์มากซึ่งไม่เอื้อต่อการสร้างนวัตกรรมมากนัก
แน่นอน ในกรณีที่มีชื่อเสียงเรื่องหนึ่ง แนวทางของคนขับปลอดภัยเสียชีวิต เมื่อรถของ Uber ATG ฆ่าคนเดินถนนในรัฐแอริโซนา การสอบสวนของ NTSB และคดีในศาลในเวลาต่อมาพบว่าคนขับด้านความปลอดภัยนั้นประมาทเลินเล่อ (เธอกำลังดูทีวีแทนที่จะทำงาน) แม้ว่า Uber ก็ถูกตำหนิเนื่องจากมีวัฒนธรรมที่แย่ในการจัดการไดรเวอร์ด้านความปลอดภัยซึ่งมีส่วนทำให้เกิดข้อผิดพลาดนี้ อย่างไรก็ตาม ข้อสรุปที่สำคัญคือ ระบบขับขี่ปลอดภัยทำงานได้ไม่เสี่ยงต่อสาธารณะเกินควรแม้ว่าจะเห็นได้ชัดว่าเป็นไปได้ที่ผู้ขับขี่ด้านความปลอดภัยของมนุษย์จะประมาทเลินเล่อและก่อให้เกิดความเสี่ยงสูง
โฆษณา
นั่นคือระบบที่มีไดรเวอร์ที่ได้รับการฝึกอบรมผ่านการฝึกอบรม เทสลาก้าวต่อไปและมีลูกค้าธรรมดาทำหน้าที่นี้ มีหลายเหตุการณ์ที่ผู้ขับขี่ของ Tesla ละเลยอย่างชัดเจนในการดูแลผลิตภัณฑ์ Autopilot และเกิดปัญหาขึ้นรวมถึงเหตุการณ์ร้ายแรง อย่างไรก็ตาม รถยนต์ของเทสลาขับเคลื่อนด้วย Autopilot เป็นระยะทางหลายไมล์มากกว่าทีมที่ขับด้วยตนเอง ดังนั้นการมีอยู่ของเหตุการณ์เชิงลบและแม้แต่โศกนาฏกรรมจึงไม่จำเป็นต้องเป็นหลักฐานว่าระบบกำลังเปิดเผยต่อสาธารณชนในความเสี่ยงที่มากขึ้น
ในแต่ละไตรมาส Tesla เผยแพร่สถิติที่ทำให้เข้าใจผิดซึ่งระบุว่าผู้ขับขี่ที่ใช้ Autopilot มีประวัติด้านความปลอดภัยที่ดีกว่าผู้ที่ไม่มี แม้ว่าผู้ใช้ Autopilot บางรายจะประมาทเลินเล่อก็ตาม แม้ว่าตัวเลขเหล่านี้จะเท่ากับการโกหก ฉันและคนอื่นๆ พยายามทำวิศวกรรมย้อนกลับ ตัวเลขจริง และตัวเลขจริงก็ไม่ได้แย่ขนาดนั้น และแนะนำว่าผู้ใช้ Autopilot มีบันทึกความปลอดภัยที่คล้ายคลึงกับผู้ที่ไม่ใช่ผู้ใช้ แม้ว่าจะไม่เหนือกว่า แต่ก็ไม่ได้ทำให้ผู้คนมีความเสี่ยงเพิ่มเติม ผลลัพธ์นั้นใกล้เคียงพอที่ NHTSA กำลังดำเนินการสอบสวนอุบัติเหตุของ Tesla กับยานพาหนะฉุกเฉิน ไม่ทราบว่าพวกเขาจะใช้แนวทางป้องกันไว้ก่อนหรือดูบันทึกความปลอดภัยโดยรวมหรือไม่
หลายคนแนะนำว่าเทสลาสามารถปรับปรุงบันทึกของพวกเขาด้วยการตรวจสอบผู้ขับขี่ที่ดีขึ้น การตรวจสอบมาตรฐานต้องการเพียงให้ผู้ขับขี่ใช้กำลังกับล้อเป็นประจำ บริษัทอื่นๆ มีกล้องที่คอยดูสายตาของคนขับเพื่อให้แน่ใจว่าพวกเขากำลังเฝ้าดูถนน — หาก Uber ATG ทำเช่นนี้ พวกเขาจะป้องกันไม่ให้เสียชีวิตได้ เทสลาเพิ่งเริ่มใช้การตรวจสอบการจ้องมองของคนขับเช่นกัน
โฆษณา
ควรสังเกตว่าการคำนวณที่แสดงความปลอดภัยของ Tesla Autopilot เหมือนกับการขับรถปกตินั้นเป็นสิ่งที่มีประโยชน์ อันที่จริงแล้วเป็นการรวมกันของอัตราการเกิดอุบัติเหตุที่สูงขึ้นในกลุ่มผู้ใช้ Autopilot ที่ประมาทเลินเล่อซึ่งเพิกเฉยต่อท้องถนนหรือเข้าสู่ความอิ่มเอมของระบบอัตโนมัติ และบันทึกความปลอดภัยที่ดีขึ้นจากผู้ที่ขยันหมั่นเพียร เรามีช่วงเวลาที่ยากลำบากในเชิงปรัชญากับเรื่องนี้ เราไม่ชอบการทำให้คนบางคนมีความเสี่ยงสูงขึ้น แม้ว่าผู้คนจำนวนมากจะได้รับความเสี่ยงที่ลดลงก็ตาม เราไม่ชอบมันมากจนอาจกีดกันคนที่ขยันหมั่นเพียรจากเครื่องมือที่ทำให้พวกเขาปลอดภัยมากขึ้นในการปกป้องผู้ที่ประมาทเลินเล่อ แม้ว่านี่ไม่ใช่เป้าหมายของเรา
สิ่งที่เกี่ยวกับFSD
ข้อมูลข้างต้นเกี่ยวข้องกับ Autopilot ซึ่งเป็นผลิตภัณฑ์สำหรับการขนส่ง Tesla FSD ไม่ใช่ผลิตภัณฑ์สำหรับการขนส่ง พวกเขาเรียกมันว่า "เบต้า" (ซึ่งเป็นผลิตภัณฑ์เกือบขั้นสุดท้ายในขั้นตอนการทดสอบสุดท้ายก่อนวางจำหน่าย) แต่ก็ไม่เป็นเช่นนั้นเลย ตอนนี้พวกเขามีเจ้าของเทสลามากกว่า 100,000 รายที่ทดลองใช้งาน ในการใช้งาน เจ้าของจะต้องจ่ายค่าธรรมเนียม (ตอนนี้เพิ่มขึ้นเป็น 15,000 ดอลลาร์) เพื่อสั่งจองระบบ FSD ล่วงหน้าในที่สุด และผ่านการทดสอบการขับขี่อย่างปลอดภัยเพื่อเข้ากลุ่มทดสอบ การทดสอบการขับขี่อย่างปลอดภัยนั้นส่วนใหญ่เป็นการหลอกลวงและไม่ได้ทดสอบสิ่งที่คุณต้องการสำหรับงานนี้ แต่ก็ไม่ได้หมายความว่าทุกคนที่จ่ายเงินจะได้รับการทดสอบ
พวกเขาเตือนไดรเวอร์ว่าระบบมีข้อบกพร่องมากมายและต้องการการดูแลอย่างต่อเนื่องเช่น ADAS โดยกล่าวว่า "จะทำสิ่งผิดในเวลาที่เลวร้ายที่สุด" นั่นเป็นคำกล่าวที่ค่อนข้างชัดเจน แต่ในขณะเดียวกันชื่อ "การขับเคลื่อนด้วยตัวเองเต็มรูปแบบ" ก็ทำให้เกิดภาพที่แตกต่างจาก ADAS อย่างเห็นได้ชัด ฉันได้ขับเคลื่อนด้วยระบบนี้และตัดสินว่าประสิทธิภาพของระบบค่อนข้างแย่ในฐานะระบบขับเคลื่อนด้วยตัวเอง
โฆษณา
ถึงกระนั้น แม้จะมีสัญชาตญาณตรงกันข้าม วิธีการของเทสลาก็ดูเหมือนจะได้ผล ด้วยจำนวนผู้ขับขี่ 100,000 คน ระบบกำลังดำเนินการหลายล้านไมล์ (แม้ว่าจะไม่มีข้อมูลสาธารณะว่าผู้ขับขี่แต่ละคนใช้ระบบมากน้อยเพียงใด) เราทราบดีว่ามีการตรวจสอบจากสาธารณะอย่างมากเกี่ยวกับอุบัติเหตุใดๆ ที่เกี่ยวข้องกับการทดสอบ FSD ระบบและมีเหตุการณ์เล็ก ๆ น้อย ๆ เท่านั้นที่เปิดเผยต่อสาธารณะ แม้ว่าผู้ทดสอบ Tesla FSD บางรายจะเป็นแฟนตัวยงของ Tesla ที่พวกเขาอาจซ่อนอุบัติเหตุที่เกิดขึ้น แต่ก็ไม่น่าเป็นไปได้อย่างยิ่งที่อุบัติเหตุสำคัญๆ จำนวนมากจะเกิดขึ้นโดยที่ไม่มีใครเปิดเผย ตำรวจที่ร้ายแรงรายใดก็ตามรายงานอุบัติเหตุ โดยเฉพาะอุบัติเหตุจากการบาดเจ็บ มักจะได้รับความสนใจอย่างมาก เช่นเดียวกับที่พวกเขาทำกับออโตไพลอต
และเราไม่เห็นพวกเขา แม้ว่านี่ไม่ใช่การวิเคราะห์ทางวิทยาศาสตร์ที่แท้จริง แต่ดูเหมือนว่าโปรแกรม FSD ของ Tesla จะไม่ทำให้ประชาชนตกอยู่ในความเสี่ยง อาจเป็นเพราะว่าระบบไม่ดี ผู้ขับขี่ส่วนใหญ่รู้ดีว่าการไม่สนใจระบบนี้ในสถานะปัจจุบันคงเป็นเรื่องโง่มาก เป็นไปได้ว่าเมื่อมันดีขึ้นสิ่งนี้จะเปลี่ยนไป หากคุณพิจารณาระบบควบคุมความเร็วอัตโนมัติแบบพื้นฐาน ซึ่งดูดั้งเดิมกว่ามาก ก็ใช้งานได้เพราะไม่มีใครกล้าให้ความสนใจกับท้องถนนขณะใช้งาน
โฆษณา
การตั้งชื่อของเทสลา
เทสลาไม่ได้ช่วยตัวเองด้วยชื่อผลิตภัณฑ์ หลายคนวิพากษ์วิจารณ์ Autopilot ในฐานะชื่อเพราะการรับรู้ของสาธารณชน (เท็จ) คือนักบินอัตโนมัติของเครื่องบินบินเครื่องบินด้วยตัวเอง อันที่จริง ระบบขับเคลื่อนอัตโนมัติของเครื่องบินเป็นระบบที่ง่ายกว่าและง่ายกว่ามากเมื่อเทียบกับระบบ Autopilot ในรถยนต์ของ Tesla และมันใช้งานได้เพียงเพราะว่าในอากาศ คุณอยู่ไกลจากทุกสิ่งที่คุณอาจจะชน นั่นไม่ได้หยุดการรับรู้ของสาธารณชนที่ผิดพลาดแม้ว่า ด้วย FSD มันยิ่งแย่ลงไปอีก ยังไม่ถึงขั้นขับเอง ไม่ใกล้ และไม่ "เต็ม" อย่างแน่นอน ความสับสนนี้ทำให้ Waymo เลิกใช้คำว่า self-driving เพื่ออธิบายผลิตภัณฑ์ของตน เนื่องจากกลัวว่า Tesla จะกำหนดคำนี้ผิดในความคิดของสาธารณชน
เทสลาไม่ต้องการโฆษณาเกินจริงสำหรับผลิตภัณฑ์ของตน พวกเขาขายทุกอย่างที่ทำได้ เป็นเรื่องน่างงงวยที่พวกเขาจงใจไปกับชื่อเหล่านี้แทนที่จะพูดเกินจริงและแสดงผลเกินงบ พวกเขาจะช่วยตัวเองให้พ้นจากความเศร้าโศกได้มาก — นอกเหนือจากประเภท "การประชาสัมพันธ์ทั้งหมดเป็นการประชาสัมพันธ์ที่ดี"
เป็นไปได้ไหมถ้าเทสลาจะตีหุ่นขนาดเด็ก?
คำตอบที่น่าประหลาดใจคือ “อาจจะ” ระบบต้นแบบการทดสอบทั้งหมดจะทำสิ่งนี้ และไม่ห้ามการทดสอบต้นแบบทั้งหมด ไม่มีทางใดที่จะเรียกร้องความสมบูรณ์แบบได้แม้แต่ในประเด็นที่ชวนให้นึกถึงเช่นการชนกับเด็ก เป็นการยากที่จะกำหนดระเบียบข้อบังคับที่จะห้าม Tesla FSD ที่ไม่ได้ห้ามหรือชะลอการพัฒนาเทคโนโลยีที่สำคัญมากซึ่งจะช่วยชีวิตคนนับล้านได้ทันเวลา หลายล้านชีวิตไม่ใช่สิ่งเล็กน้อย แต่จะเป็นหนึ่งในความก้าวหน้าที่ยิ่งใหญ่ที่สุดด้านความปลอดภัยในประวัติศาสตร์ของมนุษย์
โฆษณา
อย่างมากที่สุด เราสามารถพยายามกำหนดสิ่งต่าง ๆ เพื่อให้ผู้ดูแลระบบการทดสอบดังกล่าวมีคุณสมบัติตรงตามเกณฑ์ที่กำหนด เราอาจยืนยันว่าพวกเขาได้รับการติดตามที่ดีขึ้น (ซึ่งเทสลากำลังทำอยู่) เราอาจขอให้พวกเขาเป็นมืออาชีพหรือผ่านการทดสอบ แต่จากนั้นเราจะสร้างเนื้อหาที่กำหนดและบังคับใช้การทดสอบเหล่านี้ ซึ่งจะทำให้ยุ่งยาก คุณสามารถเป็นครูสอนขับรถได้เพียงแค่ผ่านการทดสอบข้อเขียนและรับใบรับรองการมีสุขภาพที่ดี โดยไม่ต้องทำการทดสอบทักษะสด
อย่างไรก็ตาม เราสามารถกำหนดชุดของกฎสำหรับผู้ที่สามารถดูแลระบบต้นแบบ และอาจหยุดกิจกรรมของเทสลา แต่การทำเช่นนั้นจะต้องตกอยู่ในความขัดแย้งที่ว่า "ยิ่งดียิ่งไม่ชอบ" เราไม่ต้องการทำให้การข้ามหุบเขานั้นยากขึ้นเพื่อให้กลายเป็นระบบที่ดีขึ้น คำถามที่แท้จริงคือทำไมเราถึงอยากไปที่นั่นถ้าไม่มีใครได้รับบาดเจ็บ ขณะนี้ยังไม่มีรายงานผู้ได้รับบาดเจ็บ และแน่นอนว่าไม่มีระดับใดๆ ที่บ่งชี้ว่ามีความเสี่ยงมากกว่าการขับรถธรรมดา เราไม่ต้องการที่จะตกหลุมพรางของการห้ามสิ่งต่าง ๆ เพราะเรามีสัญชาตญาณว่าสิ่งเหล่านั้นเป็นอันตราย เราเพียงต้องการห้ามสิ่งที่เป็นอันตรายจริงๆ
ค่อนข้างเป็นไปได้ที่การทดสอบ Tesla FSD ในภายหลังจะเริ่มเป็นอันตรายเกินไป สิ่งนี้อาจเกิดขึ้นเนื่องจากความพอใจของระบบอัตโนมัติหรือการเปลี่ยนแปลงระบบ มีเหตุผลสมควรที่จะขอให้ Tesla รายงานต่อเจ้าหน้าที่ว่ามีเหตุการณ์เกิดขึ้นกี่ครั้งระหว่างการทดสอบระบบ เพื่อให้เราสามารถทราบได้ว่าเหตุการณ์ดังกล่าวเป็นอันตรายหรือไม่และเมื่อใด แนวทางของ O'Dowd ที่ว่า "เราควรห้ามสิ่งนี้เพราะดูเหมือนว่าฉันจะเป็นอันตราย" เป็นแนวทางที่ผิด อย่างน้อยก็ในสหรัฐอเมริกา
โฆษณา
ที่มา: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- พลาดตรงจุด/