Cruise 'เรียกคืน' Robotaxis หลังจากชน แต่การเรียกคืนเป็นกลไกที่ผิด

ในเดือนมิถุนายน หน่วย “Cruise” ของ General Motor ซึ่งใช้งานหุ่นยนต์ไร้คนขับในตอนกลางคืนในซานฟรานซิสโก และกำลังจะขยายการให้บริการ ประสบอุบัติเหตุโดยมีอาการบาดเจ็บเล็กน้อยเมื่อจอดกลางทางเลี้ยวซ้าย และรถกำลังแล่นมาอย่างรวดเร็ว ตีมันที่ด้านข้าง สิ่งนี้น่าสนใจทั้งในแง่ของสิ่งที่ผิดพลาดในอุบัติเหตุ แต่ยังรวมถึงวิธีการแก้ไขซอฟต์แวร์ที่เรียกว่า "เรียกคืน" ตามคำร้องขอของสำนักงานความปลอดภัยการขนส่งทางหลวงแห่งชาติ

ครูซประกาศในสัปดาห์นี้ว่าพวกเขาจะ ขยายบริการในซานฟรานซิสโกและเปิดในฟีนิกซ์และออสตินด้วย ภายในสิ้น 2022

มีแนวโน้มว่านี่เป็นการชนครั้งแรกที่ไม่มีคนขับปลอดภัย ความผิดพลาดบางอย่างสำหรับระบบการขับขี่ และการบาดเจ็บของบุคคลที่ 3 (ทั้งผู้โดยสารและในรถคันอื่น) มีการเปิดเผยรายละเอียดใหม่ในงานเมื่อเร็วๆ นี้

เกี่ยวกับอุบัติเหตุ

รถของครูซทำผิด แต่รถอีกคัน ตามที่ครูซบอก "ผิดมากที่สุด" เพราะขับ 40 ในโซน 25 และเพราะเข้าเลนเลี้ยวขวา แต่กลับเลี้ยวขวา เลี้ยวขวาเข้าช่องจราจรและผ่านสี่แยกด้วยความเร็ว รายละเอียดบางส่วนสามารถพบได้ใน รายงาน DMV ของ CA. ไม่มีการออกการอ้างอิง แต่เหตุการณ์อาจยังอยู่ภายใต้การสอบสวน

การสร้างใหม่ของเหตุการณ์แนะนำว่ารถครูซหวังว่าจะเลี้ยวซ้าย - "ซ้ายที่ไม่มีการป้องกัน" ที่มีชื่อเสียงซึ่งหลายทีมได้พบความท้าทาย Prius แล่นเข้ามาในเลนที่ต้องเลี้ยวซ้าย ยกเว้นรถประจำทางและแท็กซี่ และรถครูซก็สันนิษฐานว่ารถคันนั้นกำลังจะเลี้ยวขวาจริงๆ และสามารถเลี้ยวก่อน Prius ไปถึงที่นั่นได้ Prius ไม่ใช่รถแท็กซี่ แต่ไม่ทราบว่า Cruise แน่ใจหรือตัดสินใจตามนั้น ดูเหมือนว่า Cruise คาดการณ์ว่ารถจะวิ่งช้าลง ปล่อยให้ถึงเวลาเลี้ยวและเริ่มเลี้ยว

Prius ไม่ได้ทำให้ช้าลง ดังนั้นเครื่องยนต์ทำนายของ Cruise จึงตัดสินว่าหากรถ Cruise ยังคงเลี้ยวต่อไปและ Prius ที่เร็วก็หันด้วย Prius จะวิ่งเข้าไปใน Cruise ดังนั้นครูซจึงทำในสิ่งที่รู้สึกว่าเป็นสิ่งที่ถูกต้องอนุรักษ์นิยม ซึ่งก็คือการหยุดยากที่สี่แยก ซึ่งจะทำให้พรีอุสสามารถทำสิ่งที่ถูกต้องได้

Prius ไม่ได้ทำอย่างนั้น อันที่จริงมันเคลื่อนกลับเข้าเลนผ่านและต่อไปจนถึงสี่แยก บางคนอาจเข้าใจว่าตั้งใจให้ตรงมาโดยตลอด และตอนนี้อาจพยายามหลีกเลี่ยงไม่ให้รถจอดที่ทางแยก ไม่ได้ชนท้ายรถครูซ ทำให้รถทั้งสองคันได้รับบาดเจ็บเล็กน้อย

Cruise ยอมรับว่าซอฟต์แวร์ของพวกเขาทำงานไม่ถูกต้องใน ยื่นต่อ NHTSAแม้ว่าจะโทษว่าอุบัติเหตุที่เกิดขึ้นกับ Prius นั้นเป็นเพราะความเร็วสูงและอยู่ผิดเลน ครูซโบลต์สามารถป้องกันอุบัติเหตุได้โดยไม่หยุดและเลี้ยวจนครบ หรือไม่พยายามเลี้ยวตั้งแต่แรก โรโบคาร์ส่วนใหญ่มีความระมัดระวังและไม่พร้อมสำหรับการหลีกเลี่ยงอุบัติเหตุด้วยการเร่งความเร็ว เนื่องจากอาจนำไปสู่ปัญหาอื่นๆ

ครูซปฏิเสธที่จะตอบคำถามส่วนใหญ่เกี่ยวกับกิจกรรมนี้นอกเหนือจากที่อยู่ในเอกสารที่ยื่นต่อ ตามที่ระบุในเอกสารว่ารถอยู่ใน "โหมดอัตโนมัติไร้คนขับ" และการล่องเรือยืนยันว่านี่หมายความว่าไม่มีคนขับปลอดภัยบนเครื่อง รายงานของตำรวจระบุว่ามีผู้โดยสาร 3 คน (นั่งฟรี) ที่ด้านหลังของโบลต์ และอีกหนึ่งคนไปโรงพยาบาลในช่วงเวลาสั้นๆ ด้วยอาการบาดเจ็บเล็กน้อย มี Prius สองคนที่เข้ารับการรักษาในที่เกิดเหตุ เนื่องจากผู้โดยสารรายนี้ไม่ได้ออกมาแถลงข่าว อาจเป็นไปได้ว่า Cruise เสนอสิ่งจูงใจให้บุคคลนี้ไม่ทำเช่นนั้น ครูซไม่ต้องการ NDA จากผู้ขับขี่

ครูซระบุว่าปัญหานี้หายากมาก และเกิดขึ้นเพียงครั้งเดียวในการเลี้ยวซ้ายที่ไม่มีการป้องกันมากกว่า 120,000 ครั้ง (แต่ดูด้านล่างเพื่อดูว่าดีหรือไม่) 3 วันต่อมา พวกเขาเปิดตัวการอัปเดตซอฟต์แวร์ที่พวกเขาเชื่อว่าสามารถแก้ไขปัญหาได้ พวกเขายอมรับว่าเป็นหน้าที่ของพวกเขาที่ต้องทำมากขึ้นเพื่อหลีกเลี่ยงการชน แม้ว่าผู้ใช้ถนนรายอื่นประพฤติตัวไม่ดี และนั่นเป็นปรัชญาที่ดี ทีมที่ขับรถด้วยตนเองส่วนใหญ่พยายามสร้างสถานการณ์ร่วมกับนักขับคนอื่นๆ ที่ผิดพลาดในเครื่องจำลอง และพยายามค้นหาทุกรูปแบบที่พวกเขาทำได้ สถานการณ์นี้แน่นอนอยู่ในโปรแกรมจำลองของ Cruise ตอนนี้และในการจำลองของทีมใหญ่ ๆ ทุกทีมที่อ่านข่าวหากพวกเขายังไม่มี

เกี่ยวกับการเรียกคืน

น่าแปลกที่ Cruise อธิบายการอัปเดตซอฟต์แวร์นี้ว่าเป็น "การเรียกคืน" และยื่นหนังสือแจ้งการเรียกคืนจริงกับ NHTSA ครูซและทีมอื่นๆ ที่ทำงานอยู่กำลังทำการอัปเดตซอฟต์แวร์อย่างต่อเนื่องเพื่อแก้ไขปัญหา แม้ว่าแน่นอนว่าเป็นเรื่องยากมากที่จะแก้ไขปัญหาที่ทำให้เกิดอุบัติเหตุ — โชคดี พวกเขาไม่ได้ใส่สิ่งนี้ผ่านกลไกการเรียกคืน กลไกการเรียกคืนดูเหมือนไม่เหมาะสมด้วยเหตุผลหลายประการ:

  1. ครูซไม่ได้เรียกคืนยานพาหนะจริง ๆ กล่าวคือ ขอให้พวกเขากลับไปที่ศูนย์บริการเพื่อแก้ไข มันเพิ่งใช้กระบวนการอัปเดตซอฟต์แวร์ทางอากาศเป็นประจำ
  2. GM/Cruise ไม่เคยขายยานพาหนะเหล่านี้ แต่เป็นเจ้าของและใช้งาน ดังนั้นจึงไม่สามารถเรียกคืนจากลูกค้าได้
  3. กระบวนการเรียกคืนมีความเกี่ยวข้องและเป็นระบบราชการ และไม่สามารถใช้กับการอัปเดตซอฟต์แวร์ทุกครั้งได้ แม้แต่การอัปเดตที่แก้ไขปัญหาด้านความปลอดภัย การอัปเดตซอฟต์แวร์เกือบทั้งหมดสามารถแก้ไขปัญหาด้านความปลอดภัยบางอย่างได้ ไม่ใช่ปัญหาที่ทำให้เกิดข้อขัดข้อง

มันสมเหตุสมผลแล้วที่รายงานอุบัติเหตุเหล่านี้และการแก้ไขของพวกเขา และแน่นอน อุบัติเหตุนี้ได้รับการรายงานไปยัง California DMV, ตำรวจ และ NHTSA นานก่อนที่จะเรียกคืน NHTSA ได้ร้องขอหรือยอมรับการเรียกคืนสำหรับการเปลี่ยนแปลงซอฟต์แวร์อื่นๆ และจำเป็นต้องแก้ไขและปรับปรุงกระบวนการนี้ แม้ว่า NHTSA จะมีอำนาจในการควบคุมความปลอดภัยของรถยนต์ที่จำหน่ายในสหรัฐอเมริกา แต่ก็ยังไม่ชัดเจนว่าพวกเขามีอำนาจเหนือรถยนต์ที่ไม่ได้ขายอย่างไร เป็นที่น่าสังเกตว่าเมื่อวันก่อนเกิดอุบัติเหตุ ครูซได้รับอนุญาต - แต่ยังไม่ได้เริ่ม - ให้ขายรถมอเตอร์ไซค์ของตน และมันสมเหตุสมผลที่จะควบคุมรถที่จะขายเครื่องเล่น (แม้ว่านี่อาจจะมากกว่า ของรัฐหากไม่ข้ามเส้นรัฐ)

ก่อนหน้านี้ เมื่อ Pony.AI ประสบอุบัติเหตุในยานพาหนะไร้คนขับคันหนึ่งของพวกเขา DMV ได้เพิกถอนใบอนุญาตให้ดำเนินการในรัฐนั้น ในกรณีของโพนี่ มันเป็นอุบัติเหตุรถชนคนเดียว เห็นได้ชัดว่าเป็นความผิดของรถของพวกเขา สถานการณ์ที่แตกต่างกันอาจส่งผลให้ DMV มีการดำเนินการหรือการเพิกเฉยที่แตกต่างกัน

อุบัติเหตุ Robocar แตกต่างกัน

การชนครั้งนี้บอกเราบางอย่างเกี่ยวกับรูปแบบการเกิดอุบัติเหตุที่แตกต่างกันในรถโรโบคาร์ ปฏิกิริยาเริ่มต้นแสดงให้เห็นว่าครูซอาจมีวุฒิภาวะน้อยกว่าที่ต้องการ Waymo ประสบอุบัติเหตุซึ่งเป็นความผิดพลาดในปี 2016 เป็นเวลา 7 ปีในโครงการของพวกเขา แม้ว่าจะไม่ได้รับบาดเจ็บก็ตาม พวกเขามีน้อยมากตั้งแต่นั้นมาแม้ว่าพวกเขาเพิ่งขับรถหนักในดินแดนเช่นซานฟรานซิสโก ครูซมีข้อบกพร่องที่น่าอับอายมากมายในช่วงที่ผ่านมา รวมถึงการหยุดของตำรวจที่ผิดปกติ กลุ่มรถที่หยุดเนื่องจากข้อผิดพลาดในการสื่อสารของเซิร์ฟเวอร์ เหตุการณ์ที่เกิดกับรถดับเพลิง การร้องเรียนเกี่ยวกับการไปรับ/ส่งกลางทาง ท้องถนนและเย็นยะเยือกในช่วงเริ่มต้นของการเดินทางของนักข่าวสำหรับรายการทูเดย์โชว์ นี่เป็นมากกว่าที่เราเคยได้ยินเกี่ยวกับ Waymo และคนอื่น ๆ และเราหวังว่านี่จะเป็นเพียงอาการปวดฟัน ทุกทีมจะมี snafus และแท้จริงแล้วทุกทีมจะมีปัญหา และสิ่งที่สำคัญคือความถี่ของเหตุการณ์ที่เกิดขึ้น

Cruise ระบุเมื่อวันที่ 12 กันยายนว่าพวกเขาได้ให้บริการ robotaxi ไปแล้วประมาณ 300,000 ไมล์โดยไม่มีคนขับที่ปลอดภัยในซานฟรานซิสโก และพวกเขาจะทำได้น้อยลงในเดือนมิถุนายน ไม่ใช่เรื่องดี เพราะคนขับเป็นมนุษย์มักจะได้รับบาดเจ็บจากการขับขี่ทุกล้านไมล์ แม้ว่า Cruise อาจถูกตัดสินว่ามีความผิดน้อยกว่าคนขับ Prius แต่นี่ไม่ใช่สถิติที่ดีเท่าที่เราต้องการ (อุบัติเหตุหลังจากนั้น พูด 250,000 ไมล์ไม่ได้หมายความว่าพวกเขาจะไม่ทำหนึ่งล้านไมล์ก่อนคันต่อไป แต่ก็ไม่ใช่ลางบอกเหตุที่ดี) ในทางกลับกัน พวกเขาทำไปแล้ว 4 ล้านไมล์โดยทั่วไป (พร้อมคนขับปลอดภัย) เนื่องจากผู้ขับขี่ด้านความปลอดภัยเข้ามาแทรกแซงปัญหาใดๆ ในระยะทาง 4 ล้านไมล์ เราจึงไม่ทราบว่าอัตราการเกิดอุบัติเหตุที่แท้จริงเป็นอย่างไรสำหรับระบบนั้น — ซึ่งเป็นระบบที่เก่ากว่าและด้อยกว่าเมื่อเทียบกับระบบล่าสุด เมื่อเปรียบเทียบแล้ว การขับขี่อย่างปลอดภัย เป็นการดีที่เทสลาTSLA
รายงานว่าลูกค้าได้รับความปลอดภัยในการขับขี่ 30 ล้านไมล์ด้วย Tesla FSD ที่มีคุณภาพต่ำ และไม่มีรายงานอุบัติเหตุร้ายแรงใด ๆ โดยเฉพาะการบาดเจ็บเกิดขึ้น

อย่างไรก็ตาม ลักษณะเฉพาะของหุ่นยนต์ถูกระบุไว้ข้างต้น ครูซแก้ไขปัญหานี้ใน 3 วันและจะไม่เกิดขึ้นอีก อย่างน้อยก็ไม่ใช่ด้วยวิธีนี้ บริษัทอื่นอาจใส่สิ่งนี้ไว้ในเครื่องจำลองและจะไม่เกิดขึ้นกับพวกเขาเช่นกัน บริษัทต่างๆ สร้างไลบรารีจำลองสถานการณ์จำลองขนาดใหญ่ (และแม้กระทั่งในโครงการที่ฉันช่วยกระตุ้น แลกเปลี่ยน) เมื่อพวกเขาทำเช่นนี้ พวกเขามีอัลกอริธึมที่จะ "คลุมเครือ" สถานการณ์ ซึ่งหมายถึงการปรับแต่งพารามิเตอร์ทั้งหมดในรูปแบบต่างๆ พวกเขาจะลองสิ่งนี้กับรถคันอื่นด้วยความเร็วที่แตกต่างกัน หรือเปลี่ยนเลนในเวลาที่ต่างกัน พวกเขาจะลองใช้กับรถครูซที่ทำหน้าที่แตกต่างออกไป พวกเขาจะลองใช้กับคนเดินเท้าทำสิ่งต่างๆ ที่ทางแยกเพื่อทดสอบว่าไม่มีปัญหาเกิดขึ้นในรูปแบบต่างๆ นับพันรูปแบบ

นี่ไม่เหมือนคน ถ้าคนๆ หนึ่งประสบอุบัติเหตุแบบนี้ — และพวกเขาทำ — บทเรียนของคนๆ นั้นจะไม่สอนคนอื่นเลย เมื่อเวลาผ่านไป เมืองอาจปรับปรุงกฎเกณฑ์เกี่ยวกับเลนหรือความเร็ว แต่นั่นก็อาจเกิดเหตุการณ์ต่างๆ มากมาย สำหรับความผิดพลาดใดๆ ที่หุ่นยนต์ทำ โดยทั่วไปแล้วพวกเขาจะดีขึ้นเท่านั้น

คนแย่ลง ในขณะที่คนส่วนใหญ่คาดหวังว่าผู้ขับขี่รุ่นเยาว์จะดุร้ายที่สุดและประสบอุบัติเหตุมากที่สุด ผู้ขับขี่อายุ 80 ปีที่ฆ่าตัวตายจริงมากที่สุด กราฟมีรูปร่าง "U" ที่น่าสลดใจ ส่วนหนึ่งเป็นเพราะคนขับที่มีอายุมากกว่านั้นอ่อนแอกว่า แต่ก็พบว่าพวกเขาประสบอุบัติเหตุมากขึ้นเมื่อความสามารถของพวกเขาลดลง โดยเฉพาะอย่างยิ่ง และน่าแปลกที่พวกเขาประสบอุบัติเหตุมากขึ้นโดยที่พวกเขาถูกรถชน มากกว่าที่จะเป็นรถที่ชน แม้ว่าจะยังคงเป็นความผิดของพวกเขาก็ตาม เนื่องจากสถานการณ์เช่นนี้ในการเลี้ยวซ้ายที่ไม่มีการป้องกัน หุ่นยนต์ควรจะเก่งในการตัดสินฟิสิกส์ของสถานการณ์เหล่านี้ แต่ระบบของ Cruise ตั้งสมมติฐานมากเกินไป

นี่เป็นตัวอย่างคลาสสิกของปัญหาการทำนาย ในขณะที่เราพูดถึงเซ็นเซอร์อยู่ตลอดเวลาในโลกของหุ่นยนต์ การตรวจจับไม่ใช่เป้าหมาย แต่เป็นวิธีการไปสู่เป้าหมายที่แท้จริงซึ่งก็คือการทำนาย ไม่สำคัญว่าตอนนี้ทุกอย่างอยู่ที่ไหน สิ่งสำคัญคืออนาคตอันใกล้จะอยู่ที่ไหน ครูซทั้งสองตัดสินผิดว่าพรีอุสจะไปที่ใด และจะทำอย่างไรกับมันเมื่อสถานการณ์เปลี่ยนไป ฉันสงสัยว่ารถของครูซไม่ได้ถูกตั้งโปรแกรมให้ทำสิ่งต่างๆ เช่น วิ่งไปข้างหน้าเพื่อหลีกเลี่ยงอุบัติเหตุ หรือแม้แต่สำรอง เราไม่มีข้อมูลว่ามีรถอยู่ด้านหลัง Cruise Bolt หรือไม่ แต่สิ่งหนึ่งที่หุ่นยนต์ทำคือมองไปทุกทิศทางในคราวเดียว และถ้ามันชัดเจนที่ด้านหลัง รถสามารถดำเนินการได้เร็วกว่ามนุษย์มาก ต้องเช็คกระจกแล้วเข้าเกียร์ รถยนต์ไฟฟ้าและเร่งความเร็วได้อย่างรวดเร็วและทันเวลา หุ่นยนต์ EV ควรจะคล่องแคล่วมากในการหลีกเลี่ยงอุบัติเหตุ — หากพวกเขากล้า

ฉันบอกว่าถ้าพวกเขากล้าเพราะบริษัทส่วนใหญ่อนุรักษ์นิยมมาก พวกเขาไม่ต้องการเคลื่อนไหวกะทันหันที่อาจทำให้สถานการณ์แย่ลง แม้จะมองเห็นได้ 360 องศาก็ตาม โดยเฉพาะอย่างยิ่ง การเคลื่อนไหวในลักษณะนี้อย่างกะทันหันหลายๆ ครั้งนั้นผิดกฎหมายในทางเทคนิค และพวกเขาไม่ต้องการฝ่าฝืนกฎหมายโดยเจตนา โดยเฉพาะอย่างยิ่งหากมันอาจผิดพลาดได้ ตัวอย่างเช่น คนเดินถนนสามารถออกมาจากข้างหลังด้วยความประหลาดใจได้ทุกเมื่อ หากพวกเขากระโดดไปข้างหน้า มันไม่ใช่ความผิดของคุณ แต่ถ้าคุณอยู่บนทางเท้าเพื่อหลีกเลี่ยงอุบัติเหตุ ก็เป็นอีกเรื่องหนึ่ง (ไม่ รถจะไม่พยายามเลือกว่าจะชนใคร ถ้าต้องเลือกระหว่างคนสองคน นั่นเป็นตำนานทั่วไปและคำถามที่น่ารำคาญ ไม่ใช่สิ่งที่เกิดขึ้นจริง.)

ในเวลานี้ หุ่นยนต์น่าจะดีกว่ามนุษย์ในสถานการณ์เช่นนี้ พวกเขาจะคาดการณ์ช่วงของสิ่งที่รถอื่นๆ จะทำได้ดีขึ้น รถควรพูดอยู่เสมอว่า “ฉันจะทำอย่างไรถ้าผู้ชายคนนี้ไม่เลี้ยวเหมือนที่กฎกำหนด” และตรวจสอบให้แน่ใจว่ามีการดำเนินการที่สามารถทำได้ รวมถึงการเร่งความเร็วเมื่อถึงโค้งหรือสำรอง หากไม่มีการดำเนินการใดที่สามารถทำงานได้ และความเสี่ยงมีความเป็นไปได้สูงเพียงพอ รถก็จะรอ แต่ในอุดมคติแล้ว ก็มีความเป็นไปได้ที่จะมีการดำเนินการ จำเป็นต้องอดทนต่อความเสี่ยงที่จะเกิดอุบัติเหตุได้เมื่อผู้อื่นกระทำการที่เอาแน่เอานอนไม่ได้ การขับขี่แบบตั้งรับนั้นดี แต่ผู้ขับขี่ที่มีการป้องกันโดยสิ้นเชิงจะปิดกั้นถนนด้วยความระมัดระวัง ซึ่งไม่สามารถแก้ไขปัญหาได้

อ่าน / แสดงความคิดเห็นที่นี่

ที่มา: https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotaxis-after-crash-but-the-recall-is-the-wrong-mechanism/