Неуважність водіїв у поєднанні з недоліками технологій Tesla Autopilot і Full Self-Driving (FSD) призвели до сотень травм і десятків смертей. Про це йдеться у звіті NHTSA.
Згідно з висновками, користувачі цих систем «не були достатньо залучені в керування автомобілем». Водночас самі технології Tesla «не забезпечували належного рівня уваги водіїв».
Загалом із січня 2018 по серпень 2023 року регулятор розслідував 956 ДТП. У цих аваріях, деякі з яких передбачали зіткнення інших машин із Tesla, загинуло 29 осіб.
Також агентство зафіксувало 211 інцидентів, у яких «лобова частина автомобіля Tesla вдарилася об транспортний засіб або перешкоду на своєму шляху». У найсерйозніших випадках 14 людей загинули, а 49 дістали поранення.
NHTSA ініціювало розслідування після того, коли водії Tesla врізалися в нерухомі аварійні автомобілі, припарковані на узбіччі. Більшість цих інцидентів сталася у вечірній і нічний час, при цьому програмне забезпечення ігнорувало заходи з контролю за ситуацією на дорозі на кшталт попереджувальних вогнів, сигнальних ракет, конусів і світлового табло зі стрілками.
Водії на автопілоті не встигають вчасно реагувати
У своєму звіті агентство дійшло висновку, що Autopilot і, в деяких випадках FSD, не були розроблені так, щоб утримувати увагу водія за кермом. Tesla зі свого боку попереджає клієнтів про необхідність бути напоготові під час використання цих технологій, включно з необхідністю тримати руки на кермі і дивитися на дорогу.
Однак, за даними NHTSA, у багатьох випадках водії ставали занадто самовпевненими і втрачали концентрацію уваги. А коли настав час реагувати на небезпечну ситуацію, часто було вже занадто пізно.
У 59 вивчених аваріях агентство виявило, що у водіїв Tesla було достатньо часу — п’ять або більше секунд до зіткнення з іншим об’єктом — щоб зреагувати. У 19 загроза була очевидна за 10 і більше секунд.
Вивчивши журнали даних і надану Tesla інформацію, NHTSA виявила, що в більшості подібних ситуацій водії не встигали ні загальмувати, ні повернути кермо для уникнення зіткнення.
«Аварії, в яких водій не вдався до жодних або запізнілих спроб ухилення, виявлено у всіх версіях обладнання Tesla і обставинах події», — заявили в NHTSA.
Tesla дає занадто великі обіцянки
NHTSA також порівняла функції автоматизації рівня 2 (L2) Tesla з продуктами інших автовиробників. На відміну від конкурентів, Autopilot вимикається, а не дає змогу водієві коригувати рульове управління. За словами NHTSA, це «відбиває охоту» у водіїв залишатися напоготові за кермом.
«Порівняння конструкторських рішень Tesla з аналогічними рішеннями L2 дало змогу виявити, що компанія є вигнанцем галузі у своєму підході до технології, оскільки слабка система залучення водія не поєднується з дозвільними можливостями Autopilot», — йдеться в повідомленні агентства.
Навіть назва бренду Autopilot вводить в оману, заявили в NHTSA. Вона нібито наводить на думку, що водій не контролює ситуацію.
У той час як інші компанії використовують деякі варіанти слів «допомога», «почуття» або «команда», продукти Tesla переконують водіїв у тому, що вони мають більші можливості, ніж є насправді.
Генеральний прокурор Каліфорнії і Департамент автотранспорту штату ведуть розслідування відносно компанії щодо брендингу та маркетингу, що вводить в оману.
NHTSA визнає, що його розслідування може бути неповним через «прогалини» в телеметричних даних Tesla. Насправді аварій за участю Autopilot і FSD може бути набагато більше, ніж вдалося виявити агентству.
Оновлення Autopilot не вирішило проблеми безпеки
Наприкінці минулого року Tesla випустила добровільне відкликання ПЗ у відповідь на розслідування NHTSA, оновивши програму для додавання додаткових попереджень в Autopilot. Однак NHTSA заявило про початок нового розслідування, оскільки низка експертів з безпеки вказали на «неадекватність» вжитих заходів, що допускають некоректне використання систем допомоги водієві.
Результати розслідування суперечать твердженням глави Tesla Ілона Маска про те, що його компанія займається розробкою ШІ і перебуває на порозі випуску повністю безпілотного електрокара для особистого користування. Наприкінці цього року він планує представити роботаксі, яке має відкрити нову еру для автовиробника.
Минулого тижня під час звіту про прибутки за перший квартал Маск знову заявив, що транспортні засоби Tesla безпечніші за машини під керуванням людини.
«Якщо статистично значущий обсяг даних переконливо показує, що безпілотний автомобіль, скажімо, удвічі рідше потрапляє в аварії, ніж автомобіль із людським керуванням, я думаю, це важко ігнорувати», — сказав Маск.
Він вважає, що припинення експлуатації самохідних автомобілів рівноцінне «вбивству людей».
Ілон Маск націлений на китайський ринок
Одночасно з виходом звіту NHTSA Ілон Маск вирушив із неанонсованим візитом до Китаю. За даними джерел, одним з обговорюваних питань стало обговорення впровадження Autopilot і FSD у країні.
Раніше Маск написав у X, що Tesla може зробити Full Self-Driving доступним для клієнтів у Китаї «дуже скоро».
Mr. Musk, I am a Tesla owner in China. I look forward to Tesla FSD entering China as soon as possible. When will it be realized? When can the HW3.0 system use 3D modeling images? When will the new reversing assistance be pushed to Tesla HW3.0 owners in China?
— 迷雾那 (@lelelemeng) April 20, 2024
Китайська державна телекомпанія CCTV у своєму репортажі про зустріч Маска з прем’єр-міністром КНР Лі Цяном не повідомила, чи обговорювали вони FSD або дані.
Поїздка Маска відбулася трохи більше ніж за тиждень після того, як він скасував запланований візит до Індії для зустрічі з прем’єр-міністром Нарендрою Моді.
Нагадаємо, у травні 2023 року міністр транспорту США Піт Буттіджич розкритикував автопілот Tesla.