Новое обновление FSD Tesla: когда автопилот стал слишком дерзким?
Вот представьте: вы ставите на свою Tesla долгожданное обновление, а она… будто с характером меняется. Начинает ехать увереннее, перестраиваться резче, да и до скоростного лимита разгоняется теперь без всяких скидок. Это не глюк, честное слово. Это новая реальность для владельцев машин с Full Self Driving. И знаете, пока одни радуются, что автопилот наконец-то «повзрослел», другие чешут затылок: а не слишком ли он стал дерзким? И, что важнее, как на это смотрят те, кто отвечает за безопасность на дорогах?
Пару недель назад Tesla начала катить обновление FSD версии 12.3. В сети его быстро окрестили «Mad Max» — ну, вы поняли, в честь того самого безумного водителя с пустошей. Если коротко, то теперь система работает на грани — и по скорости, и по решительности. Мне кажется, это один из самых спорных апдейтов за последнее время. Давайте разбираться, что же там поменялось на самом деле, почему регуляторы насторожились, и что со всем этим делать обычному владельцу.
Что на самом деле изменилось в поведении FSD?
Главное, что все заметили — машина стала вести себя не как осторожный ученик, а как уверенный в себе водитель. Такое ощущение, что убрали половину «подушек безопасности» в её алгоритмах.
«Безумный Макс» или «Спокойный» — почувствуйте разницу
Раньше в настройках было три профиля: «Спокойный», «Средний» и «Уверенный». Сейчас этот самый «Уверенный» (Assertive) прокачали до неузнаваемости. Вот что я заметил на тестовых поездках:
- Со скоростью: Раньше автопилот мог специально держаться на 5 км/ч ниже лимита, особенно где камеры. Теперь он тянется к цифре на знаке, а иногда на обгоне даже чуть-чуть превышает. Прямо как живой человек, правда?
- С манёврами: Для обгона или перестроения теперь нужно меньше «окно». Машина рассчитывает на быстрый разгон и встраивается в поток смелее. Порой даже слишком смело, как по мне.
- В городе: На левом повороте Tesla теперь выезжает чуть ли не на середину перекрёстка, чтобы поймать момент. Знакомый приём, да? Так многие таксисты делают.
По сути, инженеры Tesla сделали систему менее предсказуемой для окружающих, но зато более шустрой. Вопрос — нужна ли нам такая скорость от робота?
Зачем это вообще было нужно? Технический бэкграунд
На мой взгляд, это был неизбежный шаг. Вся современная версия FSD построена на нейросетях, которые учатся на миллионах часов реальной езды. А в реальной жизни, особенно в городе, водители часто ездят на грани правил — агрессивно, но эффективно.
Старая версия была слишком «робкой». Она могла вечно ждать идеального момента для манёвра, которого в потоке просто не бывает, и этим бесила всех сзади. Нейросеть, натренированная на агрессивных данных, переняла эту агрессивность. И вот что важно: чтобы система продолжала учиться по-настоящему сложным сценариям, ей нужно не просто смотреть на них, а отрабатывать в реальности. Вот и получается, что мы, пользователи, стали тестовыми пилотами для этого обучения. Как по мне, в этом есть своя логика, но и риски, конечно, огромные.
Почему регуляторы (NHTSA) схватились за голову?
Пока энтузиасты тестируют новые фичи, в Национальной администрации безопасности дорожного движения США (NHTSA), видимо, царит не такое веселье. Их работа — думать о безопасности всех на дороге, а не только тех, кто внутри «умной» машины.
Официальный запрос и неудобные вопросы
В марте 2024 года NHTSA направила Tesla официальный запрос (документ PE 24-007). Если коротко, их беспокоит несколько вещей:
- Насколько это вообще безопасно? Какие тесты проводила Tesla перед выпуском? Как они посчитали, не вырастет ли число аварий из-за такой езды?
- А водитель-то в курсе? Понимает ли человек, садясь за руль, что теперь ему нужно контролировать не робота-тихоню, а почти гонщика?
- А правила не нарушаем? Не ведёт ли новое поведение к постоянному превышению скорости или опасному сокращению дистанции?
NHTSA — не просто наблюдатель. Эта организация может инициировать отзывную кампанию, если сочтёт технологию опасной. Сам факт такого запроса — уже очень серьёзный звоночек.
Это ведь не в первый раз
Честно говоря, для Tesla это не новость. NHTSA уже давно и пристально изучает её автопилот. Были расследования по поводу столкновений с машинами скорой помощи на трассе. Регуляторы смотрят, адекватно ли система видит особые транспортные средства.
Нельзя забывать главное: FSD — это всё ещё система второго уровня. Это значит, что водитель должен постоянно смотреть на дорогу и быть готовым в любой момент взять управление на себя. Любое обновление, которое усложняет этот контроль или создаёт иллюзию, что можно расслабиться, сразу привлекает внимание проверяющих.
Что чувствует за рулём обычный владелец? Плюсы, минусы и важные «но»
Давайте смотреть правде в глаза: теория теорией, а ездить-то вам. Для владельца это обновление — как палка о двух концах. С одной стороны, круто, с другой — страшновато.
Самое главное, что нужно помнить (я даже выделю это жирным): Full Self Driving — это помощник, а не шофёр. Вы, водитель, всегда несёте полную ответственность за машину. Вы должны постоянно следить за дорогой и быть готовым вмешаться. Никаких исключений.
Что стало лучше? Мнения с форумов
Почитав отзывы, особенно из больших городов, я увидел общую тенденцию — многим действительно нравится.
- Едет «по-человечьи». Пропало это дурацкое ощущение, что за рулём робот, который всё время «думает». Движения стали плавнее и естественнее.
- Экономит время. Меньше «залипаний» в ситуациях, когда и ехать можно, но система боится. Обгоны стали быстрее.
- Меньше нервов. Не нужно постоянно подталкивать машину газом, если она медлит встроиться в поток. Это, если честно, большой плюс.
А что стало опаснее? Трезвый взгляд
Но есть и обратная сторона, и её нельзя игнорировать.
- Напрягает по-новому. Раньше у вас был запас времени, чтобы среагировать, если автопилот делал что-то не то. Теперь решения принимаются быстрее, а значит, и ваша реакция должна быть мгновенной. Расслабляться нельзя вообще.
- Может спровоцировать конфликт. Другие водители не привыкли, что Tesla может так резко перестраиваться или ехать ровно в лимит. Кто-то может воспринять это как хамство и ответить тем же. Агрессивность порождает агрессивность, это известный факт.
А как же страховка? Вопрос, который все боятся задать
Вот что меня действительно беспокоит: а что будет, если что-то случится? Использование такого «дерзкого» профиля наверняка привлечёт внимание страховой компании в случае разбора полётов. Мой вам совет — позвоните в свою страховую и уточните, как использование продвинутых систем помощи влияет на ваш полис. Не забывайте: по закону в ДТП всегда виноват водитель, а не автопилот. Автопилот — это просто пассажир, который иногда даёт советы. Очень настойчивые советы.
Ликбез: как вообще этим управлять? Пошагово для новичка
Я видел много вопросов от людей, которые просто не знают, где это настраивается. Давайте по порядку, чтобы не наломать дров с первого дня.
- Не спешите. Первые пару сотен километров после обновления ездите только на профиле «Chill» (Спокойный). Привыкните к базовым изменениям.
- Потренируйтесь. На знакомой дороге, где вы всё знаете как свои пять пальцев, переключитесь на «Average» (Средний). Ощутите разницу и поймите, комфортно ли вам.
- Будьте избирательны. Профиль «Assertive» (Уверенный/Mad Max) используйте только если очень уверены в себе и только в подходящих условиях. Например, на трассе с плотным, но равномерным потоком. В узком городском переулке — точно нет.
Сменить профиль просто: включите FSD, тапните на синий значок руля на экране, найдите «Drive Profile» и выберите нужный. Всё.
Что будет дальше? Нескучные прогнозы
Это обновление — не просто фича. Это заявление о намерениях. Tesla показывает, в какую сторону она катит автономное вождение.
Дилемма: безопасность или прогресс?
Тут есть над чем подумать. С одной стороны, чтобы создать по-настоящему самостоятельный автопилот (5-го уровня), его нужно учить на сложных, «грязных» данных из реального мира, где все немного нарушают правила. С другой стороны, от робота ждут идеальной, абсолютной безопасности. Получается, Tesla пытается балансировать на лезвии ножа: учить ИИ быть как человек, но при этом не давать ему натворить человеческих ошибок. Сложная задачка.
Три варианта развития событий (как я это вижу)
- Всё обойдётся (самый вероятный сценарий). Tesla предоставит NHTSA кучу данных, которые докажут, что аварийность не выросла. Регуляторы потребуют лучше предупреждать водителей, и на этом успокоятся. Развитие пойдёт дальше.
- Откат назад. Если будут инциденты или давление станет слишком сильным, Tesla может выпустить «заплатку», которая слегка притупит самые острые углы «Mad Max». Прогресс замедлится, но всем будет спокойнее.
- Создание прецедента. Исход этого дела станет примером для всей индустрии. Если Tesla удастся доказать свою правоту, это откроет дорогу для более смелых экспериментов с автономностью. Не только у них, но и у других. Реакция регуляторов покажет, насколько общество готово к «человечным», а не идеальным роботам на дороге.
Вместо вывода: что делать вам?
Лично я считаю, что это обновление — важный, но рискованный шаг. Оно делает автопилот умнее, но и требовательнее к вам. Ваша ответственность не уменьшилась — она, наоборот, возросла. Вы теперь должны быть не пассивным наблюдателем, а активным, готовым к резким движениям, инструктором для своего ИИ.
Один практичный совет на первое время: в сложных ситуациях включайте встроенный регистратор или Sentry Mode. Запись потом поможет разобраться, что пошло не так, если что. Или просто похвастаться удачным манёвром.
А в целом, будущее автономного вождения теперь зависит не только от инженеров, но и от нас, пользователей, и от того, как регуляторы оценят этот смелый эксперимент. История продолжается.
А что думаете вы? Сталкивались уже с новым FSD? Поделитесь в комментариях — это интересно и важно для всех.
Источники, которые я использовал
-
Национальная администрация безопасности дорожного движения США (NHTSA)
- Официальный запрос и материалы расследования (Investigation PE 24-007) систем автопилота Tesla.
- https://www.nhtsa.gov/
-
Официальный сайт Tesla
- Примечания к выпуску (Release Notes) для обновления ПО FSD v12.3.
- https://www.tesla.com/support/software-release-notes
-
TechCrunch
- Аналитическая статья «Tesla’s ‘Mad Max’ FSD update draws regulatory scrutiny».
- https://techcrunch.com/
-
Insurance Institute for Highway Safety (IIHS)
- Отчёты и рейтинги систем помощи водителю (ADAS).
- https://www.iihs.org/