Китайские ученые из компании Tencent Keen Security Lab выявили несовершенства программного обеспечения адаптивного круиз-контроля Tesla Autopilot и смогли обмануть систему распознавания разметки.
Ученые описали эксперимент в статье. В ней говорится, что система адаптивного круиз-контроля Tesla Autopilot не может правильно распознавать точки на асфальте, считать их элементами дорожной разметки и сворачивать.
В ходе эксперимента сотрудники Tencent Keen Security Lab прикрепили небольшую наклейку на дорогу и смогли отправить автопилот на встречную полосу.
Ученые также активизировали стеклоочиститель автомобиля, показав камере специальные изображения. К тому же программисты смогли получить удаленный доступ к бортовому компьютеру, чтобы управлять углом поворота руля с помощью геймпада.
В Tesla прокомментировали эксперименты китайских ученых. "В этой демонстрации исследователи изменили физическую среду вокруг транспортного средства, чтобы заставить его вести себя иначе. Это не реальная проблема, не та, с которой сталкиваются каждый день, учитывая и то, что водитель может в любое время перенять управление автомобилем и нажать на тормоз", - говорится в заявлении компании, которое приводит Business Insider.
Tesla Model 3 ранее обещала выплатить вознаграждение тому, кто найдет уязвимость в программном обеспечении электрокара и взломает систему. Однако сотрудникам Tencent Keen Security Lab, которые "изменили физическую среду", награда не причитается.




