Соблюдение Правил конференции строго обязательно! Флуд, флейм и оффтоп преследуются по всей строгости закона! За статью можно проголосовать на странице материала.
Обращу внимание на то, что диплернинг обычно состоит из 3-х частей: 1. сбор биг-даты с сенсоров авто & передача данных в дата-центр. 2. обучение модели(ей) нейросети(ей) в дата-центре. 3. эксплуатация обученной модели в автомобиле одновременно с продолжением пунктов 1-2-3. Для дата-центра нужны чипы чуть более расточительные по энергопотреблению, но более производительные, а для автомобиля нужен мобильный чип, где энергопотребление выходит на передний план. В частности, по приведенной в посте ссылке пишут (переведено на русский):
"Наша платформа диплернинга открытая и позволяет автопроизводителям сперва тренировать их собственные дипсетки на GPU-суперкомпьютерах. Будучи загруженными в автомобиль, сетки работают на высокой скорости, предоставляя риалтайм, точный отклик востребованный автономным вождением".
Тут Нвидиа имеет ввиду, что что у Нвидии есть и свои дипсетки разработанные совместно с Baidu с использованием Torch7 & CUDA, но у Теслы своя собственная Tesla Vision, у которой обучение сперва происходит в дата-центре на супер-компютере Нвидии. На сайте Нвидиа пишут, что в дата-центрах используются супер-компьютеры DGX-1 в которых по 8 видеоплат Tesla P100 с ядрами Pascal. Может Илон имел ввиду, что на Титане работали бета-версии их системы или может Титаны стояли у них в дата-центре, или что в дата-центре чипы на том же Паскале, что и в Титане.
Надо понимать, что все камеры-датчики автомобиля генерируют большой объем данных, особенно камеры, поэтому еще есть вопрос передачи этих данных в дата-центр. Раньше данные непосредственно с датчиков тесел не передавались в дата-центр, эти данные сперва распознавал чип MobilEye EyeQ3 и на выходе выдавал фичи, которые передавались в дата-центр. Но чип этот плохо работал, потому что он программировался вручную, т.е. Не использовался подход end-to-end, при котором на всех этапах должно быть дип-лернинговское автоматическое выучивание, а вручную написанных правил должно быть минимальное количество, потому что такой подход позволяет выудить из биг-даты важные вещи, которые незаметны инженерам и потому что автоматически можно провернуть значительно большие объемы, чем вручную - это важно, потому что модели все время доучиваются. Так вот, теперь по-идее Тесла тоже скорее всего использует подход end-to-end, но при таком подходе объем передаваемых данных резко возрастает, что затрудняет использование всего флота тесел для обучения. И вот возникает вопрос, каждая ли тесла участвует в сборе данных для обучения и отсылке их в дата-центр или в дата-центр отправляются только данные, которые влезли в бортовой SSD-диск и только когда тесла оказывается на парковке с быстрым вай-фаем? Или у Теслы есть выделенные автомобили для обучения, как у Убера и у nuTonomy и у Baidu и у Comma. ai? А также не используются ли бортовые мощности тесел еще и для каких-то операций обучения, благодаря которым объем данных можно было бы сократить, а также снизить нагрузку на сервер и ускорить обучение модели за счет децентрализации. И еще вопрос: полный автопилот у Теслы пока только для хайвеев? А то nuTonomy говорят, что они в Сингапуре делат езду по городу, более того, пользователи сервиса Grab уже могут заказывать автопилотное такси nuTonomy с подстраховывающим водителем. Тоже касается и Убера в Питтсбурге - заказывая Убер в Питсбурге вам может случайно попасться селф-драйвинг-кар с водителем-подстраховщиком. Еще и Вольво тестирует свой автопилот в своем родном Готтем-сити (Готенборге), но заказать как такси их пока нельзя. А бета-тестеры Comma. ai с автопилотами Comma 1 за $999 + $24/год пока ездят только по хайвеям. Всех и не упомнишь. Судя по рекламе Теслы, они тоже готовы к езде по городу, но это будет зависить в каждом регионе от местного законодательства.
У Теслы несколько отличается подход к решению задачи от конкурентов. Например у той же Comma 1 всего лишь одна камера и они предоставляют автопилот только 3 уровня, а значит водитель должен подстраховывать. А у Убера и nuTonomy есть лидары, которые автопилоту малополезны, потому что те же данные можно диплернингом выучить с камер, но при этом лидары стоят дорого. Вобщем Тесла выбрала золотую середину, чтобы исключить заголовки в прессе типа "водитель погиб при включенном автопилоте".
Но по-идее для обеспечения уровня безопасности не хуже человеческого достаточно куда более скромных мощностей, как у Comma 1, а по мере накопления биг-даты модели нейросетей будут умнеть и умнеть, при этом не очень увеличиваясь в размерах (это свойство нейросетей), тогда и сверхчеловеческий уровень можно будет упихнуть в небольшой чип и достаточно будет только нескольких камер, а потом и этот чип переделают из универсального в узкоспециализированный и массовый, тогда он вообще в каждый утюг встроен будет.
В следующем году NVidia Drive PX2 станет Xavier, в котором вместо двух SoC и двух GPU-чипов будет всего 1 SoC-чип, при этом производительность будет такой же (даже возрастет), а энергопотребление упадет с 80 W до 20 W (см. картинку).
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 29
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения