Member
Статус: Не в сети Регистрация: 20.05.2007 Откуда: Россия
Jeter Nvidia может говорить что угодно, только вот доля на рынке падает. И падает вполне закономерно. И повторю еще раз - Tegra 4 ничем не лучше Snapdargon 800.
Jeter Nvidia может говорить что угодно, только вот доля на рынке падает. И падает вполне закономерно.
Потому что производителям выгодней поставить дешевый фейковый кипятильник от Qualcomm, а потом его продать таким как Вы - показывая лживые цифры в тестах, а пипл то хавает!
yorka писал(а):
Jeter И повторю еще раз - Tegra 4 ничем не лучше Snapdargon 800.
Не соглашусь. По моим данным, там и сравнивать нечего! Snapdragon 800 - подтянули под бенчи, чтобы на фоне конкурентов он смотрелся не хуже. Вернее говоря, такую производительность он показывает только на время тестов. В реальности он троттлит, то есть работает на заниженных частотах. Snapdragon 600 выдает в тяжелом тесте 3DMark - 10000 баллов, но при этом лагает от перегрева, значит архитектура уперлась в техпроцесс, ну а результаты Snapdragon 800 - фейк! Galaxy S4 на Snapdragon 600 - переходил рубеж TDP-5 Вт в режиме игр, а здесь удвоенное количество графических блоков! Техроцесс то остался прежний 28 нм, а это значит, что и энергопотребление удвоилось! Чудес не бывает, при удвоении производительности - удваивается и энергопотребление. При таком энергопотреблении он нагреется за пару минут и сгорит! А зачем мне нужен фейковый GPU, которого хватает только на пару минут синтетических тестов Все что показывают бенчи - развод покупателей! Именно поэтому, те цифры которые Вы видите в тестах, нужно поделить на - 2.. Вон LG после пары прогонов в тесте перегрелся и результат слетел с 30000 до 12000 баллов. Сколько потребляет энергии Tegra 4, про-то давно известно. Ее гоняли в тяжелом закадровом тесте GLBenchmark в разрешении 1080p, и при этом она выдала под - 60 FPS. Это Вам на тот случай, чтобы Вы не утверждали, что это замеряли младшую версию, которая работала на заниженных частотах. Так вот, в этом режиме она потребляла меньше - 3.7 Вт!!! Та же приставка Shield выдала в AnTuTu - 41000 баллов, упрекнуть ее в том, что она работала на заниженных частотах - язык не повернется. Но даже она потребляла всего - 4.3 Вт!!! Вообще, я Вам вот что скажу: перестаньте смотреть бенчи, они все врут! Я видел графический тест Tegra 4 в тесте AnTuTu, так он выдал результат всего около 5000 баллов Можете себе такое представить? Примерно столько же выдавала старая Tegra 3, которая в -10 раз слабее! Тесты не могут отражать реальную производительность GPU, зато обмануть их легко. Тот же GLBenchmark 2.5 в тесте 1080p выдавал раньше у Tegra 3 всего - 7 FPS, после обновления результаты поправили до - 13 FPS. Нормально да, разница от версии - к версии доходит до - 60%... А в экранном тесте, теперь Tegra 3 и вовсе обходит сам Galaxy S3! Но ведь раньше все говорили, что Tegra 3 в - 2 раза слабее, чем GPU Mali-400MP4. Даже экономичный процессор Exynos 4412 - жульничает, после прогрева сбрасывает частоты..
Jose Marti
Статус: Не в сети Регистрация: 27.05.2003 Откуда: Бобруйск Фото: 1
Цитата:
Nvidia была довольно успешна с tegra 3.
Сильно греющийся, медленный и прожорливый кусок Дерьма, и устаревший, если сравнивать с прямыми конкурентами того периода. Мне кажется топовые китайские МТК и то поинтереснее этой Тегры 3 будут.
Сильно греющийся, медленный и прожорливый кусок Дерьма, и устаревший, если сравнивать с прямыми конкурентами того периода.
То что Tegra 3 сильно греется - это миф, греется в пределах норм. С обновлением прошивки чип стал холодный. Более того, прекрасно гонится до 1.8 ГГц по CPU, а по GPU свыше 700 МГц! Если бы сильно грелся, то не разгонялся. Энергопотребление у Tegra 3 почти такое же, как и Exynos 4412, а ведь последний производился на более совершенном техпроцессе 32 нм. Что касается конкурентов, в то время их не было. На Тегре скачал за деньги и все летает с дополнительными эффектами, а на других платформах - грабли. О каких конкурентах Вы говорите? То что чип старый, это да, все таки уже почти 3 года ему.
dempsey писал(а):
Мне кажется топовые китайские МТК и то поинтереснее этой Тегры 3 будут.
По теоретической производительности примерно равен MT6589T, все остальные слабее. Но у Тегра есть преимущество в поддержке от NVIDIA, благодаря этому самые тяжелые игры будут работать нормально. Поддержку для китайцев же, Вы найдете через ломанные костыли на форумах.
Member
Статус: Не в сети Регистрация: 20.05.2007 Откуда: Россия
Jeter Только игры... как SoC Tegra не интересена, ибо кроме как CPU и GPU там больше ничего нет. Т.е. покупая и без того не дешевый CPU производитель телефонов должен покупать еще как минимум DAC и модем сотовой связи, а то и не один .
Jeter писал(а):
а же приставка Shield выдала в AnTuTu - 41000 баллов, упрекнуть ее в том, что она работала на заниженных частотах - язык не повернется. Но даже она потребляла всего - 4.3 Вт!!!
А вентилятор с огромным (по мобильным меркам) радиатором ей просто так поставили ...
Jeter писал(а):
Техроцесс то остался прежний 28 нм, а это значит, что и энергопотребление удвоилось! Чудес не бывает, при удвоении производительности - удваивается и энергопотребление. При таком энергопотреблении он нагреется за пару минут и сгорит! А зачем мне нужен фейковый GPU, которого хватает только на пару минут синтетических тестов Все что показывают бенчи - развод покупателей! Именно поэтому, те цифры которые Вы видите в тестах, нужно поделить на - 2.. Вон LG после пары прогонов в тесте перегрелся и результат слетел с 30000 до 12000 баллов. Сколько потребляет энергии Tegra 4, про-то давно известно. Ее гоняли в тяжелом закадровом тесте GLBenchmark в разрешении 1080p, и при этом она выдала под - 60 FPS.
Кидай тесты - посмотрим. Вон в Xiaomi Mi3 поставили Tegra 4 . Сам про тротлинг, нагрев и время жизни 3A батерейки найдешь или тебя носом ткнуть? А вообще ты прежде чем писать такой вот бред кидай независимые тесты. А то тут уже был один, который утверждал, что в Antutu Snapdragon 600 тротлит. 12 прогонов подряд на моем Mi2S показали, что это не так.
Добавлено спустя 14 минут 31 секунду:
Jeter писал(а):
Тот же GLBenchmark 2.5 в тесте 1080p выдавал раньше у Tegra 3 всего - 7 FPS, после обновления результаты поправили до - 13 FPS
Это говорит лишь о том, что Nvidia не удел - работает хорошо только там, где были заплачены деньги. Ну или читинг, как у Intel.
Вон в Xiaomi Mi3 поставили Tegra 4 . Сам про тротлинг, нагрев и время жизни 3A батерейки найдешь или тебя носом ткнуть?
Покажите тесты.
yorka писал(а):
Это говорит лишь о том, что Nvidia не удел - работает хорошо только там, где были заплачены деньги. Ну или читинг, как у Intel.
Нет, это говорит лишь о том, что изначально были заплачены деньги GL бенчу, чтобы выиграть время на реализацию устройств с чипами Mali, так как в то время был лишь один конкурент в лице NVIDIA с ее - Tegra 3. То что GL бенч привирал чипам Mali - это и лосю понятно. Этот бенч показывал в версии теста (GLBenchmark 2.1) равные результаты у чипов Samsung как в HD разрешении - 60 FPS, так и в Full HD - 60 FPS. Думаю, что даже Вы не будете отрицать, что такого не могло быть с чипами прошлых лет. Все знают, что при вдвое высоком разрешении - производительность падает пропорционально.. Так что, деньги платит не NVIDIA, а Samsung и Qualcomm, у которых цифры из бенчей расходятся с картинкой в реальных играх!!! Процессоры Tegra - обрабатывают более сложную графику. У Qualcomm же, в бенчах цифры подогнанные под высокие FPS, а в тяжелых играх частота кадров в -3 раза меньше!!! Именно поэтому, игры и являются самыми честными бенчмарками, которые подделать невозможно. Будь Ваш Qualcomm в 3 раза лучше - Tegra 3, то у него была бы более сложная графика с частотой кадров под - 100 FPS, а не жалкие 20-30, которые иной раз падают до - 10 FPS..
Именно поэтому, игры и являются самыми честными бенчмарками, которые подделать невозможно.
Ога... По вашему получается, что Nvidia платит разработчикам игр, чтобы на их SoC игры бегали хорошо, на остальных пофиг . Даже текстурки там отдельные.
Jeter писал(а):
Будь Ваш Qualcomm в 3 раза лучше - Tegra 3, то у него была бы более сложная графика с частотой кадров под - 100 FPS, а не жалкие 20-30, которые иной раз падают до - 10 FPS..
Ну так оно и есть - графические бенчи это подтверждают. Ну а почему некоторые игры бегают не так быстро надо спросить разработчиков . И вообще большинство игр пишется под PowerVR.
Jose Marti
Статус: Не в сети Регистрация: 27.05.2003 Откуда: Бобруйск Фото: 1
Jeter писал(а):
То что Tegra 3 сильно греется - это миф, греется в пределах норм. С обновлением прошивки чип стал холодный.
Ага...конечно. У меня год назад появился Fujitsu F-10D, у приятеля был HTC one X. Ему хватало батареи на 6-8 часов, он каждый день свой телефон подзаряжал на работе. После того как ему надоело это, а именно то, что телефон всегда когда он необходим полудохлый, он его продал за полцены. Я оставил и купил Sharp SH-02E c APQ8064, этот девайс живет двое суток при той же нагрузке. Если смарт на Тегре 3 можно зимой идти без перчаток и идти болтать по улице - рука не мерзнет, у приятеля с его НТС тоже самое и даже похуже было - он его пытался юзать в качестве навигатора. Забавно это было. Приезжал на работу с разряженным телефоном, а тут звонок итп. Короче ходили с двумя телефонами. Я ещё доп. батарею себе купил. Втопку эту недотегру вместе с хуангом.
Jeter писал(а):
Но у Тегра есть преимущество в поддержке от NVIDIA, благодаря этому самые тяжелые игры будут работать нормально.
А я не школьник. Мне игры не нужны.
Jeter писал(а):
На Тегре скачал за деньги и все летает с дополнительными эффектами, а на других платформах - грабли. О каких конкурентах Вы говорите?
Разница в Антуту в 2-х раза была в сторону APQ8064 и работал аппарат с APQ8064 заметно быстрее и без такого ощутимого нагрева.
Нагрев в играх и бенчах. Там есть Antutu, в котором телефон набирает ~35k и никак не 41k.
Я никакого нагрева там не увидел. Там только пишут про температуру под нагрузкой CPU-ядер, которые нагревались до 43-46 градусов.. Никто и не спорит, что CPU-ядра должны нагреваться при максимальной нагрузке в тестах. Все таки это мощные ядра - Cortex A15. Там даже говорится, что на производительность ядер GPU в играх это не влияет - все работает плавно! Например: в Самсунговской Octa 5 стоят эти же 4 ядра Cortex A15, они имеют TDP-5.2 Вт, а у GPU-ядер TDP-3 Вт.. Это все равно меньше, чем у Snapdragon 600: CPU-7.2 Вт, GPU-4.55 Вт. Я говорил про троттлинг в режиме игр на Adreno 320, где сам GPU снижает частоты до 300 МГц, когда от высоких температур появляются лаги. Причем тут CPU, он в играх почти не нужен. Достаточно и одного ядра на частоте 1 ГГц.
yorka писал(а):
Время работы батарейки
Отличные результаты: в режиме ожидания держит до - 20 дней. Full HD видео крутит с включенном Wi-Fi на яркости экрана 100% почти - 8 часов. серфинг в интернете при включенном Wi-Fi и яркости экрана на 100% - 7 часов в режиме игр - 3 час. 20 мин. В целом: на игры, музыку, видео и т.д, тестеру хватило этого (Xiaomi Mi3 Tegra 4) больше чем на сутки - 26 ч. 37 мин. Разве Ваш дракон в играх дольше работает?
yorka писал(а):
Даже текстурки там отдельные.
Заметьте, детализированные текстуры, за которыми все охотятся.
yorka писал(а):
И вообще большинство игр пишется под PowerVR.
И что с того, разве у них графа лучше, чем на Tegra???
А это почти 30% Хватит уже нести бред, был у мне One X, устриц ели, самсунговский эксинос просто эталон качества, производительности и энергоэкономичности по сравнению с этой какашкой.
Это результаты в режиме энергосбережения!!! Откройте глаза, у них даже Samsung Galaxy S4 Active на Adreno 320 - работает в режиме игр почти 4 часа. Запомните на будущее: при полной нагрузке, GPU Adreno 320 высасывает аккумулятор за 1.5-2 часа, а вот чтобы он проработал 3 час. 40 мин, для этого его нужно перевести в режим энергосбережения (Powersave)!
энергопотребление Adreno 320
Вложение:
Adreno 320.jpg
Теперь убедились? Вот и делайте выводы сами, Adreno 330 - это удвоенный Adreno 320!
Bioskiller писал(а):
Хватит уже нести бред, был у мне One X, устриц ели
Вот Вы то и не несите бред, если в руках ничего не держали! Да, у HTC One X - были проблемы с высокими температурами и быстрым разрядом аккумулятора, но это были программные ошибки инженеров HTC, там ядра работали на максимуме без нагрузок, эти недочеты устранили с выходом нового программного обеспечения. К примеру: на старой прошивке, HTC One X мог разрядиться за несколько часов с отключенным экраном, а видео воспроизводил лишь - 3 час. 30 мин. После обновления прошивки - процессор перестал греться без нагрузок, а видео стал крутить на максимальной яркости и активным Wi-Fi до - 7 часов! Это на 90% больше, чем было раньше.
Bioskiller писал(а):
самсунговский эксинос просто эталон качества, производительности и энергоэкономичности по сравнению с этой какашкой.[/off]
Я Вам говорю как владелец Galaxy S3: самсунговский Exynos 4412 имеет меньшую производительность, чем Tegra 3! Более того, в плане энергопотребления они почти равны. И это несмотря на то, что самсунговский чип производится на более современном техпроцессе. В режиме игр при максимальной нагрузке, Exynos 4412 работает немного дольше благодаря своему Amoled экрану - 3 час. 45 мин. Tegra 3 хватает до - 2 час. 40 мин. Если делать честное сравнение с одинаковыми экранами, то разницы в режиме игр двух процессоров нет. Смотрите сами.
Meizu MX2 Exynos 4412
Вложение:
Meizu MX2.jpg
Так что, во всех режимах оба процессора работают одинаково. Но Tegra 3 - надежный и крепкий процессор, его разгоняли до немыслимых частот, а он работал стабильно. Самсунговские чипы менее надежные, несмотря на свою систему стабилизации температур, он частенько выходит из строя из-за перегрева. Некоторые с форума 4pda пытались его разогнать, результат - кирпич. В плане производительности он тоже жульничает, снижает частоты CPU и GPU после прогрева свыше 60 градусов, после чего в играх случаются тормоза. У меня в нижней части экрана где стоит процессор, появилось черное пятно. Со связью проблемы, во время разговоров частенько отваливается, предварительно просигналив в динамике несколько раз. Хотя в сравнительном обзоре писали, что связь он держит лучше, чем HTC One X. Если говорить мягко, я разочарован покупкой. В обзорах то писали что он самый крутой во всем. Я говорю ответственно, аппарат - хлам! Хорошо хоть купил за - 450$, но некоторые отвалили за него по - 1000$. Еще мне не нравится экран, тускловат на фоне ярких IPS! Что касается производительности, я писал об этом уже несколько раз. На протяжении двух лет нас обманывали, говорили о почти двухкратном превосходстве GPU Mali - перед Tegra 3, все это вранье! Все бенчмарки отдают победу Tegra 3:
AnTuTu Galaxy S3 vs HTC One X
Вложение:
AnTuTu _Galaxy S3 vs HTC One X.jpg
.
3DMark Galaxy S3 vs HTC One X
Вложение:
3DMark_2.0.jpg
У вас нет необходимых прав для просмотра вложений в этом сообщении.
Member
Статус: Не в сети Регистрация: 20.05.2007 Откуда: Россия
Jeter писал(а):
для этого его нужно перевести в режим энергосбережения (Powersave)!
На Mi2(S) в этом режиме работает только одно ядро процессора и включается минимальная подсветка экрана.
Цитата:
Для сравнения с предшественником мы решили попробовать сценарий игр, как наиболее ресурсозатратный. Ранее мы использовали для этого теста программу GLBenchmark 2.5.1 в режиме Egypt HD Battery, 100% Brightness, 60 FPS Max. В этот раз мы проверили и батарею повышенной емкости (результаты здесь и далее указаны в часы:минуты).
В нормальном режиме игр там три с половиной часа... Подсветка экрана кушает больше видеоадаптера .
Это все понятно, что подсветка влияет на общее время работы. Если бы мы слушали музыку, или читали книгу в темноте - это одно, тут высокая яркость не нужна. Но мы говорим о играх, о просмотре видео, здесь всегда тесты проводят на максимальной яркости. Любой экран 4.5-4.7 дюйма потребляет на максимальной подсветке до - 0.8 Вт/час, если только это не Amoled. Зная напряжение, емкость батареи и время работы в режиме игр, можно со 100% точностью вычислить энергопотребление процессора. например: смартфон Xiaomi MI3 (Tegra 4) имеет аккумулятор около 3000 mA/h, то есть емкость батареи равна - 11 Вт. В режиме игр смартфон проработал до 3 час. 30 мин. При энергопотреблении экраном 0.8 Вт - за все время игр, экран отъел 2.6 Вт от общей емкости батареи. Остаток остался 8.4 Вт. Чтобы узнать сколько потреблял сам процессор Tegra 4 в час, нужно разделить этот остаток на время работы в режиме игр. (8.4 # 3 час. 30 мин. = 2.65 Вт/час). Именно такое энергопотребление имеет Tegra 4 - в этой версии. Конечно, это младшая версия работающая на более низкой частоте. Я думаю, старшая версия будет потребляет больше на - 1 Вт.
Member
Статус: Не в сети Регистрация: 20.05.2007 Откуда: Россия
Jeter Я тебе уже написал. Открой обзор и посмотри еще раз. При яркости 100 кандел (что для помещения более чем достаточно) смартфон в режиме игр работает 3,5 часа...
При яркости 100 кандел (что для помещения более чем достаточно) смартфон в режиме игр работает 3,5 часа...
В таком случае, нужно у всех устройств замерять энергопотребление с отключенным wi-fi и на заниженной яркости экрана. Если все это применить, тогда этот Xiaomi MI-3 Tegra 4 увеличит время работы в режиме игр, как и Xiaomi MI-2 APQ8064 из таблицы.
Дело не в том, на какой яркости я играю. Просто замеры в режиме видео и игр, принято делать на максимальной яркости экрана, а процессор должен честно работать на - максимальной производительности. Дополнительные модули тоже должны быть включены, так как многие играют через сеть. Если одно устройство тестируется при максимальных нагрузках, то и другие нужно тестировать также. Если отойти от этих правил, то любое устройство может протянуть вдвое дольше. У меня Galaxy S3 в режиме игр протянет на максимальной производительности 3 час. 40 мин, а в режиме энергосбережения до - 6 часов.
yorka писал(а):
Давай тогда сравнивать с Snapdragon 800, а то APQ8064 как-то устарел...
А разве есть что сравнивать? Разве есть честные обзоры, в которых изучали этот вопрос, где все настройки ставили бы на максимум, выкручивали яркость на полную, включали Wi-Fi и проводили все тесты без предвзятости? Если есть такие тест-обзоры, покажите, будем обсуждать.. На известных ресурсах, очень часто - статьи заказные.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 13
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения