Member
Статус: Не в сети Регистрация: 30.05.2010 Откуда: 812(78)
Jeter
Да даже если и так. Мощности- далеко не все. На тегре ты не поиграешь пальцем в третьих героев (vcmi не в счет, ему еще расти и расти до релиза). За х86 говорят десятилетия наработок по софту.
_________________ То, что мыслимо, то осуществимо.
Jeter На тегре ты не поиграешь пальцем в третьих героев (vcmi не в счет, ему еще расти и расти до релиза). За х86 говорят десятилетия наработок по софту.
Почему же не поиграешь? На планшете Shield - можно играть на пульте. Игры с компов, их уже тоже портируют на Android. На Тегру можно натянуть и винду, проблем нет. В скором времени так и будет. Но речь не об этом. Сегодня в мощных ноутах стоят процессоры с высоким энергопотреблением, которые за несколько минут разряжают их. Например, если использовать AMD Kaveri A 10 -7850K, его производительности хватает для современных игр (он до 10 раз мощнее предложенных вами A4-1200, A4-1350), но он потребляет под 100 Вт, а его цена около 180$! Есть еще более мощный и более производительный процессор Intel Core i7-4950HQ с TDP 47 Вт, но его цена вообще 623$! Ни первый, ни второй вариант для портативных устройств не подходят. Понимаете куда я клоню? Будущая Tegra Maxwell - будет иметь производительность в 2 раза выше относительно Tegra K1 и сопоставимую с процессорами Intel Core i7-4950HQ, но энергию будет потреблять меньше, чем Intel. Чисто по официальным данным от Хуанга, Tegra K1 расходует от 3 до 5 Вт максимум. Значит, если удвоить производительность сегодня при старом 28 нм техпроцессе, тогда и увеличится энергопотребление до 6-10 Вт. То есть вы примерно понимаете, что даже на старом техпроцессе - это будет зверь с невысоким TDP 10 Вт. Для информации: современные мобильные процессоры Exynos, MediaTek, Snapdragon - уже имеют максимальный TDP 8 - 12 Вт. Причем они слабее нынешней Tegra K1 в несколько раз, у которой TDP 5 Вт. Но переход на новый 20 нм техпроцесс снизит энергопотребление процессоров Tegra до 35%, еще 35% добавит в производительность переход на новую архитектуру Maxwell. Выходит, переход на новый техпроцесс и новую архитектуру сам по себе даст прибавку к производительности до 70% - без превышения лимита нынешних 5 Вт. Для игрового ноута можно иметь процессор с TDP 25-50 Вт - это нормально, конечно, если работающий в нем GPU будет иметь и высокую производительность 700-800 GFLOPS. Если Tegra K1 уже сегодня выдает больше 330 GFLOPS - при потреблении 5 Вт, у нее есть все шансы вытянуть и более 1000 GFLOPS прямо сегодня, пусть даже на старом техпроцессе и с TDP 15-20 Вт. Для ноутов, планшетов и других устройств - это будет предостаточно в самых тяжелых играх! Лишь бы Хуанг не тянул долго. P.S. Кстати говоря, будущие процессоры Tegra Maxwell при равной производительности с процессорами Intel Core i7-4950HQ, думаю, вряд ли они будут стоить до 700$
Последний раз редактировалось Jeter 20.08.2014 22:53, всего редактировалось 1 раз.
Jeter Портируют еденицы игр. Нативно можно играть во что угодно. Без портирования.
Так при чем тут портация игр? Я говорю о том, что через пару лет в ноутах и других устройствах на Windows будут стоять мощные процессоры (может и не Tegra), которые будут потреблять 10-15 Вт при производительности GPU 1000 GFLOPS!!!
AIIIOT писал(а):
PS В еоуты никто не ставит 100w процессоры.
Ну да, тоже мне скажете. В дорогие и мощные ноуты пихают 1000$ Core i7, и еще туда суют по 2 мощные видеокарты!
AIIIOT писал(а):
там 20-25 на самых больших 30w печки.
У меня в ноуте такой же на 25 Вт, так на нем вообще игры идут в слайд-шоу 5 FPS, более новые вообще не работают! Так как графика у меня на 20 GFLOPS - это уровень стареньких Mali-400MP4. Я же вам здесь пишу совсем о другом, разве нет? Или вы не можете понять разницу между чипом (25 Вт с графикой 20 GFLOPS), и чипом (25 Вт с графикой 1000 GFLOPS)???
Добавлено спустя 33 минуты 7 секунд:
AIIIOT писал(а):
Про натягивание x86 винды на АРМные тегры- это полный бред. А АРМная винда x86 код не воспринимает. А x86 нвидии никто не даст.
Ну это же не аппаратная проблема, софт все научит понимать. Архитектуре x86 уже давно пора на свалку, об этом еще говорили в ARM пару лет назад, мол чтобы Intel перестала заниматься ерундой и лицензировала их ядра для производства. Сегодня уже Nvidia создала свои ядра Denver для нового процессора Tegra, они в 2 раза мощнее 4 ядер Cortex A15. Так что, если они не откажутся от устаревшей архитектуры x86, их процессоры уже совсем скоро будут не только слабее ядер Denver, но и будут потреблять больше энергии!!! Кто их будет покупать? Кому они нужны будут? Я же вам все подробно расписал на примере процессора Core i7-4950HQ ценой 623$, вы не читали что ли? Будущая Tegra Maxwell - будет иметь ту-же производительность при цене, я так думаю, максимум 50$. Вы вообще способны уловить разницу? Вы сами то какой процессор купите, у которого цена 600$, или, у которого цена 50$??? Причем, если они оба с равной производительностью. То есть я хочу сказать, что Intel не откажется от своих высоких цен. Ведь AMD уже сделала процессор равный по производительности за 180$, но Intel продолжают пихать свой за 623$
AIIIOT писал(а):
PS ты же не веришь официальным кадрам от главы нвидии? Обычно его кадры имеют мало общего с готовым продуктом. И так было всегда.
Если честно, верю. Про Tegra 4 тоже говорили всякой дряни, что она потребляет больше 10 Вт, по Хуанговским данным 3.7 Вт. Потом были тесты и они подтвердили, что Tegra 4 вместе со всеми экранами и моторами, не потребляет больше 4-5 Вт.. Потом была Tegra K1 - та самая, у которой GPU на 192 ядра (до 380 GFLOPS - 950 МГц). Ее оклеветали все кому не лень, даже представители из Qualcomm. Говорили, что она потребляет 40-60 Вт, но тесты показали, что чип реально кушает 3-5 Вт на примере Xiaomi Mi Pad.
Member
Статус: Не в сети Регистрация: 30.05.2010 Откуда: 812(78)
Jeter Я видел "ноутбук" с десктопным i7. Производства европантер. Один раз в жизни. Он позиционировался, как "условно мобильная графическая станция" и весил 6 кило, а от зарядки работал час. Мы говорим про нормальные ноуты. Коих 99.9% на рынке. Обычный ноутбучный i7 это около 35w. ULP от 15. А две мощные видеокарты- только по своему индексу походят на мощные, сливая десктопному миддлу по производительности.
Jeter писал(а):
Я говорю о том, что через пару лет в ноутах и других устройствах на Windows будут стоять мощные процессоры (может и не Tegra), которые будут потреблять 10-15 Вт при производительности GPU 1000 GFLOPS!!!
Старичок Мур с тобой категорически не согласен.
Jeter писал(а):
Архитектуре x86 уже давно пора на свалку, об этом еще говорили в ARM пару лет назад,
Если тебе нет 20 лет- то подобные речи шли еще до твоего рождения. Были даже кое какие попытки пойти дальше слов. Последний крупный слив этой идеи был с архитектурой IA64(VLIW. EPIC). Причина- софт накопленный за десятки лет. Ну не готовы массы снова целину поднимать. 1-2% линуксоидов+ машины специального назначения не в счёт.
Jeter писал(а):
Про Tegra 4 тоже говорили всякой дряни, что она потребляет больше 10 Вт, по Хуанговским данным 3.7 Вт. Потом были тесты и они подтвердили, что Tegra 4 вместе со всеми экранами и моторами, не потребляет больше 4-5 Вт..
При этом мощности тегры далеко не равны заявленым. У меня есть и устройства на тегре. ouya под арчем используется для воспроизведения видео на телевизоре. Я знаю, что она может. не сильно впечатлен. Хотя слайды были тоже офигенными.
_________________ То, что мыслимо, то осуществимо.
Jeter Я видел "ноутбук" с десктопным i7. Производства европантер. Один раз в жизни. Он позиционировался, как "условно мобильная графическая станция" и весил 6 кило, а от зарядки работал час. Обычный ноутбучный i7 это около 35w. ULP от 15. А две мощные видеокарты- только по своему индексу походят на мощные, сливая десктопному миддлу по производительности.
Да, такие мощные ноуты не выпускали массово, их делали всего несколько не очень известных фирм. Я смотрел это по спутниковому каналу. Там говорилось буквально следующее: "такая-то" фирма выпустила игровой ноутбук и умудрилась туда впихнуть Core quad Extreme edition за 1000$, две видеокарты вроде бы NVIDIA GTX280, или GTX285... У него после разбора были видны по всему дну тепловые трубки и т.д.. Это были реальные самые мощные комплектующие на то время, а не так как сегодня принято называть слабую видеокарту от ноутбука - именем мощной карты.
AIIIOT писал(а):
Старичок Мур с тобой категорически не согласен.
В чем именно не согласен, из того что я написал?
AIIIOT писал(а):
Если тебе нет 20 лет- то подобные речи шли еще до твоего рождения. Были даже кое какие попытки пойти дальше слов.
Ну так жизнь не стоит на месте? Если уже NVIDIA, Apple создали процессоры, которые легко могут потеснить Intel, потребляя меньше энергии. На скрине ниже посмотрите, как Apple приблизилась к Intel Core i7 4770K со своим A7 с результатом (1399 баллов/ядро) - на низкой частоте 1.3 ГГц. Процессор Intel работает на частоте в 3 раза выше, именно поэтому и результат выше. Я и сам не верил, что такое возможно. Сам наблюдаю за отчаянными попытками AMD уже много лет, но у них ничего не выходит. Да, в разгоне на 5 ГГц - он нагоняет Intel, но при этом он потребляет до 250 Вт Реально, если A7 разогнать до 3.5 ГГц и добавить еще 2 ядра, он покажет результат как мощный Core i7 4770K.
Geekbench 3
Вложение:
Geekbench 3.jpg
AIIIOT писал(а):
При этом мощности тегры далеко не равны заявленым.
О чем вы, можно подробнее?
AIIIOT писал(а):
У меня есть и устройства на тегре. ouya под арчем используется для воспроизведения видео на телевизоре. Я знаю, что она может. не сильно впечатлен. Хотя слайды были тоже офигенными.
О каких слайдах идет речь, и что вас не устраивает в этом древнем чипе? Игры она тянула прекрасно, лучше моего Adreno 320. Очень странно слышать такое. Развивайте мысль?
У вас нет необходимых прав для просмотра вложений в этом сообщении.
Member
Статус: Не в сети Регистрация: 30.05.2010 Откуда: 812(78)
Jeter Их и сейчас делают: Но не ставят туда десктопных видях. И не ставили никогда. Не отвести столько тепла. 120w от i7 еще можно, 500 от топовых видях никак. Это физика мой друг. http://www.eurocom.com/ec/main%28%29ec
Jeter писал(а):
В чем именно не согласен, из того что я написал?
Скажу иначе: Твои слова явно противоречат закону Мура.
Jeter писал(а):
Ну так жизнь не стоит на месте? Если уже NVIDIA, Apple создали процессоры, которые легко могут потеснить Intel, потребляя меньше энергии. На скрине ниже посмотрите, как Apple приблизилась к Intel Core i7 4770K со своим A7 с результатом (1399 баллов/ядро) - на низкой частоте 1.3 ГГц. Процессор Intel работает на частоте в 3 раза выше, именно поэтому и результат выше. Я и сам не верил, что такое возможно. Сам наблюдаю за отчаянными попытками AMD уже много лет, но у них ничего не выходит. Да, в разгоне на 5 ГГц - он нагоняет Intel, но при этом он потребляет до 250 Вт
Я оставлю это вообще без комментариев. Надеюсь ты сам поймешь где и почему.
PS это уже не смешно, чувак.
_________________ То, что мыслимо, то осуществимо.
Jeter Я оставлю это вообще без комментариев. Надеюсь ты сам поймешь где и почему.
PS это уже не смешно, чувак.
А я здесь и не веселюсь. Без комментариев? Так не пойдет. Если вы думаете, что я чего то не понимаю, потрудитесь объяснить. Я пытаюсь вам объяснить, что при равных количествах ядер, при одинаковых техпроцессах, при одинаковых частотах - процессоры Intel полностью сольют процессорам ARM! Если вы можете этому возразить, тогда докажите обратное. Что касается меня, я свою точку зрения готов отстаивать.
Member
Статус: Не в сети Регистрация: 30.05.2010 Откуда: 812(78)
Jeter Хорошо. Я надеялся, что моя реакция сподвигнет тебя на самостоятельное изучение матчасти. Но если ты такой лентяй- обьясню:
Во первых: Равнять RISC и CISC процессоры одной меркой по меньшей мере глупо. Подучи наконец матчасть и сам ответь мне почему.
Во вторых- то, что x86 на 90% состоит из костылей- никто особо и не скрывает. И там где производительность критична- работает адаптированный х86. Посмотри на top500 какие решения используются для первой числодробилки в мире, где действительно важна производительность на ватт. Xeon Phi конкурирует с Nvidia tesla и VLIW процами от IBM вполне себе успешно.
х86 до сих пор на коне от того, что под нее софта полным полно. И конца-краю этому в обозримом будущем не видно.
IA64 проталкивали Интел и HP. Даже у них не получилось. Хотя Интел готовы были своими руками зарезать х86 в пользу новой архитектуры. Не говоря уже об эффективности, современности, отсутствии такого кол-ва костылей.
В массы пошел совместимый AMD64. Итаниумы потихоньку умерли и в серверах.
_________________ То, что мыслимо, то осуществимо.
Равнять RISC и CISC процессоры одной меркой по меньшей мере глупо. Подучи наконец матчасть и сам ответь мне почему. Во вторых- то, что x86 на 90% состоит из костылей- никто особо и не скрывает. И там где производительность критична- работает адаптированный х86.
Мне нет никакого дела до RISC и CISC процессоров! Я не собираюсь здесь рассуждать о костылях той или другой архитектуры и других их проблемах.. Есть процессоры ARM, на которых все работает лучше, чем на процессорах Intel! Все, остальное все бред. Уже прошли времена, когда процессоры Intel были в 20 раз производительней, чем процессоры на ядрах ARM. Бенчи - вам доказательство! На данный момент, процессор Apple A7 на низкой частоте 1.3 ГГц одним ядром выдает 1400 баллов при TDP 2 Вт - это половина от того, что выдает Intel Core i7 4770K. На равных частотах процессор A7 сравняется, возможно, даже обгонит его. Конечно, TDP у A7 взлетит пропорционально разгону до 3 раз. Из этого я делаю вывод, если одно разогнанное ядро процессора Apple A7 на частоте 3.5 ГГц будет мощнее, чем одно ядро процессора Intel на такой же частоте, тогда 4 ядра Apple A7 будут потреблять до 24 Вт. Это в 3 раза меньше, чем потребляет Intel Core i7 4770K. А если процессор Apple A7 перевести на новый 22 нм техпроцесс, он будет потреблять всего 18 Вт! Вы же не будете отрицать, что производительность возрастает пропорционально разгону? Если будете, то вот вам наглядный скрин моего Sony Xperia Z. На нем четко видна производительность ядер CPU - относительно рабочей частоты.
Geegbench_Sony Xperia Z
Вложение:
Geegbench 3 Sony Xperia Z.jpg
Пруфы - это вещь упрямая. Если можете, опровергните их. Еще раз повторяю, еще никто не смог опровергнуть высокую производительность и энергоэффективность процессорных ядер ARM! Intel как то раз пыталась всех обмануть поддельными тестами, но ARM ее быстро опустила и сказала:
Код:
перестаньте заниматься ерундой со своей устаревшей, прожорливой архитектурой. Лучше лицензируйте наши ядра и начинайте выпускать процессоры на архитектуре ARM.
AIIIOT писал(а):
х86 до сих пор на коне от того, что под нее софта полным полно. И конца-краю этому в обозримом будущем не видно.
Софта и на Android хватает. Но, повторяю еще раз! Если будет воля, полноценную винду запилят и на ARM ядрах! Ведь работают же смартфоны c Windows 8 на ARM?
У вас нет необходимых прав для просмотра вложений в этом сообщении.
Member
Статус: Не в сети Регистрация: 30.05.2010 Откуда: 812(78)
Jeter писал(а):
Есть процессоры ARM, на которых все работает лучше, чем на процессорах Intel! Все, остальное все бред.
Инженеры которые получают свои немалые деньги для проектирования числодробилок/где нет никаких софтовых ограничений, только флопс на ватт, софт будут писать под железо, а не наоборот/ так не считают. То, что ты считаешь себя умнее лучших специалистов в области говорит, как минимум, о твоей незрелости.
Добавлено спустя 1 минуту 14 секунд:
Jeter писал(а):
Если будет воля, полноценную винду запилят и на ARM ядрах! Ведь работают же смартфоны c Windows 8 на ARM?
Что такое винда без софта? Кому она нужна? Ты осознаешь, что на ARM билдах windows(RT или WP) не запускается x86 софт?
PS Ты не сможешь полноценно понимать как оно работает, пока меряешь производительность гикбенчем. Сожалею, но если ты хочешь во всем разобраться тебе придется изменить это мнение:
Цитата:
Мне нет никакого дела до RISC и CISC процессоров! Я не собираюсь здесь рассуждать о костылях той или другой архитектуры и других их проблемах..
Пока тебе нет дела до основ, пока у тебя есть пробелы в базисныз академических знаниях, нам просто не о чем с тобой разговаривать. Если у тебя появится желание копнуть чуть глубже- погугли. Если у тебя появятся какие нибудь конкретные вопросы- задай их мне или тут на тематическом форуме. Тебе с радостью ответят, я уверен. Я дал тебе довольно много наводок куда следует копать в нашей беседе. Я привел тебе конкретный пример из практики отославшись на top500. Желание понимать или дальше мерить производительность разных архитектур процессоров гикбенчем- это твой личный выбор.
_________________ То, что мыслимо, то осуществимо.
Желание понимать или дальше мерить производительность разных архитектур процессоров гикбенчем- это твой личный выбор.
Это еще почему только мой быбор? Все меряют производительность в бенчах - они все паказывают правильно. Если есть производительность, бенчи ее показывают, а если ее нет - то нет! Или вы хотите сказать, что в реальных приложениях процессоры на ядрах ARM работают медленнее, чем на x86? Ничего подобного! Запустите любые одинаковые приложения на ядрах ARM и тогда убедитесь, что на них все быстрее работает. Вот, прогнал свой ноут в бенче на разных частотах. Как и следовало ожидать, его процессор слабей процессоров на ARM ядрах при равных частотах! Если мой Intel Core 2 Duo T6600 2.19 GHz разогнать в 2 раза до частоты 3.8-4.0 ГГц как и Intel Core i7 4770K, то и результат будет одинаковый.
Core 2 Duo T6600 2.19 GHz vs 1.1 GHz
Вложение:
Fujitsu A1220.jpg
Это вам еще одно доказательство. Факты - вещь упрямая!
AIIIOT писал(а):
Пока тебе нет дела до основ, пока у тебя есть пробелы в базисныз академических знаниях, нам просто не о чем с тобой разговаривать.
И это говорит человек, который не может привести никаких доказательств в свою пользу! Рассуждать о софте, программном программировании и т.д. - это все делается на бумаге до создания конечных продуктов. Я же предлагаю сравнить конечный продукт во всех его возможностях. Если не хотите мерить бенчями, давайте пойдем на тесты в реальных приложениях. Например, кодирование видео, игры.. Докажите, что вы умнее меня? Иначе, все бред.
У вас нет необходимых прав для просмотра вложений в этом сообщении.
Только те кому не хватает мозгов докопаться до сути, без обид.
Суть в том, что ядра ARM архитектуры могут больше - при меньших энергозатратах. И все бенчи это подтверждают, а с моими мозгами все в порядке!
AIIIOT писал(а):
Сложно приводить доказательства человеку, который утверждает, что:
Вы мне напоминаете ребенка, который сосет сахар через стекло и думает что это вкуснее, чем питье самого лимонада. Ferrari без двигателя не поедет, сколько бы вы его не толкали. Я понимаю, чтобы вытеснить архитектуру x86, на это уйдет несколько лет. Ведь ARM разрабатывает свои ядра для мобильных устройств. На данный момент мощные игровые ПК собираются из дорогих и мощных видеокарт, а таких мощных мобильных чипов еще не производят. Но если сегодня не начать производить мощные процессоры на ARM хотя бы для ноутбуков с TDP до 50 Вт, то прогресс так и будет стоять на месте. Планшеты всем скоро надоедят, а покупать дорогие процессоры Intel никто не хочет. Ничего особенного в процессорах Intel нет, скоро уже видеокарты сами будут выполнять инструкции CPU. Роль самого процессора в компе не очень значительна. В будущем он может и вовсе исчезнуть из ПК. Сегодня в компах процессоры работают очень медленно, на ARM все куда живее. Встает вопрос, а зачем они вообще нужны? Я бы еще понял, если бы ARM процессоры выполняли в мобильных устройствах часть кода, но они могут выполнять любые инструкции. Все эти годы Intel держалась на плаву за счет хитрого маркетинга. Производительность они наращивали увеличением частоты, а энергопотребление снижали переходом на новый техпроцесс. На моем скрине в предыдущем посте видно, что между топовым и старым процессором нет никакой разницы, если делать тесты на равных частотах. Все остальное, больше кэша памяти, улучшения архитектуры - это все мелочи, которые больше смахивают на маркетинг..
AIIIOT писал(а):
Посмотри как и на чем делают числодробилки те умные дяди которые имеют профильное образование.
Для чего мне туда смотреть? Пусть туда смотрят инженеры проектировщики! Вы и сами то не знаете, чем Intel ''лучше", в противном случае сказали. А еще пытаетесь здесь умничать. Наверно вы и не знаете как работают и бенчмарки, иначе знали бы, что они выполняют те-же самые операции в тестах c CPU, GPU, скорости памяти, и т.д. И если бы мобильные SoC работали медленно, то и циферки были бы совсем другие! А если вас послушать, так это все фуфло. Я выполнял разные задачи как на компе, так и смартфонах с разными процессорами и разными частотам. Именно поэтому, мне есть с чем сравнивать. Какие еще умные дяди? А в ARM что, там сидят те самые глупые дяди, которые насмехаются над Intel? Они им открыто заявили, чтобы те перестали заниматься ерундой с их ущербной архитектурой. Так еще никто не опускал гигантов. На самом деле Intel прекрасно понимает, что их процессоры в скором будущем не смогут конкурировать с ARM, потому то и пытаются всех подкупать спихивая даром никому ненужные камни. Им просто стыдно это признать. Ведь тогда от них отвернутся все покупатели, которых они лоховали все эти долгие годы. И только такие как вы по прежнему верят, что они сделают что то конкурентное. Шиш вам, уже не сделают. Если только, не начнут сами переход на ARM. Тесты вам в помощь.
Jeter Как я понял наш разговор зашел в тупик. За сим откланяюсь.
Это не разговор зашел в тупик, а вы вместе с Intel в тупике. Нельзя отрицать правду только потому, что вы в это не хотите верить. Если вам покажут гоночный заезд, в котором запорожец уделает более скоростной кар, вы тоже не поверите своим глазам? Так почему же тут все истинные доказательства отрицаете? Были времена, когда ядро ARM тащилось с 10 кратным разрывом от процессоров Intel, эти времена уже оставьте в прошлом.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 12
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения