Бидон,ну слушай. Было уже 150000 тестов.Кто из них адекватен,тут уже вопрос.Но для себя я уже сделал вывод,что даже по тому миниальному я беру райзен. Ну потому,что платформа в любом случае проживет дольше.И мне не нужно менять мать и проц как в интеле.
_________________ Не читаю и не кликаю статьи говноблогеров и косплейщиков с 7.04.2019
Последний раз редактировалось megapyatka 20.03.2017 1:12, всего редактировалось 1 раз.
А особенно в приложениях активно работающих с памятью, т.е. рендерах
Тут совсем не все так просто. Рендеры - это весьма специфические приложения. Там данные разбиваются на куски сразу и отдельный поток берет рендеринг этого куска. Закончил берет следующих. То есть в рендеринге обмен между вычислительными потоками по факту вообще не идет. Поэтому и между кластерами там ничего не передается. А вот если надо не рендерит, а именно считать одну большую задачу на разных потоков с активным междупоточным взаимодействием. Вот тут к кузену и его кластерам и общей шине обмена и памяти могут возникнуть вопросы.
А рендерить в любом случае лучше на любой дискотеке. Его даже старинная nVidia или радеон 4 летний порвет в тяпки. В рендеринге. НА этих задачах CPU против GPU ловить нечего.
Добавлено спустя 1 минуту 36 секунд:
megapyatka писал(а):
Бидон,ну слушай. Было уже 150000 тестов.Кто из их адекватен,тут уже вопрос
Да они все одинаковые плюс/минус. О чем ты говоришь. Я понимаю мы тут троллим и кидаемся калом для смеха. Но я думаю никто же всерьез не видит различий Все уже давно понятно. И противоположных результатов и выводов никто не показал.
Member
Статус: Не в сети Регистрация: 16.11.2016 Откуда: 4967 Фото: 190
megapyatka писал(а):
кофилейк с 6-12 выпускают для кукурузы
Просто скоро Intel достигнет предела по кремнию, а дальнейший рост производительности будет возможен только увеличением количества количества процессорных ядер, если рассмотреть концепции которые были 90х -2000х с их гонкой мегагерц (вертикальное маштабирование) и 2008 - настоящее время (горизонтальное маштабирование) то понятно что в сегменте настольных пк в ближайшие 10 -15 лет надо ждать квантовые процессоры с массовым паралелизмом, а то чем мы пользуемся сейчас настигнет участь АВМ. То что Intel все труднее переходить на новые техпроцесы показали Broadwell и Kabylake.
Member
Статус: Не в сети Регистрация: 06.11.2007 Фото: 9
Bedon писал(а):
В рендеринге. НА этих задачах CPU против GPU ловить нечего.
Если вам снять видео и быстренько залить в ютюбчик, чтобы показать паре человек, тут без вопросов гпу транскодинг вне конкуренции. Если ты занимаешься профессионально рендерингом видео или даже полупрофессионально (какой-нибудь ютюбер-стриммер или человек выкладывающий бд-рипы) или просто хочешь хорошее качество, то гпу попросту отпадают. Проверено лично неоднократно и доказано неоднократно тестерами на том же ютюбе. Качество гпу транскодинга уступает в несколько раз обычному софтверному транскодингу.
зы QickSync очень хорош в малопроизводительных решениях интел, например в атомах или других мобильных чипах. У меня сейчас к телеку подключен Lenovo Stick там атом Z3735F и он отлично справляется с воспроизведением 4k видео не особо напрягая проц.
Последний раз редактировалось Sulphide 20.03.2017 3:39, всего редактировалось 3 раз(а).
Overhlopec
Статус: Не в сети Регистрация: 22.05.2006 Откуда: Москва
kisulja
Цитата:
мне ,конечно, до лампочки все эти лайки-нелайки, но все-таки интересно: почему у ролика больше минусов поставлено, нежели чем плюсов ? не в таком свете предстает объект тестирования ,как хотелось бы многим ?
Ну конечно же, дым без огня, не иначе. То что у других обзоров Ryzen минусов нет, вас не смущает?
Добавлено спустя 3 минуты 40 секунд: 1988_igor
Цитата:
Эффект толпы (стада) - ему миллион лет.
Но коснулся только одного обзора в интернете, вот такое вот "стадо" избирательное.
Ребят, скоро I.N. выкатит обзор (рано или поздно) вот тогда и посмотрим, что кривее, руки ютупчика, или ноги райзена.
Качество гпу транскодинга уступает в несколько раз обычному софтверному транскодингу.
Чудес не бывает комрад. Ну ты же взрослый и судя по постам не глупый человек. И наверно осознаешь что это не аналоговая техника. Тут не может быть теплого лампового звука даже гипотетически. Цифра она просто тупая цифра. 01010101 И где эта цифра считается, на каких считалках. ЦПУ, ГПУ, да хоть на северном мосту или контроллере SATA. Они от этого другими кроме как 1010101 не станут.
Поэтому качество этих нуликов и единичек представленных в изображении. МОжет определятся ТОЛЬКО алгоритмами и настройками конкретного декодера.
А говорить что ЦПУ-счет делает картинку красивей чем GPU счет Комрад. Ну правда не смешно.
Те кто умеет правильно настроить GPU кодинг получает на нем точно такую же картинку как и на центральном процыке. только гораздо быстрей.
Member
Статус: Не в сети Регистрация: 06.11.2007 Фото: 9
Bedon писал(а):
Те кто умеет правильно настроить GPU кодинг получает на нем точно такую же картинку как и на центральном процыке. только гораздо быстрей.
В том то и дело что настройки цпу транскодинга намного гибче. А вот например CABAC не может быть распараллелен, поэтому он такой же медленный как и на цпу.
"Highly irregular branching patterns (skip modes) and bit manipulation (quantization/entropy coding) don't suit present GPUs. IMO the only really good application at the moment are full search ME algorithms, in the end though accelerated full search is still slow even if it's faster than on the CPU." -- MfA Actually, basically everything can be reasonably done on the GPU except CABAC (which could be done, it just couldn't be parallelized). x264 CUDA will implement a fullpel and subpel ME algorithm initially; later on we could do something like RDO with a bit-cost approximation instead of CABAC. Because it has to do everything at single precision floating pointWrong, CUDA supports integer math. -- Dark Shikari
Дарк Шикари - один из мейнтейнеров x264.
Грубо говоря для гпу подходят только очень быстрые алгоритмы сжатия видео, которые дают на выходе плохое качество картинки.
Последний раз редактировалось Sulphide 20.03.2017 1:41, всего редактировалось 1 раз.
Да и потом, хоть когда-либо в истории процессоростроения, влияла ли материнская плата на FPS больше чем на 1%?
Влияла, я сравнил ASUS P9X79 и Supermicro X9SRi-3F с одним и тем же процессором Xeon E5-2670, и производительность последней меня не очень порадовала, на асусе память у меня пашет на 2477МГц CL14 -1T Triple channel, на Supermicro память работала на 1866Мгц (предел БИОСа) CL12 1T Quad channel, потеря производительности в BF1 составила порядка ~20%, на асусе я без проблем выжимаю абсолютно стабильные 120фпс, а вот на супермикро просадки до 90 случаются, да и вообще двузначные значения счетчика фпс не редкость. Т.е. так или иначе БИОС может очень сильно влиять на производительность.
_________________ Солдатушки-ребятушки, нашему царю показали фигу. Умрём все до последнего!
Друзья пора спать (у меня уже 0-45).Вроде как мы как в восторге от нового проца. Он вышел хорошим(тут как не крути).Стоит ли его менять? Лично мои плюсы для тех кто задумался. 1.Конечно.Он божественен. 2.Не нужно гнать НB.Достаточно купить быструю память 3200. 2.1700 наше все(для тех кому не терпится быть первым.) 3.Купить хороший винт на m2 (безусловно у интела это есть,но нет у АМД) 4.Дождаться второй ревизии материнок для ASUS(безумная,но божественная фирма) 5.Ждать погоревших пуканов. Может в что то не добавил.Добавляйте свое.
_________________ Не читаю и не кликаю статьи говноблогеров и косплейщиков с 7.04.2019
Member
Статус: Не в сети Регистрация: 06.11.2007 Фото: 9
devl547 писал(а):
Пусть парень уже хотя бы на x265 переходит, потому что h.264 уже несколько лет как устарел по качеству/битрейт.
В теории там все красиво на h265, на практике была статья на хабре - я не увидел улчшения картинки при одинаковом битрейте, местами картинка у 265 была хуже чем у 264. Cюда же можно отнести то, что 265 поддерживается не всеми теликами сейчас. Ну или еще очень много теликов, которые поддерживают только 264. Плат захвата тоже особо нет, либо они стоят как чугунный мост, например которые умеют 4k + 265 стоят далеко за 1000$. nVidia Только с 10х0 полноценно начала поддерживать аппаратный 265. Телефоны тоже 50/50 умеют 265. И надо знать что 265 был разработан не как конкурент 264. Он был разработан как улучшение 264 для кодирования видео размерами больше чем 4k, например 8k. На сколько я помню 264 не умеет 8k. Ну и 265 в разы затратнее по производительности, чем 264. Вобщем как по мне так время 265 еще не наступило.
Мемbеr
Статус: Не в сети Регистрация: 15.12.2006 Откуда: оттуда Фото: 74
Bedon писал(а):
Тут совсем не все так просто. Рендеры - это весьма специфические приложения. Там данные разбиваются на куски сразу и отдельный поток берет рендеринг этого куска. Закончил берет следующих. То есть в рендеринге обмен между вычислительными потоками по факту вообще не идет. Поэтому и между кластерами там ничего не передается. А вот если надо не рендерит, а именно считать одну большую задачу на разных потоков с активным междупоточным взаимодействием. Вот тут к кузену и его кластерам и общей шине обмена и памяти могут возникнуть вопросы.
А рендерить в любом случае лучше на любой дискотеке. Его даже старинная nVidia или радеон 4 летний порвет в тяпки. В рендеринге. НА этих задачах CPU против GPU ловить нечего.
В теории оно все круто. Расскажи нам, будь добр, как быстрее и качественней, чем на процессоре, отрендерить на видеокарте трехмерную сцену?
Member
Статус: Не в сети Регистрация: 09.01.2014 Откуда: Тамбов Москва ) Фото: 40
nixon2992 писал(а):
Просто скоро Intel достигнет предела по кремнию, а дальнейший рост производительности будет возможен только увеличением количества количества процессорных ядер
Скорей предел для текущих микроархитектур .
_________________ 7700k не раскрывает 1070 https://www.youtube.com/watch?v=RGTsWiNqU8Y Топ CPU не обеспечивают 60 fps -ШоК- https://www.youtube.com/watch?v=OZcCqnE5mRw
Member
Статус: Не в сети Регистрация: 21.05.2009 Откуда: г. Кемерово Фото: 61
Цитата:
SubL0ck Приедут видеокарты, соберу стенд по новой и можно будет сделать повторные тесты. Возможно, это будет даже лучше, т.к. изначально в системах была установлена GTX1080. С новыми Ti версиями какой-либо bottleneck будет на 100% исключен.
bios только обновите. У Вас же Asus C6H вроде? На нее 902 вышел недавно, много багов поправили и совместимость с памятью значительно улучшили. И память 3200 если не сложно.
Ущербный обзор, и не потому что там райзен слил, там куча других факторов. Кроссфаир у амд всегда кривой был, и за столько лет пора бы уже это знать, тем более если он тестер железа. Посмотри как у него все лагает на ОБОИХ платформах из-за кроссфаира, какой-там проц можно натестировать в таких условиях? Только лаги видеокарт считать. Зачем этот человек поставил на райзен режим памяти DDR4 2133(тормознее такого режима даже представить сложно, по-моему DDR2 1066 такой памяти зачетно прикурить даст) и начал тестить? (инфы в интернете полно и qvl есть, чтобы на такие грабли не наступать). Такая память и 2011 сокет в усмерть убьет. Ну и напоследок: 4К, кроссфаир, две Fury X и переход с 2 pci-e 3.0x16 на 2 pci-e 3.0x8. Ладно еще в FHD такое не заметно будет на средненькой вк, но в 4К это лагов добавит. Вот это точно руки из задницы у тестера растут.
_________________ Ryzen 5 3600 ASUS C6H 2*8 G.Skill FlareX 3200CL@3800CL16 Radeon RX Vega 64 Ref. Samsung EVO 970 250Gb
Member
Статус: Не в сети Регистрация: 06.11.2014 Откуда: Санкт-Петербург Фото: 3
Denisnd16 писал(а):
bios только обновите. У Вас же Asus C6H вроде? На нее 902 вышел недавно, много багов поправили и совместимость с памятью значительно улучшили. И память 3200 если не сложно.
уже новее пара вышла,через неделю-две ещё новее выйдет вместе с обновлённым микрокодом AGESA
Denisnd16 писал(а):
Кроссфаир у амд всегда кривой был, и за столько лет пора бы уже это знать
А вот чувак с этого канала так не считает и наглядно демонстрирует
переход с 2 pci-e 3.0x16 на 2 pci-e 3.0x8. Ладно еще в FHD такое не заметно будет на средненькой вк, но в 4К это лагов добавит. Вот это точно руки из задницы у тестера растут.
разница вообще понты и никак не влияет на лаги
_________________ AMD Ryzen Threadripper 1950x | Asus ROG Zenith Extreme | G.Skill Flare X 3200 Cl 14 (4x8) | 2x Asus GTX 1080ti ROG Poseidon Sli | Corsair AX1200i |
Member
Статус: Не в сети Регистрация: 21.05.2009 Откуда: г. Кемерово Фото: 61
Hurtman писал(а):
А вот чувак с этого канала так не считает и наглядно демонстрирует
Значит у тестера руки кривые, раз у него так кросс лагает жестко. (у меня был как-то 1,5 года кросс из 4850 (тогда я думал что это добавит прироста, а не в минус показатели уйдут), потом еще из 7850 (посмотреть что изменилось за несколько лет)) и была 9800GX2. Мне хватило этой хери от обоих лагерей, хотя SLI в этом сравнении был просто идеальным. Но багов шкалило у обоих вендоров.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 32
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения