Member
Статус: Не в сети Регистрация: 09.07.2022 Фото: 2
max77 писал(а):
TM1 а проц то стабильный?ну я так....спросить
Вроде, да. VT3 держит. Из моих наблюдений, VT3 греет проц, карху греет память. Но опять же, это 14 поколение, тут всякое может быть.
Добавлено спустя 4 минуты 47 секунд:
CHiCHo писал(а):
TM1 Авто са слишком высокий для твоей частоты, и ломает картину. Ставь 1.1, потом снизишь еще. Вддк высокий! Тебе нужен не выше 1.35 и шагать вниз.
Сразу 1.1 SA я не рискнул, пока 1.18. 60 минут полет нормальный. После двух часов перепроверю с перетренировкой.
Стабильность то есть, то ее сразу нет. Ошибка вышла на 1 часу 41 минуте. После перетренировки - сразу после 39 секунд.
Понизил SA дальше до 1.12 - 58 секунд. Попробую vddq на 1.35, потом менять плашки местами.
1.35 не помогло. Поменял плашки местами - лучше не стало. Когда менял обратно, ближняя к процу плашка была заметно горячее (проц вода), так что первоначальное положение было оптимальным.
Если не выходит по частоте вниз, попробую потом вверх. Если никак, то или проц переставлю, или 6800.
Прошил биос. Пока не знаю, помогло или нет, но пока прошивал, смотрел билдзоида про 7600адай на АпексАнкор (https://www.youtube.com/watch?v=2EqzMcmbR_I) и пришел прокомментировать, что не всегда его совету можно следовать, из за его одной фразы (на 56м30с), что при однократной проверке стабильности по карху, напряжение 1.65 «значительно более стабильно», чем при меньших VDD.
Member
Статус: Не в сети Регистрация: 24.03.2006 Откуда: Moscow Фото: 266
TM1 писал(а):
не всегда его совету можно следовать, из за его одной фразы (на 56м30с), что при однократной проверке стабильности по карху, напряжение 1.65 «значительно более стабильно», чем при меньших VDD.
не стоит сравнивать его видео с твоим опытом. Он гонит 7600-32-44-38, что есть 8.42 нс на китайских палках, и это само по себе трудно даже на хорошем бине, ниже 8.5 нс уйти трудно. Ровно поэтому он и пишет про высокий вдд. У тебя 7600с36, это 9.47 нс, у него на 11% быстрее.
Member
Статус: Не в сети Регистрация: 09.07.2022 Фото: 2
DonKarlosOn писал(а):
TM1 писал(а):
Если и это не поможет, прошью новый биос
С этого надо было начать
Биос - только как крайние меры. 6800, который был стабилен, 7000, 7200 не стартуют совсем. 7600 лучше не стало. И производительность проца упала с 15000 до 13200 попугаев. 6000 еще стартует. 7800 тоже, но в тесте теперь вылетает за секунды.
Member
Статус: Не в сети Регистрация: 11.05.2009 Откуда: Тольятти
Я смотрю есть разные памяти UDIMM и CUDIMM и просто DIMM. Есть ли разница для 12700K
_________________ Только этой зимой!RTX 3090 согреет сильнее, чем две девушки одновременно! Все это уже в прошлом 4090 согреет сильнее, чем три девушки
Добрый вечер. Vdd (swa) - на что влияет ? Насколько до упора его можно опускать ? Почему когда я ставлю VDD SWA и SBA на 1.410, то Swa на обеих планках прыгает максимум до 1.425, а вот SBA На одной планке прыгает аж до 1.440, а на второй только до 1.425 ?
7800 для игр делать или максимально ужатые 6800 ?
_________________ 14700k Asus ROG MAXIMUS Z790 APEX ENCORE G.Skill DDR5-7200 32gb Trident Z5 RGB (F5-7200J3445G16GX2-TZ5RK) Msi 4070 gamingX Aio - MSI MAG CoreLiquid E360
Последний раз редактировалось Pryanik28 02.12.2025 0:49, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 09.07.2022 Фото: 2
VT3, TM5 проходят, а Карху: при размере проверяемой памяти по умолчанию (ок.28 ГБ) на 28 потоков - ошибка, на 8 потоков - ошибка, ставлю 24 ГБ - идет (проверял примерно тот же интервал времени, что и другие проверки).
Внимание, вопрос: может ли это быть связано с виртуальной памятью при работе именно Карху?
При 8192 МБ виртуальной памяти и при плавающем размере тоже ошибки в Карху были (меньший размер 24ГБ так пока не проверял). зы: да, биос я вернул, как видно в мемтвикит, поставил чуть поновее, прошлогодний, но до ограничений, и 6800 снова работает, а 7600 - под вопросом.
Advanced member
Статус: Не в сети Регистрация: 27.02.2007 Откуда: Москва Фото: 113
TM1 писал(а):
Внимание, вопрос: может ли это быть связано с виртуальной памятью при работе именно Карху?
Все чипы разные. В том числе и каждый чип на модуле тоже разный, они неодинаковые. При уменьшении тестируемого объема ты просто перестал грузить тот чип, который оказался слабее прочих и давал ошибку. Если хочется тестировать нормально, то грузись с флэшки с WinPE и запускай карху там. Хотя это не только карху касается, а любых тестов вообще.
Member
Статус: Не в сети Регистрация: 24.03.2006 Откуда: Moscow Фото: 266
TM1 карху - обычно нехватка вдд памяти. Можно по хардкору отключить своп файл, и тестить карху на 90% доступной памяти, ну или оставлять в доступе системе 500 метров, подобрав объем. скрины лучше делать с хвинфо на несколько разверток, хотя бы 2-3.
Advanced member
Статус: Не в сети Регистрация: 13.05.2020 Откуда: Мытищи
HertZ писал(а):
При уменьшении тестируемого объема ты просто перестал грузить тот чип, который оказался слабее прочих и давал ошибку
Не перестал. При уменьшении тестируемого объёма ОЗУ - не происходит автоматического исключения каких-то чипов - КП продолжит использовать все физические адреса, но в ограниченном диапазоне. Это не исключает дефектные чипы из теста. Просто падает вероятность их обнаружения.
Да, КП работает с физическими адресами, но распределение данных между чипами зависит от алгоритмов чередования и др.. Это может временно скрыть ошибки. Кроме того, есть легко обнаруживаемые (например, Refresh-дефекты при утечке заряда >64 ms) и очень трудно обнаруживаемые ошибки (например, когерентные сбои, когда нарушаются согласованности данных между компонентами, которые должны работать синхронно). Так вот, примерная вероятность обнаружения ошибок даже при использовании теста Y-Cruncher VT3, составляет: когерентных всего 30%, температурные дефекты 50%, Refresh-дефекты 60%. Комбинация методов тестирования сильно повышает успех обнаружения.
Аппаратные механизмы, скрывающие дефекты: On-Die ECC (корректирует 1-битные ошибки прямо на чипе), Post Package Repair (переназначает дефектные банки на резерв, это физические повреждения), чередование адресов (распределяет данные между чипами), кеширование (обходит временную ошибку). А есть еще программные механизмы, скрывающие дефекты: Bad Block Mapping (на уровне ОС), тот же троттлинг (температурно-зависимые ошибки), страничная подкачка и т.д.
Пример взаимодействия при доступе к памяти. Кратко.
В защищённом режиме процессор и L1-кэш работают с виртуальным адресом, а L2, L3 и RAM — с физическим. Трансляцией адресов из виртуального в физический, а также проверкой прав доступа занимается блок управления памятью (MMU - Memory Management Unit). В Intel 12–14Gen, MMU расположен внутри ядра CPU (каждое ядро имеет свой MMU). Контроллер памяти (IMC) встроен в Uncore-область CPU. Пример: Приложение запрашивает виртуальный адрес 0x7FFD89ABCDEF. MMU преобразует его в физический адрес через TLB/таблицы страниц. Проверка прав: запрет записи в read-only страницу. Физический адрес 0x1A3F0000 передаётся в IMC. IMC определяет номер канала DDR5, банк и строку в модуле памяти, тайминги. MMU работает на уровне абстракции (виртуальная память, права), а IMC — на физическом уровне (электрические сигналы DDR5)
Advanced member
Статус: Не в сети Регистрация: 27.02.2007 Откуда: Москва Фото: 113
Bigsun, если выделяешь один большой и нефрагментированный блок и нет необходимости дать память кому-то ещё, то он вполне себе проецируется на физические адреса, без особых неожиданностей. Чередование не задействует магически чипы, которые задействовать просто не под что и нет необходимости этого делать. Это не SSD и выравнивание нагрузки тут не требуется, кроме как для предотвращения конкретных проблем… Вроде реализации уязвимостей, которые существуют и никуда не денутся из-за фундаментальных проблем самой DRAM, как таковой (Rowhammer, Zenhammer и далее по списку аналогов). Зависит от конкретного алгоритма, но бритву Оккама никто не отменял, а наиболее простой и легко реализуемой схемой является сценарий, в котором адреса могут быть в любой момент вычислены с помощью линейной функции.
Иное возможно, поскольку извращаться никто не запрещает. Однако же, с трудом представляю себе сценарий, в котором чередовать блоки в начале адресного пространства с блоками в его конце было бы хоть чем-то полезно. А вот возможный геморрой в результате такой «оптимизации» представляю себе вполне отчетливо, особенно когда дело дойдет до необходимости куда-то разместить служебные регионы памяти, которые не должны быть доступны никому, включая операционную систему. На практике видел всего один случай, когда гражданам пришло в голову зеркально вычислять адреса и они смогли теоретически обосновать, почему это выгодно делать именно так. Именно поэтому им дали премию, а не уволили нафиг.
В любом случае, всё это относится только к одной ситуации, когда есть сценарий и он четко воспроизводится. Условно, при 40 Гб тест пройден, при 45 Гб тест не пройден. Всегда. Без поправок и допущений, вроде «ну тут просто тест заглючил, это не считается» и без «случайных» успешных проходов. Иначе это просто стохастически проявляющаяся проблема, и её обнаружение или необнаружение в конкретном прогоне теста не говорит ни о чем. И тогда да, возможно наложение кучи самых разнообразных факторов (коррекция ошибок, алгоритмы оптимизации, разный нагрев модулей, да хоть случайное «исправление» ошибки повторной ошибкой даже) друг на друга, которые будут очень смешно влиять.
Вот пример:
Вложение:
IMG_3537.png [ 2.3 МБ | Просмотров: 595 ]
Вложение:
IMG_3538.png [ 2.41 МБ | Просмотров: 595 ]
Тестирование оперативной памяти и подбор настроек уже очень давно стал неформализуемым процессом, граничащим с темными искусствами.
Так что скоро будем коллективно делать поглаживания чипов во время прохода тестов.
Member
Статус: Не в сети Регистрация: 06.02.2020 Откуда: Кинешма Фото: 172
Не зря прибарахлился F5-8200J4052F24GX2-TZ5RW на 48 по 21500 неделю назад, свою старую pvvr532g560c36k по идее могу за 20 толкнуть и считай баш на баш. В жизни есть несколько вещей на которые можно смотреть бесконечно, как течет вода, горит огонь и дорожает то что ты купил по низу рынка не по дням а по часам.
Member
Статус: Не в сети Регистрация: 09.07.2022 Фото: 2
TM1 писал(а):
VT3, TM5 проходят, а Карху:28 ГБ- ошибка, ставлю 24 ГБ - идет
Это было случайное совпадение с 24ГБ на 7600 - ошибки тоже. Ни повышение VDD до 1.65, ни понижение VDDQ до 1.3, ни отключение файла подкачки - пока не помогли. Посижу на 6800.
Добавлено спустя 6 минут 51 секунду:
HertZ писал(а):
подбор настроек уже очень давно стал неформализуемым процессом.
Размышляю, что хуже: DDR5 или провод 12VHPWR. Отчего разгон VRAM ддр5 в Afterburner производится легко и быстро, но в случае с DRAM требует несоизмеримо больше усилий?
в случае с DRAM требует несоизмеримо больше усилий?
Количество параметров сильно больше. Одних только напряжений 5 шт основных. А сколько таймингов, которые зависят друг от друга и от напряжений в том числе?
Advanced member
Статус: Не в сети Регистрация: 27.02.2007 Откуда: Москва Фото: 113
TM1 писал(а):
Размышляю, что хуже: DDR5 или провод 12VHPWR. Отчего разгон VRAM ддр5 в Afterburner производится легко и быстро, но в случае с DRAM требует несоизмеримо больше усилий?
Если бы DRAM тестировал с той же "тщательностью", с какой чаще всего тестируют видеопамять, то у всех давно было бы всё "норм" на 8000+.
Member
Статус: Не в сети Регистрация: 24.03.2006 Откуда: Moscow Фото: 266
HertZ писал(а):
Вот пример:
о, было такое на бидонах, и не у меня одного Тупо что-то тепловое, локальный перепад от поглаживания и привет. Как второй вариант - все же "статика"/магнетизим - любое взаимодействие электрических систем, коей является и палец, и заряд перетекает, вызывая ошибку.
Advanced member
Статус: Не в сети Регистрация: 13.05.2020 Откуда: Мытищи
HertZ писал(а):
вполне себе проецируется на физические адреса, без особых неожиданностей
Да. Но проблемный чип при этом не перестает грузиться, как ты сказал. Дефектный чип не исключается полностью из диапазона адресов.
HertZ писал(а):
если выделяешь один большой и нефрагментированный блок.... выравнивание нагрузки тут не требуется.... Rowhammer, Zenhammer и далее...
В DDR5 нет такого понятия как "фрагментация" в обычном ее понимании (как для HDD).
Логическая фрагментация памяти
Логическая фрагментация существует, но это не негативный побочный эффект от правильной работы, а это и есть правильная работа DDR5 для большинства задач. Да, непрерывные виртуальные адреса могут соответствовать разрозненным физическим фреймам. Тут это нормально, и не оказывает какого-либо статистически значимого негативного эффекта. Даже чаще наоборот.
Да, есть и отрицательные эффекты от дефрагменатции. Но есть и алгоритмы успешной борьбы с этим (как аппаратные, так и программные). Аппаратные: 2MB Huge Page Support, Cross-Bank Interleaving, Deep Learning Prefetcher, Memory Access Defragmentation Engine (MADE) например. Программные: Smart Page Merging, API DirectStorage и др.
Аппаратное чередование. Для чего это нужно и почему это хорошо.
Аппаратное чередование (interleaving) работает на DDR5 по умолчанию в части: - 32-битных субканалов. КП чередует запросы между ними. Параллельная работа субканалов дает повышение ПСП. - Bank Interleaving, Sub-Bank Grouping, Bank Conflict Avoidance, Partial-Write Combining. Банковая ротация и оптимизация банков. Данные распределяются по банкам, что позволяет нивелировать задержки переключения строк. Следствие - устранение простоев банков. - Rank Interleaving. Позволяет чередовать физические ранги памяти, чтобы один ранг можно было использовать, пока другой обновляется.
Чередования в 99% случаев перевешивают гипотетические риски. Кроме того, в КП 12-14gen есть, например, Target Row Refresh (TRR) как аппаратный механизм. Да, это не полностью нивелирует риски безопасности. В многопоточных сценариях (игры, рендеринг) чередование уменьшает среднюю latency на 8-12%!
Редкие сценарии когда стоит отключать чередование: - Например, обработка огромных (>128 ГБ) последовательных датасетов в HPC, где чередование создаёт избыточные накладные расходы. - При диагностике неисправностей модулей памяти.
HertZ писал(а):
наиболее простой и легко реализуемой схемой является сценарий, в котором адреса могут быть в любой момент вычислены с помощью линейной функции.
В реальности адресация никогда не будет линейной из-за страничной оптимизации и работы ASLR (Address Space Layout Randomization). Линейная адресация невозможна в современных системах.
HertZ писал(а):
когда есть сценарий и он четко воспроизводится... Условно, при 40 Гб тест пройден, при 45 Гб тест не пройден. Всегда.
Нет.
Воспроизводимость не равно отсутствию проблем
Нагрузка на КП растёт с объёмом DDR5. Сбой при 45 Гб (в отличие от 40 Гб) может быть вызван, например, конфликтами банков в условиях более высокой нагрузки (и далеко не всегда линейной) и недостаточности напряжений и/или неверных таймингов. Чем больше адресов - тем больше вероятность ошибок при прочих имеющихся проблемах.
DDR5 использует структуру из 32 банков с 8 их группами, что в 2 раза больше структуры DDR4 из 16 банков с 4 группами банков. При росте объёма: - Увеличивается количество строк (rows) и столбцов (columns) в каждом банке. - Контроллеру приходится чаще выполнять операции активации (ACT), предзаряда (PRE) и обновления (REF). - Возрастает сложность предвыборки данных (prefetch) из-за большего адресного пространства
Пример: Для 64 ГБ DDR5 (2 модуля по 32 ГБ) КП управляет ~262 144 строками... Да, есть алгоритмы оптимизации (предсказания и пакетной обработки) , которые лишь частично нивелируют возрастающую с нагрузкой вероятность ошибок.
HertZ писал(а):
Тестирование оперативной памяти и подбор настроек уже очень давно стал неформализуемым процессом, граничащим с темными искусствами.... поглаживания чипов во время прохода тестов
Нет. Просто ты не разобрался. И "съехал с темы" в какие-то глубокие дебри....
Сейчас этот форум просматривают: selishim и гости: 11
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения