Advanced member
Статус: Не в сети Регистрация: 26.09.2006
Данная тема открыта для обсуждения и выбора винчестеров размером от 1.5 ТБ и выше. Тема для обсуждения и выбора винчестеров размером до 200 гигабайт находится здесь. Тема для обсуждения и выбора винчестеров размером от 250 до 500 гигабайт включительно находится здесь. Тема для обсуждения и выбора винчестеров размером от 600-от гигабайт до 1 терабайта находится здесь.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
В этом то и проблема - не надо доводить рейд до "падения" .
Я их что ли довожу. Клиенты обращаются. Спасите помогите, там вся жизнь, вся работа. А мне приходится с этим дерьмом разбираться. Любой может попасть. Вы просто не крутитесь в таком сервисе. Тут романы можно писать про сотни случаев, когда все в момент теряют.
Member
Статус: Не в сети Регистрация: 02.11.2008 Откуда: Москва
Tomset писал(а):
Я их что ли довожу. Клиенты обращаются. Спасите помогите, там вся жизнь, вся работа.
Тут понятен пень проблема клиентов, но это проблема именно клиентов (жадность и недальновидность), а не технологий или или каких то технологических решений. Понятен пень, что если в zfs raidz3 помрут 3+ диска, то будет бобо. Но это уже проблема людей, которые не следят и вовремя не меняют диски, а не проблема zfs. Ещё есть уникумы, которые собирают raid 5/raidz1 на дисках большой объёма + ставя при это по 7+ штук в vdev, и потом удивляются, что массив посыпался при ребилде (raid5), а в случае raidz1 - не вся инфа была вычитана из за ошибок на других дисках.
Tomset писал(а):
Любой может попасть. Вы просто не крутитесь в таком сервисе. Тут романы можно писать про сотни случаев, когда все в момент теряют.
Я не спорю, что у вас там "трупов" подвозят постоянно, но это не значит, что это так у всех.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
Большой + zfs - во время ресильвера (ребилда) диски не нагружаются как умалишённые, и в следствие чего массивы не разваливается от ребилда (особенно касается raid5) из за смерти ещё одного/нескольких дисков в массиве.
Вот случай, из Владивостока. из 10 дисков, 6-ть вот такие: https://yadi.sk/d/KFq2m8qnhgsPxQ Вечером все хорошо, все работает, ни каких предупреждений. Разошлись по домам. А утром пришли на работу, диски тихо крутятся, не стучат, сервер не доступен. Походили по местным DR конторам, ни у кого аппаратуры для восстановления данных с дисков SAS нет. Прислали ко мне. Открываю, а там такая картина, собрал из оставшихся четырех участников массива документы (где-то 15% от общего количества), размером не более мегабайта и все. Ну и какой ZFS тут поможет? ни какой.
Добавлено спустя 4 минуты 46 секунд:
Cool'D писал(а):
но это проблема именно клиентов (жадность и недальновидность), а не технологий или или каких то технологических решений.
Да ты хоть супер гением будь всех случаев не предусмотришь. Одну контору целиком пожарники залили, пожар на верху, а от них типа дым шел, разбили окна и все залили, все что было. ни один телефон даже не выжил, что про компы говорить. Других в реку смыло, со всей аппаратурой. Из дисков пришлось воду выливать.
Member
Статус: Не в сети Регистрация: 02.11.2008 Откуда: Москва
Tomset писал(а):
Вот случай, из Владивостока. из 10 дисков, 6-ть вот такие:
В теории если бы был zfs raid1 из 10 - то всё было бы норм, а если если бы инфа сторилась не 1 копия, а 2 или 3 - тем более.
+ ну не могло это произойти за 1 день и скорее всего диски умирали долго и мучительно, а когда уже заметили там было такое.
Tomset писал(а):
Да ты хоть супер гением будь всех случаев не предусмотришь. Одну контору целиком пожарники залили, пожар на верху, а от них типа дым шел, разбили окна и все залили, все что было. ни один телефон даже не выжил, что про компы говорить. Других в реку смыло, со всей аппаратурой. Из дисков пришлось воду выливать.
Никто не мешает сторить инфу сразу в несколько мест + держать бэкап сервер вообще в другом помещении/здании/городе. Всё зависит от реальной надобности в данных и готовности конторы за них платить.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
+ ну не могло это произойти за 1 день и скорее всего диски умирали долго и мучительно, а когда уже заметили там было такое.
SAS на 10 или 15к оборотов умирают сразу, если царапнул поверхность от удара или вибрации. Обороты большие. Скорее всего ночью, что-то очень шумное рядом произошло.
Заблокирован Статус: Не в сети Регистрация: 25.02.2017 Фото: 0
Захотелось добавить места на NAS, сейчас стоит WD RED на 3Тб (в работе уже 15000 часов, 7000 старт/стоп) и на 6Тб (в работе 3000 часов, 1500 раз старт/стоп), рейдов нет и не предвидится. Вот думаю взять снова Red или попробовать Gold, на удивление голды дешевле, какие-то новые появились. И какой объем наиболее выгоден сейчас, пока выбрал 8тб WD8004FRYZ. Из того, что я вижу, у Gold наработка на отказ больше 2млн часов против 1млн у Red и гарантия у Red 3 года, у Gold 5 лет. Но в тоже время у красных температурный режим 0-65, у золотых 5-60, т.е. как бы более нежные выходит. https://documents.westerndigital.com/co ... 800002.pdf https://documents.westerndigital.com/co ... 810192.pdf Или что-то из Seagate попробовать?
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
Ну тогда с бэкапов восстановить, но их судя по всему нет ...
Потому что админ, как и вы верил, что RAID10 супер надежный. А у него даже по теории вероятности при 10 дисках, надежность минимум в 5 раз хуже чем у одного диска, не зависимо от используемой FS.
Member
Статус: Не в сети Регистрация: 02.11.2008 Откуда: Москва
Tomset писал(а):
Потому что админ, как и вы верил, что RAID10 супер надежный.
raid10 не очень и надёжный, но в такой ситуации - если все 10 дисков были в 1 массиве - им бы уже ничего не помогло, кроме бэкапа.
Tomset писал(а):
А у него даже по теории вероятности при 10 дисках, надежность минимум в 5 раз хуже чем у одного диска, не зависимо от используемой FS.
у него надёжность в десятки и сотни раз выше чем у одиночки при 10 то дисках, но бэкап никто не отменял.
p.s. Странные у вас выводы о надёжности fs - если она пожара не выдерживает - то плохая. Логика просто отпад. Это как говорить, что машина это уг, так как при столкновении со столбом она дальше уже никуда не поедет, а ножки то вот.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
у него надёжность в десятки и сотни раз выше чем у одиночки при 10 то дисках,
нет. учебник возьмите по надежности и посчитайте или хотя бы в интернете такие расчеты найдите. к надежности одного диска только зеркало приближается. Если не учитывать одновременный отказ от ударов и вибраций. А по ударам, и прочим общим событиям, типа вирусов, питания. Надежность одинаковая, что у одного, что у десяти.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
Ну бред же пишите.
ну какой бред, открываешь расчет https://ru.wikipedia.org/wiki/%D0%A0%D0 ... 1%82%D0%B8 и подставляешь надежность одного диска в формулу любой организации системы. параллельной, последовательной, смешанной, с резервированием Везде она будет ниже чем у одного диска и нигде больше. Для простоты расчета можно надежность одного диска принять, как 1. А с учетом не зависимых общих событий, которые нужно учитывать специальными коэффициентами на основе своей же статистики отказов, вообще ни какая. У всех внешние события имеют разную частоту. Но можно взять хотя бы средние коэффициенты возможных общих событий. Если не заморачиваться и все события свалить в кучу с одним коэффициентом, то нужно умножать надежность где то на 0.4 т.е. внешние события убивают весь рейд в 60% случаев. если какие-то события полностью не исключать дополнительными мерами. Типа собственный генератор напряжения, бункер, кондиционер и т.д.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
бред сивой кобылы.
Только для вас, потому что вы этого просто не понимаете. И отмахиваетесь, так как лень напрячь свои мозги. Проще верить рекламе. Но жизнь вас сама научит со временем. )
Member
Статус: Не в сети Регистрация: 02.11.2008 Откуда: Москва
Tomset писал(а):
Только для вас, потому что вы этого просто не понимаете. И отмахиваетесь, так как лень напрячь свои мозги. Проще верить рекламе.
Какой в топку рекламы? Вы вообще понимаете о чём пишите и что тут пытаетесь доказывать? Ещё раз - у вашего 1 диска отказоустойчивость - 0. Любая проблема с диском и инфе хана. чексумм нет, копии с него могу быть просто невальдны, сдохнуть может от любого чиха.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D во блин! у меня 300 дисков работают по 20 лет, ни один не сдох, данные ни разу не потерял, рейды ни какие ни когда не делаю, и не буду делать, как совершенно бессмысленную штуку в моей ситуации, а у них оказывается надежность 0 . у меня данные защищает сам много этапный процесс восстановления данных. У тебя они крутятся постоянно, изнашиваются совершенно зря. поверить нормально ты их не можешь, на сломав всю систему. А у меня после каждой задачи, каждый провеется. Т.е. дело не в рейдах, а в организации работы.
Последний раз редактировалось Tomset 11.04.2020 23:34, всего редактировалось 1 раз.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
хотя бы 5 штук которые больше 100к часов отпахали.
Они не могут у меня 100k отпахать, они не работают постоянно. А используются только когда нужны. Я че придурок, их просто так крутить и электро энергию зря расходовать? Вот два системный и с данными. пожалуйста, но у них три копии. еще один под задачей сейчас.
WDC WD5000AAKS-00V1A0 WD-WCAWF1107290 ----------------------------------------------------------------------------------- ID Name Value Worst Tresh Raw Health ----------------------------------------------------------------------------------- 1 Частота проявления ошибок чтения 200 200 51 0 ••••• 3 Время раскрутки шпинделя 141 140 21 3933 ••••• 4 Количество стартов или пробуждений 100 100 0 991 ••••• 5 Количество переназначенных секторов 200 200 140 0 ••••• 7 Частота ошибок позиционирования 200 200 0 0 ••••• 9 Время наработки накопителя 68 68 0 24005 ••• 10 Количество повторных попыток раскрутки 100 100 0 0 ••••• 11 Число повторов рекалибровки 100 100 0 0 ••••• 12 Количество включений питания 100 100 0 988 ••••• 192 Количество внезапных выключений питания 200 200 0 93 ••••• 193 Количество парковок/распарковок 200 200 0 896 ••••• 194 Температура гермоблока 109 97 0 34°C/93°F •••• 196 Попыток переназначений секторов 200 200 0 0 ••••• 197 Кандидатов на переназначение 200 170 0 0 ••••• 198 Дефектные секторы во время самотеста 200 200 0 0 ••••• 199 Ошибки передачи данных через DMA 200 200 0 0 ••••• 200 Частота ошибок записи (multi-zone errors) 200 200 0 0 •••••
WDC WD7500EADS-00M2B0 WD-WMAV50275334 ----------------------------------------------------------------------------------- ID Name Value Worst Tresh Raw Health ----------------------------------------------------------------------------------- 1 Частота проявления ошибок чтения 200 200 51 15 ••••• 3 Время раскрутки шпинделя 135 112 21 6250 ••••• 4 Количество стартов или пробуждений 100 100 0 282 ••••• 5 Количество переназначенных секторов 200 200 140 0 ••••• 7 Частота ошибок позиционирования 200 200 0 0 ••••• 9 Время наработки накопителя 89 89 0 8570 •••• 10 Количество повторных попыток раскрутки 100 100 0 0 ••••• 11 Число повторов рекалибровки 100 100 0 0 ••••• 12 Количество включений питания 100 100 0 276 ••••• 192 Количество внезапных выключений питания 200 200 0 35 ••••• 193 Количество парковок/распарковок 118 118 0 248845 ••••• 194 Температура гермоблока 115 111 0 32°C/89°F •••• 196 Попыток переназначений секторов 200 200 0 0 ••••• 197 Кандидатов на переназначение 200 200 0 0 ••••• 198 Дефектные секторы во время самотеста 200 200 0 0 ••••• 199 Ошибки передачи данных через DMA 200 200 0 0 ••••• 200 Частота ошибок записи (multi-zone errors) 200 200 0 0 •••••
ST3000VX000-9YW166 W1F0ET0R ----------------------------------------------------------------------------------- ID Name Value Worst Tresh Raw Health ----------------------------------------------------------------------------------- 1 Частота проявления ошибок чтения 118 100 6 175552064 ••••• 3 Время раскрутки шпинделя 94 94 0 0 •••• 4 Количество стартов или пробуждений 100 100 20 82 ••••• 5 Количество переназначенных секторов 100 100 36 0 ••••• 7 Частота ошибок позиционирования 68 60 30 106 / 58251 ••• 9 Время наработки накопителя 100 100 0 378 ••••• 10 Количество повторных попыток раскрутки 100 100 97 0 ••••• 12 Количество запусков/остановок 100 100 20 23 ••••• 184 Суммарное число ошибок CRC 100 100 99 0 ••••• 187 Нескорректированные ECC-кодом ошибки 100 100 0 0 ••••• 188 Превышения таймаута после команды 100 99 0 10 ••••• 189 Превышения высоты полёта головки 100 100 0 19 ••••• 190 Температура воздушного потока 65 56 45 35°C/95°F •••• 191 Количество срабатываний датчика удара 100 100 0 0 ••••• 192 Количество внезапных выключений питания 100 100 0 7 ••••• 193 Количество парковок/распарковок 100 100 0 827 ••••• 194 Температура гермоблока 35 44 0 35°C/95°F •••• 194 Минимальная температура накопителя 90 44 0 22°C/71°F - 197 Кандидатов на переназначение 100 100 0 0 ••••• 198 Дефектные секторы во время самотеста 100 100 0 0 ••••• 199 Ошибки передачи данных через DMA 200 200 0 0 •••••
Последний раз редактировалось Tomset 11.04.2020 23:44, всего редактировалось 1 раз.
Advanced member
Статус: Не в сети Регистрация: 02.05.2006 Откуда: Москва
Cool'D писал(а):
а ну понятно... по 20 лет они у него живут... 24005 часов наработка...
И что? диск этот производства 17jan10, ко мне попал 09.08.2013, подарил человек из Вологды бесплатно, за советы, когда ремонтом дисков перестал заниматься, Диск ремонтировался, c2446g8(0) G>P это так кратенько 2446 кандидатов, 8 переназначено, дефекты перенес в P-лист. обнулялся смарт после проверки, сколько он до этого проработал, меня мало волнует. Главное состояние его сейчас. А постоянная работа 20 лет только больным на голову людям нужна если у него не непрерывное производство. А там их надо просто менять каждые пять-шесть лет. И не думать, сколько он отработает. Отправлять на неответственную временную работу. В том числе и под копии, если он еще в хорошем состоянии. Этот отработает около 8670х4 ~ 38к и из постоянной рабаты будет убран, чтобы зря не рисковать.
Последний раз редактировалось Tomset 12.04.2020 0:03, всего редактировалось 1 раз.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 6
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения