Member
Статус: Не в сети Регистрация: 16.02.2004 Откуда: Москва
Для начала - немного предисловий: Был RAID6 на mdadm на 14 2Тб-дисках. Поверх него LVM2, один физический том, одна группа томов, один логический том, и как венец - 64-битная ext4. При росте 13->14 дисков рейд немного развалился, утянув за собой всё, что описано выше. Причина окончательно не ясна, это вопрос для другого обсуждения. Сам рейд удалось восстановить - стартовал на 12 из 14 дисков, после нескольких проблемных дней удалось заребилдить до 14. LVM восстановлен из бекапа - физический том пересоздан с тем же UUID, группа томов и логический том - с помощью vgcfgrestore. Файловая система просто так не далась, но путём определённых танцев с бубном удалось найти несколько копий суперблока, после чего запустить с одной из них e2fsck:
Оно отработало некоторое время, вываливая в консоль сообщения о исправленных ошибках и потенциальной потере данных. Последние сообщения:
Код:
Inode table for group 149028 is not in group. (block 15098284475961105415) WARNING: SEVERE DATA LOSS POSSIBLE. Relocate? yes
Group descriptor 149028 checksum is 0x9a6b, should be 0x4c58. FIXED. Block bitmap for group 149029 is not in group. (block 6202032265613510780) Relocate? yes
Inode bitmap for group 149029 is not in group. (block 17321201945142221838) Relocate? yes
Inode table for group 149029 is not in group. (block 13574970995214565522) WARNING: SEVERE DATA LOSS POSSIBLE. Relocate? yes
Group descriptor 149029 checksum is 0x1a30, should be 0x54c1. FIXED. Block bitmap for group 149030 is not in group. (block 2162377089655212377) Relocate? yes
Inode bitmap for group 149030 is not in group. (block 3805196928779138691) Relocate? yes
Inode table for group 149030 is not in group. (block 3700536720653996450) WARNING: SEVERE DATA LOSS POSSIBLE. Relocate? yes
Group descriptor 149030 checksum is 0x19f8, should be 0xbff8. FIXED. Resize_inode not enabled, but the resize inode is non-zero. Clear? yes
После чего не пишет в консоль ничего, продолжая отъедать 100% ЦП и около 1% от 4Гб памяти. Судя по strace, оно что-то делает:
В данный момент через dumpe2fs получить содержимое суперблока не удаётся, но последнее, что я видел - более-менее коректный размер ФС (18 с хвостиком Тб), странную дату последнего монтирования и сообщение о нечитаемости журнала (и вероятной его гибели). Проверка идёт уже почти сутки, и конца-края ей не видно. Через kill -USR1 получить прогрессбар также не удаётся. Есть идеи, что теперь делать? По поиску находится два-три аналогичных случая, все в итоге закончились многодневным ожиданием "и ничего" - либо надоело ждать, либо проверка вылетала с сообщением об отсутствии памяти. Послесловие: Данные не бекапились (т.к. второй хранилки такого объёма у меня просто нет), данные не критичные. Да, там были кое-какие редкие/уникальные материалы (фото, видео, некоторые крайне редкие BDRemux собственного изготовления), но даже их потеря - не катастрофа, а максимум неприятное чувство на некоторое время. Пока что склоняюсь к варианту подождать до конца недели, если ничего не изменится - убить e2fsck и попробовать почистить ФС другим способом (в качестве примера в просмотренных темах предлагалось убийство инодов через debugfs и пересоздание ФС с заменой одних только суперблоков).
_________________ Один выстрел - один труп.
cd /usr/src/themepark-2.4.1-2 && ./configure --with-blackjack --and-hookers && make
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 12
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения