Shpora

Редакция автор: stain

! lvm installed in new os sudo apt-get install mdadm sudo mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb1 /dev/sdc1 sudo vgchange -a y onr5 sudo vgdisplay sudo lvdisplay

*** Правильный CHROOT! (Помним длинное тире это два тире -бездумно не копируем)

 
sudo mount /dev/onr5/ubu15 /mnt # !!! Ваш путь отличается
mount --bind /proc /mnt/proc # 
mount --bind /dev /mnt/dev # 
mount --bind /sys /mnt/sys #(без этого маунта mdadm не скачается )  mount --bind /run /mnt/run # 
chroot /mnt
apt-get update 
apt-get install 
mdadm 
mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb1 /dev/sdc1 #(у вас свои разделы под рейд) 
vgchange -a y onr5 #(а у вас свой LVM VOLUME GROUP, впрочем врядли уже все на сисидях сидят и в ус не дуют)

*** VM https://debian.pro/1345 https://debian.pro/344

*** Недавно у меня virtualbox перестал под дебом запускать машины. Выдавал ошибку: Failed to load VMMR0.r0 (VERR_SUPLIB_OWNER_NOT_ROOT)

в общем погуглив посмотрел права ls -ld /usr/ /usr/lib /usr почему то принадлежала пользователю, а не руту, может так и должно быть, но я поменял это командой: sudo chown root:root /usr теперь машинки запускаются.

А для чего мне нужна была машинка? Да собственно для того же, хочу посмотреть кому права на каталоги по дефолту принадлежат ))) а то есть косяк давнишний тоже там при запуске что то ругается на домашнюю папку ) *** касательно своей проблему, с правами для alsactl грохнул к чертям и пульсу и алсу, потом еще сделал autoremove —- Честно говоря думал гном умрет, вместе с офисом, так как он яро стал удалять выше указанные, но незнаю перезрузился и все на месте ))) разве что пропал значек управления звуком, в общем ошибки нет, попробую поставить в зад альсу. 10.2 Настройка звуковой карты в Linux В современных дистрибутивах Debian скорее всего звук подхватится автоматически, но если этого не произошло — звук можно настроить вручную, это легче лёгкого. Для настройки звука в Linux требуется установить ALSA [?]: # aptitude install alsa-utils alsa-base alsa-tools

После этого запустить скрипты автоматической настройки # alsaconf или # alsactl init

При этом появляется псевдографический мастер настройки и, сканируя все возможные шины и адреса, находит звуковую карту. А если в Linux нет звука — значит нужно сходить на официальный сайт ALSA и узнать о поддержке вашей звуковой карты в Linux. Больше о настройке звука можно прочитать в соответствующем посте. http://mydebianblog.blogspot.com/2006/07/blog-post.html

я таки убил оболочку гном ))) в общем хотел вычистить все что связано со звуком под корень. как говорится лучшее враг хорошего. реанимация прошла успешно, только я все же склоняюсь к мысли что у меня слишком много мусора уже в системе, сохраню etc и наверное переставлю ))) ,все таки надо документировать чего делал с системой, а то хвостов и служб как собак, они не мешаю не просто как то несерьезно.

*** Установка skype в Debian 7 wheezy amd64 sudo dpkg —add-architecture i386 && sudo apt-get update #два тире sudo wget -O skype-install.deb http://www.skype.com/go/getskype-linux-deb sudo dpkg -i skype-install.deb похоже от нижней комманды никуда не деться sudo apt-get -f install

*** Установка skype в Debian 7 wheezy amd64

sudo dpkg —add-architecture i386 sudo apt-get update sudo dpkg -i skype-debian_4.3.0.37-1_i386.deb sudo apt-get -f install

всему причина 32-битность пакетов раздаваемых с сайта скайпа. (150 мегабайт 32-битного обвеса)

*** Install a package from backports

All backports are deactivated by default (i.e. the packages are pinned to 100 by using ButAutomaticUpgrades: yes in the Release files. If you want to install something from backports run:

apt-get -t wheezy-backports install "package"

*** Где же найти водителей, где же я их закопал.

Важное замечание по debian 7 , в каталоге /lib/firmware, лежат драйверы я тут мучался какое то время, все никак не получалось организовать локальный репозитарий на основе дисков, по дефолту он(apt-get update) ищет файлы в другом директории, а не там где они на самом деле лежат у amd64 версии dvd репозитариев. и честно говоря не понял как это решить.

*** Перезапуск удаленного сетевого интерфейса ifdown eth0 && ifup eth0 для sudo sudo ifdown eth0 && sudo ifup eth0

*** Для просмотра с торрентов в плагине Кинопоиска оболочки XBMC

Этот путь нужен в /etc/apt/sources.list #acestream deb http://repo.acestream.org/debian/

wheezy main

здесь взял публичный ключ sudo wget -O - http://repo.acestream.org/keys/acestream.public.key

| sudo apt-key add -

*** cpulimit - микроменеджмент процессорного времени

***win ))) Добавление пользователя в группу Администраторы net user имя_пользователя пароль /add net localgroup Администраторы имя_пользователя /add net localgroup Пользователи имя_пользователя /delete

Комментариев: 0

Отказ двух дисков

Редакция автор: stain

Это тривиально и неинтересно, но все-таки нужно убедиться в том что все пройдет как надо. Раз уж представилась возможность подергать диски за хвост, грех ей не воспользоваться. Чпок. Чпок. Хм, не хотят логически пропадать, драйвер просто долго тупо тыкается в пустоту и периодически отдает ошибку чтения. Ладно, тогда mdadm —fail /dev/sda /dev/sdq Бам, отвалились. mdadm —remove /dev/sda /dev/sdq Убрали. mdadm —add /dev/sda /dev/sdq Добавили. Ребилд пошел. Скучно, но все работает

НА деле можно минусовать это, так как само ничего не прикрутится если уже не было в запасе в рейде, оставлено ради команд

Комментариев: 0

Пустил свинью в огород

Редакция автор: stain

Дело было так, решил винду переставить, были траблы с доступом, грешил на возможную бяку.

При установке, удалил первые два раздела на которых базировалась винда. И у меня пропала часть логических дисков с линукс системами расположенных в расширенном разделе.

Восстановил их с помощью testdisk опасная мультиплатформенная программка для восстановления утерянных разделов.

Позже выяснилось что у меня рейд потек, оторвало от раздела под  него несколько килобайт.

У меня слишком много томов, и довольно сложно было все это восстанавливать. поэтому пришлось снести все что положено поверх рейда. Точнее я последнее время жил на дебиан с обычного раздела, то есть актуальной информации на рейде не было, и мне было проще снести рейд. чтобы по новой его создать с размером подходящим под все  диски.

Я не хотел использовать отвалившийся раздел в рейде, так как у него уменьшился размер, и место под него без длительных дисковых операций было не выкроить.

Решил просто уменьшить другие два раздела используемых в рейде(точнее полностью его пересоздать).

Резюме : не храните деньги(линукс разделы) на расширенном разделе, если у вас установлена  на этом же жестком диске windows, или хотя бы не удаляйте разделы из установщика windows, а просто форматируйте.

ну и желательно знать или где нибудь хранить информацию о всех разделах, включая начальные и конечные сектора. Чтобы не накосячить при восстановлении разделов.

Комментариев: 0

MDADM

Редакция автор: stain

Оптимизация рейда по ссылке

sudo mdadm -D /dev/md? Покажет информацию о активных массивах.

mdadm --query /dev/name-of-device Проверит является ли данное устройство массивом или его частью и даст детализированный отчет

mdadm -A -s Cобрать и запускать все массивы, перечисленные в стандартном конфиге.

mdadm -S -s Остановить все массивы.

mdadm --follow -s --delay=120 Каждые две минуты передает состояние массивов на почту указанную в конфигурационном файле.

sudo nano /proc/sys/dev/raid/speed_limit_min #установка в этом файле значения  200000 ускорит процесс ребилда массива, после перезагрузки  заменится значением по умолчанию.

sudo watch cat /proc/mdstat #позволит мониторить состояние ребилда массива.

sudo mdadm --create --verbose /dev/md0 --assume-clean --level=5 --raid-devices=3 --spare-devices=0 /dev/sda3 /dev/sd[bc]1 #Как выяснилось нижней командой создается рейд с диском горячей замены, а это значит что свободного места будет как на одном диске. Этот параметр решает проблему избыточности "--spare-devices=0". Чтобы пересоздать массив(данные могут исчезнуть если вы измените очередность дисков, или измените тип рейда, или вдруг решите его форматнуть), надо сначала его остановить.

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda3 /dev/sd[b-c]1 #создаст массив /dev/md0, как RAID5 состоящий из разделов /dev/sda3, /dev/sdb1, /dev/sdc1.

mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/hd[ac]1 Создает массив /dev/md0 как RAID1 состоящий из разделов /dev/hda1 и /dev/hdc1.

 

echo 'DEVICE /dev/hd*[0-9] /dev/sd*[0-9]' > mdadm.conf mdadm --detail -s » mdadm.conf #Создает файл, содержащий информацию о активных в данный момент массивах, его желательно просмотреть, до использования, так как он может содержать нежелательные детали

mdadm -Iq /dev/somedevice #Попробует включить обнаруженное устройство в какой-то массив по мере необходимости.

mdadm --incremental --rebuild-map --run -s #Пересоздаст карту из текущих массивов, и после запустит те что могут быть запущены

mdadm /dev/md4 --fail detached --remove detached #Все диски из /dev/md4 массива, будут помечены как сбойные, и будут удалены из массива.

mdadm --grow /dev/md4 --level=6 --backup-file=/root/backup-md4 Преобразует массив /dev/md4 являющийся RAID5 массивом в RAID6. В массиве должен уже быть один лишний диск для горячей замены, так как для 6-того рейда требуется на 1 диск больше, а точнее для 5-того рейда нужно минимум 3 диска а для 6-того 4 диска.

mdadm --create /dev/md/ddf --metadata=ddf --raid-disks 6 /dev/sd[a-f] Создаст DDF массив из 6 ти жестких дисков. (без понятия что за ddf, возможно динамический)

mdadm --create /dev/md/home -n3 -l5 -z 30000000 /dev/md/ddf Создаст массив RAID5 поверх 3 устройств входящих в DDF сетап. Успользуя на каждом диске лишь 30 гигабайт.

mdadm -A /dev/md/ddf1 /dev/sd[a-f] Соберет существующий ddf массив.

mdadm -I /dev/md/ddf1 Соберет все массивы содержащиеся в ddf массиве, в соответствии с именами ))) вот пес его знает, зря вообще начал переводить.

mdadm --create --help Справка о Create mode.

mdadm --config --help Справка о конфигурационном файле.

mdadm --help
Справка ))).

По феншую

Комментариев: 0

реанимация RAID-5

Редакция автор: stain

реанимация RAID-5, после того как я умышленно отключил диск и поработал в системе, после перезагрузки он не вернулся в рейд, его пришлось добавлять ручками, в общем там весь процесс граблей глубоко воткнутых в мой глупый мозг описан. Вероятность потери данных была высока ))).

Буду ставить попробую сделать снапшот )))

Сегодня отрубил один винч, комп загрузился никак не выдав потерю винча

Ща буду спрашивать mdamd как дела, и не надо ли сделать resync

итак отрубил винч ага ))) пытался увидеть хоть какую то информацию, по автоматике в mdamd в общем

Проверил состояние рейда ))) sudo mdadm —monitor # не работает, подсказка два тире

выдало: mdadm: Monitor using email address "root" from config file mdadm: Warning: One autorebuild process already running.

т.е. получается mdamd втихую что то там делает это называется хорошо что я не решил затестить и отключил еще один винч ))), может быть рейд бы и не упал, но точно бы накренился, все таки отказоустойчивость у raid-5 (3-х дискового) врядли больше одного винчестера.

еще один вариант проверки raid, который и заставил меня углубиться cat /proc/mdstat

Выдал: Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sda3[0] sdc1[2] 488127488 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [U_U]

т.е. явно один винчестер где то тихо ходит )))

отвалившийся раздел находится на sdb, и его надо подмонтировать вручную, самостоятельно он не подключился mdadm —add /dev/sd? Внимание вопрос ? а какой раздел ))) я же не записал ))) но все же помню что у меня на sda, два виндовых раздела, а другие два винчестера, ага первый раздел, рейд, остальное пока ntfs Силой великого ума ))))) понимаю что правильный ответ будет sudo mdadm —add /dev/sdb1 # два тире и нет что то не так mdadm: /dev/sdb1 does not appear to be an md device

эта команда исследует диск sudo mdadm —examine /dev/sdb1 подтверждает что раздел есть часть моего рейда.

алилуя ))) sudo mdadm /dev/md0 -a /dev/sdb1 Результат: mdadm: added /dev/sdb1 Незнаю почему не сработал первый вариант, но главное результат.

Ранее я запустил слежение за состоянием рейда sudo watch cat /proc/mdstat и переключившись на терминал у видел, что рековери идет полным ходом.

точнее рейд 5 общей плотностью около 500 гигабайт, с двумя разделами, swap 8 гигов и система 40 гигов, реанимируется порядка 1-го часа.

Для ускорения ребилда, рекомендация стояла порядка 300000, но не сработала команда, как выяснилось там верхний лимит 200000. Так что это сработало: echo 200000 > /proc/sys/dev/raid/speed_limit_min Скорость поднялась. правда не сильно, ну на 15-20 процентов. 74000кб/с но с другой стороны я под гномом сижу в интернете чего то пишу, наглое отродье )))

После ребилда и перезагрузки сервера вернется значение по умолчанию 1000, а эта команда не сработала ))) echo 1000 > /proc/sys/dev/raid/speed_limit_min

Итак ура md0 : active raid5 sdb1[3] sda3[0] sdc1[2] 488127488 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

 

отсюда, следует что крайне важно настроить локальную почту root чтобы своевременно получать информацию об отвалившихся дисках.

Комментариев: 0