Погружение в Salix
Шрифт:
А не тут-то было. При выборе из контекстного меню пункта Подключить том устройство действительно делает вид, что подключается. Но для записи обычным пользователем оно недоступно, пока не переопределишь (от root'а) атрибуты принадлежности и доступа к точке монтирования.
Впрочем, такое поведение nilfs2 можно считать прогрессом. Когда я с этой файловой системой, она вообще не поддерживала монтирование обычным пользователем.
А с f2fs получается другая история: она вообще не желает монтироваться от лица обычного пользователя, если не вписать в файл
/dev/sdf1 /mount_point f2fs noauto,users,rw 0 0
Где
Тем не менее, после всего проделанного с устройством, несущим f2fs, можно работать почти нормально. Почти – потому что нет никакой гарантии, что оно будет найдено системой после отключения и повторного включения в том же сеансе. Это относится, кстати, и к nilfs2.
И ещё: при совместном использовании устройств с f2fs и nilfs нужно следить, чтобы первое было включено раньше второго, иначе, ясное дело, «буковки» не совпадут.
Резюмирую базар: в настоящее время и nilfs2, и f2fs представляют чисто академический интерес. Использование каждой из них по отдельности достаточно неудобно, а обе-две вместе вообще уживаются с напрягом. В чём, надо полагать, и заключается причина слабой, мягко говоря, их распространённости.
Поэтому всё сказанное выше – ни в малейшей степени не руководство к действию, а просто узелок на память: кто знает, может, триумфальное шествие SSD-накопителей по пользовательским десктопам побудит довести до ума не одну, так другую. И они будут поддерживаться дистрибутивами уже не для «галочки», а для реальной работы.
Поддержка ZFS
Включение поддержки ZFS было одним из первых моих деяний после установки Salix'а – все мои рабочие данные расположены на
Как и следовало ожидать, поиск по ключевому слову
$ uname -a
Linux salix 3.10.17 #2 SMP ...
После чего присвоил себе перманентные права администратора (далее они будут нужны постоянно)
$ sudo -i
и установил соответствующий пакет:
# slapt-get --i kernel-source-3.10.17-noarch-2
Обращаю внимание, что требуется именно
Далее последовательно были собраны требуемые
слакбилды – сначала:# slapt-src -i spl-solaris
а затем
# slapt-src -i zfs-on-linux
Делать это нужно именно в указанном порядке, иначе последует сообщение об ошибке.
Следующий шаг – подключение соответствующих модулей
# sudo modprobe zfs
и проверка результатов этого деяния:
# lsmod |grep zfs zfs 997378 5 zunicode 320867 1 zfs zavl 4875 1 zfs zcommon 32148 1 zfs znvpair 49518 2 zfs,zcommon spl 123549 5 zfs,zavl,zunicode,zcommon,znvpair
Перед импортом существующего пула я не забыл создать каталог – точку монтирования его datasets
# mkdir /home/data
и назначить для него «правильного хозяина»:
# chown -R alv:users data
Обращаю внимание: во всех используемых мной Linux-системах первый пользователь, то есть я, любимый, имеет UID 1000. Если в системах моего читателя это не так (например, есть дистрибутивы, присваивающие первому юзеру UID 500, возможно, существуют и другие варианты), то «право принадлежности» надо указывать в численном выражении. Что же до принадлежности группе и её GID, то в данном (моём) случае это рояля не играет: GID основной группы первого пользователя, как бы она ни называлась словами (
Это с одной стороны. А с другой – есть подозрение, что при монтировании дейтасетов импортируемого пула все они автоматом получают те права принадлежности и доступа, которые были у них в исходной системе. Каюсь, вот уже за пару лет применения одних и тех же пулов в разных дистрибутивах я не то что прочитать – даже проверить это не удосужился.
Теперь – самый ответственный момент, импорт существующего пула:
# zpool import -f data
Проверка показывает, что он прошёл успешно:
# zpool status pool: data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 sda3 ONLINE 0 0 0 sdb3 ONLINE 0 0 0
errors: No known data errors
Да ещё и все дейтасеты, входящие в пул, сами собой смонтировалсь куда надо:
# zfs mount data /home/data data/media /home/data/media data/other /home/data/other data/proj /home/data/proj data/vbox /home/data/vbox
Так что мой пул данных полностью пригоден к работе...
... увы, до перезагрузки системы. После которой ни малейших следов смонтированных файловых систем
Будучи одним из представителей последних, я, конечно, легко решил её командой
$ sudo zfs mount -a
после которой все файловые системы в
Процесс следует автоматизировать. Как? Теоретически рассуждая, разными способами. Я для начала избрал самый грубый, но простой, вспомнив о палочке-выручалочке каждого нерадивого слакварщика – файле