Diskless nodes/ru

Это HOWTO поможет создать и настроить бездисковые рабочие станции с Gentoo Linux.

Об этом руководстве
Это руководство поможет настроить бездисковые рабочие станции основанные на дистрибутиве Gentoo Linux. Это руководство предназначено для того чтобы сделать этот процесс удобным для Linux-новичков, насколько это возможно, потому что все когда-то были новичками в какой-то момент :&#41;. В то время как опытные пользователи могут с легкостью объединить множество доступных руководств по бездисковым станциям и сетям вместе, надеемся, что это руководство сможет облегчить установку для всех заинтересованных пользователей, независимо от того, гики они или нет.

Что такое бездисковая машина?
Бездисковая машина - это компьютер без каких-либо обычных загрузочных устройств, таких как жесткие диски, дискеты, или оптические диски. Бездисковые станции загружаются по сети и им необходим сервер, который обеспечит их местом для хранения данных, как это сделал бы локальный жесткий диск. С этого момента, будем называть сервер ведущим устройством - master, в то время как бездисковая машина будет ведомым устройством - slave. Ведомый узел требует сетевую плату с поддержкой загрузки PXE или Etherboot; проверьте поддерживаемый список по адресу Etherboot.org. Большинство современных плат поддерживает PXE, множество встроенных в материнскую плату сетевые платы также будут работать.

Перед тем как начать
Необходимо установить Gentoo на master-узел и иметь достаточно пространства на master-узле, чтобы хранить файловые системы slave-узлов. Также, удостоверьтесь, что один из интерфейсов подключен к интернету отдельно от подключения к локальной сети.

Информация о ядрах
Ядро - это программа, которая располагается между аппаратным обеспечением и всеми остальными программами, которые загружены в системе. По существу, это сердце операционной системы, включающей в себя ядро. Когда компьютер загружается, BIOS выполняет инструкции, найденные в зарезервированном загрузочном пространстве жесткого диска. Эти инструкции обычно являются загрузчиком, который загружает ядро. После того, как ядро загружено, все процессы управляются им.

For more information on kernels and kernel configuration check out the kernel article.

Конфигурация ядра на ведущем компьютере
Ядро ведущей машины может быть как и настолько большим, так и настроенным особые нужды, но в то же время, существует несколько требуемых параметров ядра, которые необходимо выбрать. Перейдете в меню конфигурации ядра, введя:

Должен быть графический интерфейс, серого и синего цвета, который предлагает безопасную альтернативу редактированию файла вручную. Если ядро на данный момент функционирует нормально, можно сохранить текущий файл конфигурации, выйдя из графического интерфейса и введя следующую команду:

Перейдите в следующие подменю и убедитесь, что перечисленные элементы меню отмечены как встроенные в ядро - built-in (а не как модули - modular). Параметры, показанные ниже, взяты из ядра версии 2.6.10. Если используется другая версия, текст, или последовательность элементов меню может различаться. Просто убедитесь, что выбраны хотя бы те элементы, которые показаны ниже.

Если необходим доступ к интернету на master-узле и/или нужен безопасный межсетевой экран, убедитесь, что добавили поддержку iptables:

If packet filtering is required, add the rest as modules later. Make sure to read the Gentoo Security Handbook Chapter about Firewalls on how to set this up properly.

После того, как ядро переконфигурировано на master-узле, его нужно собрать заново:

Затем, добавьте запись для нового ядра в или, в зависимости от используемого загрузчика, и сделайте новое ядро загружаемым по умолчанию. Теперь когда новый файл bzImage скопирован в загрузочный каталог, все, что требуется сделать - перезагрузить систему чтобы активировать новые параметры.

Настройки ведомого ядра
Рекомендуется, чтобы slave ядро было собрано без модулей, так как их загрузка и настройка в случае удаленной загрузки ядра - сложный и ненужный процесс. Вдобавок, slave ядро должно быть настолько маленьким и компактным, насколько это возможно, чтобы эффективно загрузиться по сети. slave ядро будет скомпилировано в том же месте, где было сконфигурировано master.

Во избежание путаницы и пустой траты времени, возможно, неплохой идеей является сделать резервное копирование файла конфигурации ведущего ядра вводом следующих команд:

The slave's kernel is now to be configured in the same fashion as the master's kernel. If a fresh configuration file is needed it can be recovered from the default file by typing:

Теперь, перейдите в графический интерфейс конфигурации вводом следующей команды:

Make sure to select the following options as built-in and NOT as kernel modules:

Now the slave's kernel needs to be compiled. Be careful here not to overwrite or mess up the modules (if any) that have been built for the master:

Now create the directory on the master that will be used to hold slaves' files and required system files. The is used but any location preferred may be chosen here. Now copy the slave's bzImage into the directory:

Конфигурация предварительных файловых систем для slave-узлов
The master and slave filesystems can be tweaked and changed a lot. Right now the only point of interest is in getting a preliminary filesystem of appropriate configuration files and mount points. First it's required to create a directory within for the first slave. Each slave needs its own root file system because sharing certain system files will cause permission problems and hard crashes. These directories can be called anything the administrator deems appropriate but the author suggests using the slaves IP addresses as they are unique and not confusing. The static IP of the first slave will be, for instance,  :

Various configuration files in need to be altered to work on the slave. Copy the master's directory onto the new slave root by typing:

Все же, эта файловая система пока не готова, потому что ей требуются разные точки монтирования и каталоги. Чтобы их создать, введите:

Most of these "stubs" should be recognizable; stubs like,  or  will be populated when the slave starts, the others will be mounted later. The file should also be changed to reflect the hostname of the slave. Binaries, libraries and other files will be populated later in this HOWTO right before attempting to boot the slave.

Even though is populated by   later on, the  entry needs to be created. If not, the error message "unable to open initial console" will be encountered.

Информация о DHCP-сервере
DHCP означает Dynamic Host Configuration Protocol (протокол динамической настройки узла). DHCP-сервер - это первый компьютер с которым будут соединяться slave-узлы при PXE-загрузке. Основной целью DHCP-сервера является назначение IP-адресов. DHCP-сервер может назначать IP-адреса, основываясь на MAC-адресах сети на основе ethernet. Как только slave-узел получит IP-адрес, DHCP-сервер сообщит этому компьютеру где можно получить его первичную файловую систему и ядро.

Перед тем как начать
There are several things to make sure of, that they are working properly before beginning. First check the network connectivity:

Make sure there is an eth0 device running. It should look something like this:

It's important that it says MULTICAST, if it doesn't then the kernel will have to be recompiled to include multicast support.

Установка DHCP-сервера
If the network does not already have a DHCP server installed, one needs to be installed now:

If the network already has a DHCP server installed, edit the configuration file to get the PXE boot to function correctly.

Конфигурация DHCP-сервера
There is only one configuration file that needs to be edited before starting the DHCP server:. Copy and edit the provided sample file:

Основная схема этого файла задана в виде отступов и выглядит следующим образом:

The  block is optional and should be used for IPs that are required to be assigned that belong to the same network topology. At least one  must be declared and the optional   block allows options to be grouped between items. A good example of looks like this:

The IP address after  will be asked for the specified. This IP address should be the IP of the tftp server, usually the same as the master's IP address. The  is relative to the  directory (this is due to the tftp server specific options which will be covered later). Inside the  block, the   option specifies a MAC address, and   assigns a fixed IP address to that particular MAC address. There is a pretty good man page on with options that are beyond the scope of this HOWTO. The man page can be read by typing:

Запуск DHCP-сервера
Before starting the dhcp initialization script edit the file so that it looks something like this:

Переменная  - это устройство, на котором необходимо запустить DHCP-сервер, в этом случае. Добавление большего количества аргументов к переменной  может быть полезно в случае сложной топологии сети с большим количеством Ethernet-адаптеров. Чтобы запустить dhcp-сервер, введите:

Чтобы добавить dhcp-сервер к сценариям иницализации, введите:

Устранение неполадок, связанных с DHCP-сервером
Чтобы проверить загружается ли узел сети, посмотрите сообщения в. Если узел загружается успешно, файл должен содержать внизу несколько строчек, выглядящих следующим образом:

Если встречается следующее сообщение, это возможно означает, что с файлом конфигурации что-то не то, но в то же время DHCP сервер передает данные верно.

Каждый раз, после изменения файла конфигурации, нужно перезапускать DHCP-сервер. Чтобы перезапустить сервер, введите:

Информация о TFTP-сервере
TFTP означает простой протокол передачи файлов (англ. Trivial File Transfer Protocol). TFTP-сервер предоставит ведомым компьютерам ядра и первичную файловую систему для начальной загрузки. Все ядра и файловые системы ведомых машин будут храниться на TFTP-сервере, поэтому, хорошей идеей будет сделать master-узел TFTP-сервером.

Установка TFTP-сервера
Высоко рекомендуемый tftp-сервер доступен в качестве пакета tftp-hpa. Этот tftp-сервер написан автором SYSLINUX и очень хорошо работает с pxelinux. Чтобы его установить, просто введите:

Настройка TFTP-сервера
Отредактируйте файл. Необходимо указать каталог tftproot в  и также, любые параметры командной строки в. Это должно выглядеть следующим образом:

Параметр  обозначает то, что сервер слушает в автономном режиме (stand alone mode), поэтому нет необходимости запускать inetd. означает, что уровень вывода сообщений log/error должен быть подробный. указывает на корневой каталог tftp-сервера.

Запуск TFTP-сервера
Чтобы запустить tftp-сервер, введите:

Эта команда должна запустить tftp-сервер с параметрами, которые указаны в. Если нужно, чтобы этот сервер автоматически запускался во время загрузки, наберите:

Информация о PXELINUX
Этот раздел не требуется если используется только Etherboot. PXELINUX — это сетевой загрузчик, эквивалентный LILO или GRUB, который обслуживается через TFTP. По существу, это небольшой набор инструкций, который сообщает клиенту где разместить его ядро и временную файловую систему и разрешает различные параметры ядра.

Перед началом
Now the file pxelinux.0 is required, which comes in the SYSLINUX package by H. Peter Anvin. This package can be installed by typing:

Настройка PXELINUX
Before starting the tftp server pxelinux needs to be set up. First copy the pxelinux binary into the directory:

Это создаст файл конфигурации загрузчика по умолчанию. Двоичный файл просматривает каталог  в поисках файла с таким же именем, как и IP-адрес клиента в шестнадцатеричной системе. Если он не находит этот файл, он убирает самую правую цифру из имени файла и продолжает поиск, пока цифры не закончатся. Версии syslinux 2.05 и более поздние сперва выполнят поиск файла с таким же именем, как и MAC-адрес. Если таких файлов не найдено, начинается поиск по алгоритму, описанному выше. Если ничего не найдено, используется файл.

Давайте начнем с файла :

The  tag directs pxelinux to the kernel bzImage that was compiled earlier. The  tag appends kernel initialisation options. Since the slave kernel was compiled with , the nfsroot will be specified here. The first IP is the master's IP and the second IP is the directory that was created in to store the slave's initial filesystem.

Информация об Etherboot
Etherboot boots network boot images from a TFTP server. As the PXE this is equivalent to LILO or GRUB. The  utility enables the creation of different images using different options.

Перед тем как начать
The  (utility for making tagged kernel images useful for netbooting) package is needed to create the Etherboot images. This tool will create a preconfigured kernel image from the original kernel. This contains the boot options as shown further down.

Настройка Etherboot
In this section a simple etherboot image will be created. As the dhcp server gives out the clients root-path in the "option root-path" dhcp.conf, this does not have to be included here. More details can be found in the mknbi manual.

Создание загрузочных образов. Это создаст загружаемый образ системы в формате ELF, способный передать ядру dhcp и путь к корневому каталогу. Это также заставит ядро просмотреть сеть в поисках dhcp-сервера.

Устранение неполадок в процессе сетевой загрузки
There are a few things that can be done to debug the network boot process. Primarily a tool called  can be used. To install  type:

Now various network traffic can be listened to, to make sure the client/server interactions are functioning. If something isn't working there are a few things that could be checked. First make sure that the client/server is physically connected properly and that the networking cables are not damaged. If the client/server is not receiving requests on a particular port make sure that there is no firewall interference. To listen to interaction between two computers type:

The  command can also be configured to listen on particular port such as the tftp port by typing:

A common error that might be received is: "PXE-E32: TFTP open time-out". This is probably due to firewall issues. If  is being used, it might be worth checking  and  and make sure that they are configured properly. The client should be allowed to connect to the server.

Информация об NFS-сервере
NFS stands for Network File System. The NFS server will be used to serve directories to the slave. This part can be somewhat personalized later, but right now all that is wanted is a preliminary slave node to boot diskless.

Информация о Portmapper
Различные клиент-серверные службы не слушают отдельный порт, но, вместо этого, полагаются на RPCs (Remote Procedure Calls - удаленный вызов процедур). Когда сервис инициализируется, он прослушивает случайный порт, и затем регистрирует этот порт с помощью утилиты Portmapper. NFS полагается на RPCs и, таким образом, требует того, чтобы Portmapper был запущен перед ее запуском.

Before starting
The NFS Server needs kernel level support so if the kernel does not have this, the master's kernel needs to be recompiled. To double check the master's kernel configuration type:

The output should look something like this if the kernel has been properly configured:

Установка NFS-сервера
Пакет NFS может быть установлен с помощью системы Portage, посредством ввода:

Этот пакет установит утилиту для проброса портов (portmapping utility), nfs-сервер, и утилиты nfs-клиентов, а также автоматически обработает зависимости инициализации.

Настройка NFS-сервера
There are three major configuration files that will have to be edited:

Файл указывает как, кому и что можно экспортировать через NFS. Файл fstab slave-узла будет изменен таким образом, чтобы было можно примонтировать файловые системы NFS, экспортируемые master-узлом.

Обычный файл для master-узла должен выглядеть следующим образом:

Первое поле обозначает каталог для экспорта, а следующее за ним поле указывает, кому и как надо передать содержащуюся в нем информацию. Это поле может быть поделено на две части: кому разрешено монтировать этот отдельный каталог, и что монтирующий этот каталог клиент может делать с файловой системой:  - доступ только для записи,   - для чтения/записи; параметры   и   являются важными для бездисковых клиентов, которые осуществляют запись на диск, так чтобы они не были "сброшены" механизмом ограничения прав доступа root squash при I/O запросах. Файл fstab на ведомом узле,, должен выглядеть так:

In this example, master is just the hostname of the master but it could easily be the IP of the master. The first field indicates the directory to be mounted and the second field indicates where. The third field describes the filesystem and should be NFS for any NFS mounted directory. The fourth field indicates various options that will be used in the mounting process (see mount(1) for info on mount options). Some people have had difficulties with soft mount points so here they are made hard mounts, a look into various options should be done to make the cluster more efficient.

Последний файл, который необходимо отредактировать — это файл, который описывает несколько параметров для nfs при инициализации. Он выглядит так:

The  should be changed to the number of diskless nodes on the network.

Запуск NFS-сервера
The nfs server should be started with its init script located in by typing:

If this script is to be started every time the system boots simply type:

Копирование недостающих файлов
Now the slave's file system will be made in sync with the master's and provide the necessary binaries while still preserving slave specific files.

Настройки сети на бездисковых машинах
In order to prevent the networking initscript from killing the connection to the NFS server, an option needs to be added to on the diskless client's filesystem.

Сценарии инициализации
Init scripts for slaves are located under for services needed on the diskless nodes. Each slave can be set up and customized here, it all depends on what each slave is meant to do.

Now is a good time to boot the slave and cross some fingers. It works? Congratulations, you are now the proud owner of (a) diskless node(s).