Category Archives: RedHat KB

Как создать файловую систему ext3, оптимизированную для работы на RAID и приложений с прямым вводом/выводом?

Система: Red Hat Enterprise Linux 3, Red Hat Enterprise Linux 4, Red Hat Enterprise Linux 5

Решение:

RAID уровней 0, 4, 5 и 6 для записи на разные диски, разбивает данные на большие блоки — “полосы”, обычно по 64KB. Выравнивание разделов и файловых систем в соответствии с размером этих полос может повысить производительность, в частности, программ, которые используют прямой ввод/вывод.

Программа fdisk создаёт разделы, выровненные по границам цилиндров, в соответствии с исторической геометрией “цилиндр/дорожка/сектор” (cylinder/head/sector, C/H/S). Это позволяет обеспечить максимальную совместимость с другими операционными системами и утилитами. К сожалению, такая геометрия обычно не соответствует размеру полосы RAID-массива. Если доступ к RAID будет осуществляться только операционными системами и утилитами, полностью поддерживающими логическую адресацию блоков (Logical Block Addressing, LBA), то необходимость в выравнивании по геометрии C/H/S отпадает, а с помощью программы parted можно выровнять разделы под полосы RAID-массива.

Внимание: все приводимые здесь примеры уничтожают существующие разделы и файловые системы. Применяйте их только для создания новых файловых систем.

Пример 1: выровненный по границе цилиндра раздел, созданный утилитой fdisk на диске /dev/sdb.

Parted показывает, что fdisk создал раздел, начиная с 63-сектора (32,256 байта) тома, что совместимо с геометрией C/H/S, но не оптимально для RAID. Поскольку RAID использует полосы размером 64KB, начало раздела должно быть сдвинуто на сектор 128. Начинать раздел с нулевого сектора нельзя, поскольку будет перезаписана таблица разделов. Большинство RAID-массивов используют сектора размером 512 байт, но возможны сектора и большего размера.

Примечание: По-умолчанию, parted использует в единицах размера легко читаемые сокращения системы СИ (степени числа 10). Поскольку они редко совпадают со степенями числа 2, parted нужно перевести в режим работы с секторами (unit s), перед тем как проверять или задавать выравнивание разделов по секторам.

Пример 2: удалите раздел /dev/sdb1 и создайте его заново, начиная с сектора 128.

Примечание: Команды move и resize утилиты parted пытаются сохранить содержимое файловой системы раздела. Если в разделе нет файловой системы, то эти команды откажутся работать.

Выровненная файловая система ext3 может быть создана на выровненном разделе или на логическом томе, состоящем из выровненных физических томов. LVM не влияет на выравнивание, если размер физического экстента, превосходит размер блока RAID. Обычно размер RAID блока равен 64KB, а размер физического экстента — 4MB.

Команда mke2fs принимает параметр stride, который позволяет оптимизировать размещение метаданных файловой системы для RAID-массивов. Параметр задаётся в блоках файловой системы, которые в большинстве случаев равняются 4KB. Чтобы избежать возможных неточностей и гарантировать правильность вычислений, лучше всего его задать явно.

Пример 3: создайте файловую систему ext3 на /dev/sdb1, оптимизированную для RAID с размером блока 64KB.

Как определить и настроить вероятность с которой процесс будет завершён при нехватке оперативной памяти

Ядро Red Hat Enterprise Linux 5.2 создает 2 файла для каждого процесса, которые позволяют управлять вероятностью, с которой этот процесс будет завершён, когда система будет вынуждена заврешать процессы из-за нехватки оперативной памяти (out-of-memory, OOM). Это файлы:

  • /proc/[pid]/oom_adj — используется для изменения “OOM-счёта” (OOM score), который определяет вероятность завершения процесса при нехватке оперативной памяти. Чем больше значение OOM-счёта, тем больше вероятность того, что процесс будет завершён подсистемой oomkill. Допустимые значения находятся в промежутке от -17 до 15; обратите внимание, что OOM-счёт равный -17 означает, что [pid] не будет завершён при нехватке памяти.

    Чтобы задать OOM-счёт, просто выполните команду echo значение с выводом в файл /proc/[pid]/oom_adj. Например, чтобы установить OOM-счёт равный 15 для процесса 1111, выполните:

    Учтите, что OOM-счёт наследуется процессом-потомком от родительского процесса при использовании системных вызовов семейства fork().

  • /proc/[pid]/oom_score — содержит текущий OOM-счёт для данного процесса. Используйте команду cat чтобы посмотреть текущий OOM-счёт для процесса с номером [pid]. Например, чтобы узнать текущий OOM-счёт для процесса 1111, выполните:

Прим. пер.: Значение в файле oom_score — динамически вычисляемое, оно не равняется значению, которое передаётся в файл oom_adj. Значение, передаваемое в файл oom_adj, меняет вероятность в большую или меньшую сторону, а не задаёт абсолютное значение.

Как выполнить минимальную установку Red Hat Enterprise Linux 5 с помощью Anaconda?

Система: Red Hat Enterprise Linux 5

Проблема

Минимальная установка Red Hat Enterprise Linux необходима для некоторых продуктов Red Hat, таких как Red Hat Network Satellite (RHN Satellite). Одной из наиболее распространённых причин неудачной установки RHN Satellite, является установка на “не-минимальную” (или, “не-@base“) систему Red Hat Enterprise Linux.

Решение

Следующие шаги описывают порядок действий для установки минимальной системы Red Hat Enterprise Linux 5 с помощью графического режима утилиты установки Anaconda:

  1. Загрузитесь с установочного носителя и начните установку.
  2. Когда вы дойдёте до экрана выбора пакетов (package customization), выберите опцию “Customize now” и нажмите “Next.”
  3. Следующий экран будет содержать несколько категорий, в каждой из которых находятся разные группы пакетов. Пройдите по всем категориям, снимая отметки со всех групп, кроме группы ‘Base’ в категории ‘Base’.
  4. Нажмите “Next” чтобы продолжить процесс установки.

После завершение установки, система должна автоматически загрузиться в уровень выполнения 3. Зарегистрируйтесь в системе как пользователь root и просмотрите файл /root/anaconda-ks.cfg. Если @base это единственная присутствующая в нём группа пакетов, то система установлена в минимальном варианте.

Как определить архитектуру установленного пакета?

По-умолчанию, если вы сделаете запрос командой rpm -q, архитектура пакета отображаться не будет. Чтобы узнать архитектуру пакета, используйте команду rpm с такими параметрами:

Замените <имя пакета> названием пакета, архитектуру которого нужно узнать. Если вы не знаете точного имени пакета, то та же опция --queryformat может использоваться с командой rpm -qa, а вывод пропустите через фильтр grep, чтобы найти все пакеты, соответствующие шаблону:

Чтобы вывод команды rpm всегда включал архитектуру пакета, отредактируйте файл /etc/rpm/macros.prelink и добавьте в конце следующую строку:

Как настроить Xendump в Red Hat Enterprise Linux 5?

Система: Red Hat Enterprise Linux 5

Решение:

Xendump это средство захвата дампов памяти гостевых систем Xen. Оно встроено в гипервизор Xen Hypervisor. Дампы памяти ядра полезны при выяснении причин краха системы. Для анализа таких дампов используется утилита crash. Утилита crash аналогична традиционной Unix-программе crash. Она предоставляет трассировки стека и другую отладочную функциональность для определения проблемных областей, вызывающих крах системы. Аналогичное средство, предназначенное для обычных (не-Xen) ядер, называется Kdump. Чтобы узнать больше о том, как работает Kdump, прочитайте Как настроить kexec/kdump в Red Hat Enterprise Linux 5? .

Чтобы настроить Xendump следуйте нижеприведённым инструкциям:

  1. Включите средство Xendump. Отредактируйте /etc/xen/xend-config.sxp и измените строку

    на:

  2. Перезапустите демон xen:

  3. Чтобы проверить работу Xendump, запустите гостевую систему Xen:

  4. Выполните захват памяти командой:

Обратите внимание, что на данный момент Xendump может быть настроен для автоматического захвата дампов памяти паравиртуальных (PV) гостевых систем Xen при их крахе. Для захвата дампа памяти гостевых систем Xen с полной виртуализацией (FV) Xen, необходимо выполнять команду xm dump-core вручную.

Как загрузить новое ядро с помощью kexec?

Система: Red Hat Enterprise Linux 5

Решение:

Kexec это механизм быстрой загрузки, который позволяет загружать ядро Linux из контекста уже запущенного ядра без передачи управления BIOS. Процедуры инициализации BIOS-а могут занимать очень много времени, особенно на больших серверах со множеством периферийных устройств. Механизм kexec позволяет сэкономить массу времени разработчикам, которые должны многократно перезагружать систему.

Проверьте, установлен ли пакет kexec-tools:

Следующие команды показывают, как можно подготовить к загрузке (загрузить) kernel-2.6.18-53.1.4.el5:

Чтобы передать управление подготовленному (загруженному) ядру, выполните:

Как настроить kexec/kdump в Red Hat Enterprise Linux 5?

Общее представление

Kexec это механизм быстрой загрузки, который позволяет загружать ядро Linux из контекста уже запущенного ядра без передачи управления BIOS. Процедуры инициализации BIOS-а могут занимать очень много времени, особенно на больших серверах со множеством периферийных устройств. Механизм kexec позволяет сэкономить массу времени разработчикам, которые должны многократно перезагружать систему.

Kdump это новый очень надёжный механизм получения дампа памяти при крахе ядра. Дамп захватывается в контексте свежезагруженного ядра, а не в контексте сбойного ядра. Kdump использует kexec чтобы загрузить второе ядро при сбое основного ядра. Это второе ядро, которое часто называют “ядром захвата” (capture kernel), загружается в небольшой участок памяти и создаёт образ памяти основного ядра.

Первое ядро резервирует часть памяти, которая используется вторым ядром при загрузке. Учтите, что kdump резервирует значительную часть памяти при загрузке, что меняет фактические минимальные требования к оперативной памяти Red Hat Enterprise Linux 5. Чтобы рассчитать их, обратитесь к документу http://www.redhat.com/rhel/details/limits/, где указаны минимальные требования к ОЗУ и прибавьте к ним количество памяти, необходимое для kdump.

Kexec реализует загрузку ядра захвата без передачи управления BIOS-у, а значит сохраняется содержимое памяти основного ядра, что и представляет собой дамп памяти ядра при крахе.

Установка Kdump

Проверьте, что пакет kexec-tools установлен:

Если он не установлен, установите его с помощью yum:

Расположение дампа Kdump

В файле /etc/kdump.conf должно быть указано место для сохранения дампа памяти ядра при крахе. Отсутствие этого параметра ведёт к неопределённому поведению Kdump. Есть возможность сохранять дамп непосредственно на устройство, в файл, или через сеть по протоколам NFS и SSH.

Дампирование на устройство

Вы можете настроить Kdump выполнять дамп непосредственно на устройство, указав директиву raw в файле kdump.conf. Синтаксис этой директивы такой:

Например:

Пожалуйста учтите, что эта конфигурация уничтожит все данные, которые находятся на этом устройстве.

Дампирование в файл на диске

Kdump может быть настроен монтировать раздел и сохранять дамп в файл на диске. Это делается указанием типа файловой системы и раздела в файле kdump.conf. Раздел может быть задан именем устройства, меткой файловой системы или UUID, аналогично тому, как это указывается в файле /etc/fstab.

По-умолчанию, каталог в котором будет сохранятся дамп, называется /var/crash/%DATE/, где %DATE — это текущая дата на момент создания дампа. Например, конфигурация:

смонтирует /dev/sda1, как устройство с файловой системой ext3, и запишет дамп в каталог /var/crash/, тогда как

смонтирует устройство с файловой системой ext3 и меткой /boot. На большинстве инсталляций Red Hat Enterprise Linux, это будет каталог /boot. Самый простой способ узнать, какое устройство нужно указать в конфигурации — посмотреть файл /etc/fstab. Как уже говорилось, каталог по-умолчанию для сохранения дампов называется /var/crash/%DATE/. Изменить его можно с помощью директивы path в файле kdump.conf. Например:

Эта конфигурация указывает, что сохранять файлы дампов нужно в каталоге /usr/local/cores/ вместо /var/crash/.

Дампирование на сетевое устройство по NFS

Чтобы настроить kdump для дампирования на том NFS, отредатируйте файл /etc/kdump.conf и добавьте в него строку в формате:

Например:

Эта директива указывает, что дамп памяти нужно сохранять в файл /export/vmcores/var/crash/[имя_хоста]-[дата] на сервере nfs.example.com. Система-клиент должна иметь права на запись для этого тома.

Дампирование на сетевое устройство по SSH

Преимущество SSH — шифрование передаваемого по сети трафика. По этой причине, этот метод является наилучшим в ситуации, когда дамп памяти нужно передавать через сеть с общем доступом, такую как Internet или корпоративную WAN.

Например:

В этом случае, kdump будет использовать scp для подключения к серверу crash.example.com под пользователем kdump. Дамп памяти будет скопирован в каталог /var/crash/[имя_хоста]-[дата]/. Пользователь kdump должен иметь необходимые права для записи на удалённом сервере.

Чтобы активировать внесённые в настройку изменения, выполните команду service kdump propagate, которая должна выдать примерно следующий вывод:

Задание выборки страниц и сжатие

На системах с большим объемом оперативной памяти рекомендуется не дампировать ненужные страницы памяти и сжимать остальные. Это настраивается в файле kdump.conf командой core_collector. На текущий момент единственным полностью поддерживаемым коллектором является makedumpfile. Его опции можно посмотреть командой makedumpfile --help. Опция -d указывает какие типы страниц не нужно дампировать. Параметр этой опции представляет битовую маску следующих типов:

Вообще говоря, все эти страницы не содержат ценной для отладки информации. Чтобы исключить их из дампа, укажите параметр -d 31. Опция -c говорит makedumpfile сжимать остальные страницы памяти.

Помните, что использование ключей -d и -c немного увеличивает время, необходимое для создания дампа памяти.

Добавление параметров загрузки

Необходимо модифицировать параметры загрузки основного ядра, чтобы зарезервировать память для ядра захвата. Для архитектур i386 и x86_64 отредактируйте файл /etc/grub.conf и добавьте crashkernel=128M@16M в конец строки с параметрами ядра.

Примечание: вы можете указать размер резервируемой памяти меньше 128M, но тестирование показало, что уже при 64M kdump может работать ненадёжно.

Пример файла /etc/grub.conf с добавленными параметрами kdump:

Тестирование

После внесения указанных изменений, перезагрузите систему. 128M памяти (начиная с 16M), зарезервированные для ядра захвата, не будут использоваться основной системой. Обратите внимание, что команда free -m покажет на 128M доступной памяти меньше, чем до настройки kdump.

Теперь, когда необходимая память выделена и зарезервирована, включите скрипт автозапуска kdump и запустите сервис:

В результате через kexec будет загружен образ ядра, что приготовит систему к захвату дампа памяти при крахе. Чтобы это проверить, вызовите крах системы с помощью sysrq:

Эта команда вызовет панику ядра, после чего система должна загрузить ядро kdump. Когда процесс загрузки дойдёт до момента запуска сервиса kdump, дамп памяти основного ядра будет скопирован на диск или другое место, указанное в файле /etc/kdump.conf.

Примечание: kdump не поддерживает работу консоли в режиме frame-buffers или X-ов. В системах, обычно работающих с параметром ядра вроде “vga=791” или с запущенным сервером X, изображение на консоли при загрузке ядра через kexec будет искажено. Тем не менее, это не помешает ядру kdump создать дамп памяти, а изображение восстановится после перезагрузки системы.

Как пользоваться списками контроля доступа (Access Controls Lists, ACLs) в Red Hat Enterprise Linux 5?

Списки контроля доступа (Access Control Lists, ACL) предоставляют дополнительные к традиционным правам возможности разграничения доступа к файлам и каталогам. Для того, чтобы использовать ACL, файловая система должна быть смонтирована с параметром acl:

Чтобы установить права доступа для для пользователя или группы, используйте команду setfacl -m.

Формат команды для установки пользовательского ACL:

Указанная команда даст пользователю ray права на чтение и выполнение файла /home/foo.txt.

Чтобы задать ACL для группы, используйте:

Команда в примере даёт группе accounting права на чтение, запись и выполнение файла /finance/foo.txt.

ACL по-умолчанию для каталога (этот ACL будет автоматически наследоваться любым файлом и каталогом, созданными в данном каталоге) устанавливается командой:

Эта команда указывает, что любой файл или каталог, созданный в каталоге brochures, будет автоматически доступен пользователю marketing на чтение, запись и выполнение.

Для удаления ACL используется команда:

Команда из примера убирает у пользователя ray права на чтение и выполнение файла /home/foo.txt.

Для того, чтобы узнать текущий ACL файла или каталога, используйте команду:

В результате выполнения этой команды выдаётся текущий ACL файла /home/foo.txt. Выглядит это приблизительно так:

За подробной информацией о списках контроля доступа обращайтесь к страницам руководства по командам setfacl и getfacl.

Как уменьшить время таймаута для смонтированного раздела NFS?

Если у вас смонтирован раздел с ненадёжного или медленного NFS-сервера, или вы просто не хотите ждать, вы можете изменить параметры монтирования такого раздела, уменьшив время таймаута. Кроме того, можно также отменить повторные попытки доступа после первого таймаута. Всё это можно сделать, задав опции timeo, retrans и intr для NFS-раздела в файле /etc/fstab. Ниже приведён пример такой записи:

  • Опция timeo задаёт время таймаута в десятых частях секунды, потому, если у вас медленная сеть, имеет смысл указать этот параметр побольше, например 3 или 4. Это позволит нормально работать в сетях с большими задержками.
  • Опция intr гарантирует, что процесс, выполняющий операции ввода/вывода на смонтированном NFS-томе, может быть прерван сигналами, если NFS-сервер будет недоступен. В частности, это позволяет использовать Ctrl+C и команду kill для прерывания процесса.
  • Опция retrans указывает количество повторных запросов к NFS-серверу, прежде чем определяется, что сервер недоступен.

Обратите также внимание, что протоколы транспортного уровня, например TCP, могут иметь свои значения таймаутов, которые не контролируются указаными выше опциями.

Как запретить интерпретатору bash сохранять некоторые команды в истории команд?

Переменная окружения HISTCONTROL задаёт параметры сохранения команд в истории команд интерпретатора bash.

HISTCONTROL состоит из списка опций, разделённых двоеточием. Опции могут принимать следующие четыре значения:

  • Если список опций содержит ignorespace, то команды, начинающиеся с пробела, сохраняться в истории не будут.
  • Опция ignoredups указывает, что строки совпадающие с последней строкой истории, сохранятся не будут.
  • Опция ignoreboth — сокращение для ignorespace и ignoredups.
  • Опция erasedups говорит интерпретатору, что перед добавлением новой строки в историю команд, нужно удалить все старые строки, совпадающие с добавляемой.

Любое другое значение, кроме указанных, будет игнорироваться.

Если переменная HISTCONTROL не определена, или не содержит допустимого значения, все команды, вводимые в интерпретаторе, будут сохранены в истории команд.

Заметьте, что вторая и последующие строки многострочной команды не проверяются и добавляются в историю команд вне зависимости от значения переменной HISTCONTROL.

Переменная HISTCONTROL может определяться и для конкретного пользователя, и на всю систему, аналогично всем другим переменным окружения интерпретатора bash. Например, чтобы задать опцию ignorespace для всей системы, добавьте следующую строку в файл /etc/bashrc:

export HISTCONTROL=ignorespace

Чтобы задать опцию для конкретного пользователя, укажите необходимую строку в файле .bash_profile в домашнем каталоге пользователя. Обратите внимание, что изменения не будут активизированы до тех пор, пока пользователь полностью не выйдет из интерпретатора и не зайдёт повторно.