Вход на сайт
Яндекс.Метрика

Рейтинг@Mail.ru

Centos 7 NTPD не стартует при загрузке

Centos 7 NTPD не стартует при загрузке
В этом случае естесственно полагаю у вас включен в автозагрузку демон ntpd, т.е.
#systemctl list-unit-files | grep -i ntpd.service
ntpd.service enabled
Но всё равно при рестарте системы, ntpd демон не стартует.
Оказывается, если у вас стоит сервис chronyd.service в статусе enabled, тогда ntpd не будет стартовать автоматически.
Что делаем:
#systemctl list-unit-files | grep -i chrony
chrony-dnssrv@.service static
chrony-wait.service disabled
chronyd.service enabled
chrony-dnssrv@.timer disabled
Ага, демон chronyd.service в статусе enabled. Выключаем:
#systemctl disable chronyd.service
Перезагружаем систему и радуемся.

 

ddf1_Raid1 failed или как затереть метаданные md raid

При установке CentOS столкнулся с проблемой, когда не собрался raid из дисков, которые раньше были в составе рейд массива. Т.е. на дисках осталась метаинформация о raid и система на захотела устанавливаться.

Пытался удалить метаинформацию командой:

#dmraid -r -E /dev/sda

Но исполнение команды вылетело в ошибку.

Известно, что метаданные RAID хранятся в самом конце диска, и форматированием их убить невозможно. Помогает забить нулями конец диска, для этого используем число seek - сколько блоков пропустить от начала диска, оно зависит от размера диска, можно и совсем не указывать, но тогда придется ждать очень долго.

Итого, чтобы затереть метаданные массива и затереть mbr (главную загрузочную запись) выполняем:

#dd if=/dev/zero of=/dev/sda bs=1k count=1; dd if=/dev/zero of=dev/sda bs=1k seek=$((`fdisk -s /dev/sda` - 2))

где count=n - сколько блоков, seek=n - сколько блоков пропустить от начала, bs=n — размер блока.

 

Также можно попробовать следуущее:

1. Смотрим вывод по дискам:

# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111.8G 0 disk
├─sda1 8:1 0 512M 0 part
│ └─md0 9:0 0 512M 0 raid1 /boot
└─sda2 8:2 0 111.3G 0 part
└─md1 9:1 0 111.2G 0 raid1 /
sdb 8:16 0 2.7T 0 disk
└─sdb1 8:17 0 2.7T 0 part /mnt/1
sdc 8:32 0 3.7T 0 disk
├─sdc1 8:33 0 300M 0 part
├─sdc2 8:34 0 2T 0 part
└─ddf1_r10 253:0 0 3.7T 0 dmraid
├─ddf1_r10p1 253:1 0 300M 0 part
└─ddf1_r10p2 253:2 0 2T 0 part

Ага, видим что sdc диск связан с raid массивом. Удаляем метаинформацию:

# dmsetup remove /dev/mapper/ddf1_r10*

 

Обновление/замена Perl в Centos из исходников

 Установка/замена Perl в Centos из исходников

1. Скачаиваем source

wget http://www.cpan.org/src/5.0/perl-5.14.2.tar.gz

2. Распаковываем

tar -xf perl-5.14.2.tar.gz
cd perl-5.14.2

3. Если не установлены make и gcc, то ставим их

yum -y install make

yum -y install gcc

4. Указываем где будет home

./Configure -des -Dprefix=/opt/perl5/perls/perl5.14.2

5. Собираем

make
make test
make install

6. Создаем симлинк на наш новый perl

rm /usr/bin/perl

ln -s /opt/perl5/perls/perl5.14.2/bin/perl /usr/bin/perl

[root@ext2 libexec]# perl -v

This is perl 5, version 14, subversion 2 (v5.14.2) built for x86_64-linux

Copyright 1987-2011, Larry Wall

7. Ставим заново неоходимые модули. 

Кластер Pacemaker+Corosync+HAProxy+Nginx

Для построения кластера высокой доступности, т.е. high availability, будем использовать PacemakerPacemaker - менеджер ресурсов кластера (Cluster Resource Manager), задачей которого является достижение максимальной доступности управляемых им ресурсов и защита их от сбоев как на уровне самих ресурсов, так и на уровне целых узлов кластера. Архитектура pacemaker состоит из трех уровней: 

  1. Кластеронезависимый уровень - на этом уровне располагаются сами ресурсы и их скрипты, которыми они управляются и локальный демон, который скрывает от других уровней различия в стандартах, использованных в скриптах (на рисунке зеленый).

  2. Менеджер ресурсов (Pacemaker), который предстовляет из себя мозг. Он реагирует на события, происходящие в кластере: отказ или присоединение узлов, ресурсов, переход узлов в сервисный режим и другие административные действия. Pacemaker исходя из сложившейся ситуации делает расчет наиболее оптимального состояния кластера и дает команды на выполнения действий для достижения этого состояния (остановка/перенос ресурсов или узлов). На рисунке обозначен синим.

  3. Информационный уровень - на этом уровне осуществляется сетевое взаимодействие узлов, т.е. передача сервисных команд (запуск/остановка ресурсов, узлов и т.д.), обмен информацией о полноте состава кластера (quorum) и т.д. На рисунке обозначен красным. Как правило на этом уровне работает Corosync. 

Подробнее: Кластер Pacemaker+Corosync+HAProxy+Nginx

Узкие места сетевой подсистемы Linux. Тюнинг сети в Linux. Настройка производительности сети в модели NAPI и с прерываниями.

Узкие места сетевой подсистемы Linux. Тюнинг сети в Linux. Настройка производительности сети в модели NAPI и с прерываниями.

Кольцевой буфер

Кольцевые буферы, совместно используются драйвером устройства и сетевой картой. TX – есть передача данных, а RX – получение данных в кольцевом буфере. Как следует из названия, переполнение буфера просто перезаписывает существующие данные. Есть два способа переместить данные от сетевой карты до ядра: аппаратные прерывания и программные прерывания, названные SoftIRQs.

Кольцевой буфер RX используется, чтобы сохранить входящие пакеты, пока они не могут быть обработаны драйвером устройства. Драйвер устройства опустошает буфер RX, обычно через SoftIRQs, который помещает входящие пакеты в структуру данных ядра, названную sk_buff или «skb», чтобы начать свой путь через ядро и до приложения, которому принадлежит соответствующий сокет. Кольцевой буфер TX используется для хранения исходящих пакетов, которые предназначенные для отправки по проводам.

Эти кольцевые буферы находятся у основания стека и являются критическим моментом, в который может произойти удаление (drop) пакетов, что негативно влияет на производительность сети.

Прерывания и обработчики прерываний

Прерывания от аппаратных средств известны как прерывания «top-half».

Сетевые карты, как правило, работают с кольцевыми буферами (DMA ring buffer) организованными в памяти, разделяемой с процессором. Каждый входящий пакет размещается в следующем доступном буфере кольца. (DMA - Direct Memory Access (Прямой доступ к памяти) — режим обмена данными между устройствами или же между устройством и основной памятью, в котором центральный процессор (ЦП) не участвует). После этого требуется сообщить системе о появлении нового пакета и передать данные дальше, в специально выделенный буфер (Linux выделяет такие буферы для каждого пакета). Для этой цели в Linux используется механизм прерываний: прерывание генерируется всякий раз, когда новый пакет поступает в систему. Чаще используется отложенные прерывания (см. в статье Linux, принципы работы с сетевой подсистемой ). В ядро Linux начиная с версии ядра 2.6 был добавлен так называемый NAPI (New API), в котором метод прерываний сочетается с методом опроса. Сначала сетевая карта работает в режиме прерываний, но как только пакет поступает на сетевой интерфейс, она регистрирует себя в poll-списке и отключает прерывания. Система периодически проверяет список на наличие новых устройств и забирает пакеты для дальнейшей обработки. Как только пакеты обработаны, карта будет удалена из списка, а прерывания включатся снова.

Подробнее: Узкие места сетевой подсистемы Linux. Тюнинг сети в Linux. Настройка производительности сети в...

Страница 1 из 6

unix-way