Страницы

Сохранить статью у себя в соцсети:

четверг, 30 августа 2012 г.

§ Intel RAID controllers monitoring via Zabbix.

Мониторинг контроллеров от Intel с помощью Zabbix.

Продолжая тему мониторинга контроллеров, опишу процесс настройки мониторинга для контроллеров Intel. Для работы с этими контроллерами используется весьма функциональная утилита megacli, которая позволяет творить более серъезные вещи чем просто мониторинг.

понедельник, 27 августа 2012 г.

§ LSI Logic monitoring via Zabbix.

Настройка мониторинга RAID контроллеров LSI в Zabbix.

Продолжаю тему настройки мониторинга RAID контроллеров в Linux, с помощью Zabbix. На этот раз будет выполнена настройка контроллера LSI, в частности LSI Logic SAS1064ET PCI-Express Fusion-MPT SAS.

пятница, 24 августа 2012 г.

§ HP Smart Array monitoring via Zabbix.

Настройка мониторинга контроллеров HP Smart Array в Zabbix.

Для работы с контроллерами HP существует утилита hpacucli. Ее возможности очень хорошо подходят для задач мониторинга. Процесс настройки проводится в Gentoo Linux. Вообще говоря процедура настройки универсальная, отличие между настройкой в разных дистрибутивах, сводится только к отличиям в установке программы пакетным менеджером. В моем случае не стандартный emerge, а paludis.

четверг, 23 августа 2012 г.

§ Proxmox VE: Proper VM shutdown.

Корректное выключение KVM окружений.

Во многих инструментах управления виртуальными машинами на основе KVM есть функция выключения. В Proxmox VE есть команда qm shutdown. При выполнении команды виртуальной машине отправляется ACPI сигнал о том что нужно выключить питание. Но эта функция будет работать только тогда когда в виртуальной машине установлен и запущен сервис acpid. В противном случае машина просто проигнорирует сигнал, а команда будет ждать ответа и в зависимости от внутреннего алгоритма, либо завершится с таймаутом, либо завершит машину сигналом TERM или KILL. 
Поэтому следует проверять есть ли в машинах acpid и запущен ли он.

среда, 22 августа 2012 г.

§ Assign additional params to KVM guests.

Передача дополнительных параметров KVM окружениям.

При запуске виртуальных машин в Proxmox VE есть возможность передать qemu-kvm дополнительные параметры, определение которых недоступно в графическом интерфейсе. Таким образом можно передавать параметры настройки VNC, указать загрузку с ядра находящегося вне образа гостевой системы, отладочные и экспертные опции и т.п. Для этого нужно открыть файл конфигурации виртуальной машины в /etc/pve/qemu-server/ и указать параметр args после которого указать все необходимые параметры qemu-kvm.
# grep args /etc/pve/qemu-server/101.conf 
args: -vnc 10.101.14.1:1
Это очень полезная возможность и было бы круто если в веб-интерфейсе появится поле в котором можно указать такие параметры для передачи в qemu.

понедельник, 20 августа 2012 г.

§ oVirt: Deep dive.

Установка и настройка oVirt в CentOS.

ВНИМАНИЕ: Статья морально устарела. Читайте новый вариант.

Как оказалось настройка oVirt не совсем очевидное занятие и не сразу можно сообразить что в какой последовательности делать и в каком месте находятся те или иные вещи. Разберем же поподробнее процесс настройки oVirt. Чтобы не повторяться, установка будет осуществляться в CentOS 6.3. Почему CentOS? Есть мнение что он стабильнее чем Fedora. Однако следует помнить что oVirt использует в качестве основной платформы именно Fedora. Для CentOS в свою очередь существует репозиторий oVirt с адаптированными пакетами. Таким образом есть два варианта:
  • Всегда свежая Fedora с родным oVirt
  • Стабильный CentOS c адаптированным oVirt

воскресенье, 19 августа 2012 г.

§ Redis replication.

Переключение между Redis'ами с помощью репликации.

Совсем недавно, появилась необходимость перенести инстанс Redis'а с одного узла на другой. Необходимо это было сделать без остановки работы, приложению никак нельзя терять хранилище. Выходом в такой ситуации стало использование встроенной в Redis репликации и смена ip-адресов в DNS именах.

пятница, 17 августа 2012 г.

§ Filesystem labels.

настройка использования меток при загрузке системы.

Заметил что в некоторых дистрибутивах используется схема монтирования файловых систем с использованием имен устройств в /dev. Примером такого дистрибутива является всеми известный CentOS. Так вот у такого подхода есть некоторые минусы, в частности если используется LVM и если переименовать том, то приходится править fstab или даже grub.conf. При добавлении дополнительного диска именование и нумерация томов может сдвинуться и тогда при перезагрузке загрузчик не сможет сообразить откуда ему грузиться. Чтобы избежать таких проблем можно использовать схему обращения к устройствам посредством UUID и меток. Метки мне нравятся больше, так как им можно давать человекопонятные имена. Ниже пример переделки CentOS 6.3 на использование меток.

§ PostgreSQL with HugePages.

Настройка PostgreSQL для работы с HugePages.

В статье описывается настройка PostgreSQL с использованием больших страниц HugePages. Установка выполнялась в Gentoo Linux, но учитывая что технология HugeTLB является дистронезависимой, описанный подход будет универсален для любых дистрибутивов, чьи ядра поддерживают HugePages.

среда, 15 августа 2012 г.

§ oVirt Node Installation.

Установка и настройка oVirt Node.

oVirt Node представляет собой узел который будет использоваться для запуска виртуальных машин.

понедельник, 13 августа 2012 г.

§ oVirt Engine Installation

Установка oVirt Engine.

oVirt Engine предоставляет web-интерфейс для управления oVirt окружением. Также предоставляется консольный интерфейс для настройки опции которых нет в web-интерфейсе.

суббота, 11 августа 2012 г.

§ oVirt 3.1 Released

Выпущен oVirt 3.1.

Выпущен новый релиз oVirt 3.1 в котором появилось много новых и действительно хороших вещей.

вторник, 7 августа 2012 г.

§ Pgpool2: PCP control.

Управление pgpool2 через PCP.

Для управления pgpool2 реализован управляющий интерфейс PCP. С помощью него можно определять статус работы pgpool2 и дочерних процессов, состояние бэкендов, проводить работы по отключению и включению бэкендов, также доступно проведение процедуры восстановления при сбое мастера.

воскресенье, 5 августа 2012 г.

§ Pgpool2: memory caching.

Настройка кэширования в памяти для pgpool2.

Как известно в pgpool2 есть возможность кэшировать результаты запросов. Существует возможность кэширования данных в таблицах postgresql. В релиз-кандидатах pgpool2-3.2 появилась возможность кэширования результатов запросов в память. Местом хранения в зависимости от настройки может служить разделяемая память или memcached.

пятница, 3 августа 2012 г.

§ Pgpool2: Caching SELECT's.

Настройка кэширования в Pgpool2

В pgpool2 при выполнении запроса на чтение, есть возможность закэшировать результат. При последующем обращении результат будет отдан из кэша за существенно меньшее время, чем выполнение оригинального запроса. Есть три варианта настройки кеша. 

среда, 1 августа 2012 г.

§ Pgpool2: Load balancing

Настройка pgpool2 в режиме балансировки запросов.

В случае когда используется репликация баз данных, выполнение SELECT'ов в разных сереверах возвращает всегда одинаковый результат. Pgpool2 в режиме балансировки позволяет снизить нагрузку на каждый сервер PostgreSQL. Это делается за счет распределения запросов между всеми серверами в кластере баз данных, тем самым увеличивая общую пропускную способность. Балансировка работает лучше всего в случаях когда в БД выполняется множество одновременных запросов на чтение.

Популярные сообщения

Профиль в Google+ Яндекс цитирования Яндекс.Метрика