++ Введение.HAST (Highly Avalible Storage) технология позволяющая создавать отказоустойчивые хранилища (Primary-Secondary) используя несколько машин. Эта технология может помочь при создании кластера высокой доступности (HA). HAST появился в FreeBSD начиная с 8.1. В текущей версии HAST можно использовать только две машины. HAST работает на уровне блоков и не зависит от файловой системы, т.е. можно использовать ZFS или UFS.
Эта технология работает по TCP. Для работы используется демон hastd и утилита для управления hastctl.
++ Использование.
Имеем две машины (ноды)
host1 192.168.1.2
host2 192.168.1.9
на обоих машинах стоит дополнительный диск ad3.
HAST готов к использованию сразу, без дополнительных установок. Для конфигурирования создадим файл /etc/hast.conf
resource my {
on host1 {
local /dev/ad3
remote 192.168.1.9
}
on host2 {
local /dev/ad3
remote 192.168.1.2
}
}
т.е. host1 имеет диск ad3 и синхронизируется с 192.168.1.9 (host2), а для host2 соответственно наоборот.
Сделайте такой же файл на другой машине.
host1# hastctl create my
host1# hastd
После этого демон должен запустится, проверим, что все работает
host1# hastctl status
должно выдать вроде этого
my:
role: init
provname: my
localpath: /dev/ad3
extentsize: 0
keepdirty: 0
remoteaddr: 192.168.1.2
replication: memsync
dirty: 0 bytes
Сделаем такие же действия на другой ноде
host2# hastctl create my
host2# hastd
Теперь раздадим роли машинам. Например, host1 будет главным, а host2 - резервным.
host1# hastctl role primary my
host2# hastctl role secondary my
После того, как host2 стал secondary, должна начаться синхронизация. В первый раз она не должна занять много времени.
Проверим, что все работает.
host1# hastctl status
my:
role: primary
provname: my
localpath: /dev/ad3
extentsize: 2097152
keepdirty: 0
remoteaddr: 192.168.1.9
replication: memsync
status: complete
dirty: 0 bytes
Для нас важно, чтобы был статус complete. Если статус другой, проверяем, что не так.
Теперь создадим файловую систему. Не смотря на то что можно использовать UFS лучше использовать ZFS, чтобы не приходилось запускать fsck.
Создадим пул используя появившееся устройство /dev/hast/my
host1# zpool create mydisk /dev/hast/my
host1# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
mydisk 95G 84.5K 95G 0% ONLINE -
На второй машине этого делать не надо.
HAST настроен.
++ Тестирование.
Создадим несколько файлов в mydisk и протестируем нашу систему. Для тестирования перезагрузим ноду с primary, т.е. host1.
После перезагрузки посмотрим состяние пула
host1# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
mydisk - - - - FAULTED -
Это случилось потому что пропало устройство /dev/hast/my Экспортируем пул и поменяем роль host1 на secondary
host1# zpool export -f my
host1# hastctl role secondary my
А host2 сделаем основным и импортируем пул.
host2# hastctl role primary my
host2# zpool import -f mydisk
host2# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
mydisk 95G 84.5K 95G 0% ONLINE -
Проверим наши файлы, они должны остаться.
++ Ошибки.
По умолчанию логи можно посмотреть в /var/log/message.
В результате некоторых действий можно добиться ситуации, когда вы обнаружите в логах запись Split brain - разделение сознания.
Это означает, что каждая из нод думает, что она главная и живет собственной жизнью. Такое может произойти если вы умудритесь
записать разную информацию на нодах или поставить обои машины в роль primary. Исправить эту ситуацию можно выбрав ту машину которая будет у вас secondary, и нужно сделать на ней:
hastctl role init my
hastctl create my
hastctl role secondary my
После этого должен запуститься процесс синхронизации. Он может занять продолжительное время.
++ Автоматизация.
Эта система сделана для кластеризации, а именно для кластера высокой доступности. Например можно воспользоваться CARP
чтобы сделать постоянным. Можно написать собственные скрипты, а можно воспользоваться стандартными. Автором HAST уже написаны готовые скрипты которые умеют определять на какой ноде сейчас primary.
Для работы следует установить ucarp:
cd /usr/ports/net/ucarp
make && make install clean && rehash
Скрипты находятся в /usr/share/expamles/hast/
Скопируйте их в /домашний каталог/sbin/hastd/ так предлагается по умолчанию и отредактируйте переменные в начале скриптов
ucarp.sh, ucarp_down.sh, ucarp_up.sh
Сделайте это на обоих нодах и запустите ucarp.sh на обоих нодах.
++ Дополнительные возможности.
У HAST существует три типа репликаций. Они различаются тем когда данные считаются записанными.
* memsync - Данные операции записи считаются завершенными когда запись локальна завершена
и когда удаленный узел принял данные, но до того как записать данные. Данные на удаленной ноде начинают
писаться, как только отправлен ответ.
* fullsync - Данные операции записи считаются завершенными когда запись завершена локально и на
удаленной ноде запись тоже завершена.
* async - Данные записи считаются завершенными когда запись завершена локально. Это наиболее быстрый способ записи.
На момент написания статьи работает только memsync.
Дополнительную информацию можно прочитать на http://wiki.freebsd.org/HAST
++ Заключение.
HAST только появился, у него богатые возможности для организации хранилища высокой доступности. В данный момент еще не все работает, но это хорошее начало для кластеризации на FreeBSD.
Перед тем как работать с HAST в боевых условиях рекомендую потренироваться. У меня были ситуации, когда secondary не хотел брать данные с primary, было что неаккуратные движения приводили к "Split Brain". Данные, правда, потеряны не были, но много времени было потеряно на синхронизации.
URL: http://rubuntu.livejournal.com/4629.html
Обсуждается: http://www.opennet.dev/tips/info/2453.shtml