1.1, Аноним (-), 23:36, 20/09/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
У кого-нить был опыт использования DRBD в системах с большой интенсивностью записи/чтения на эти устойства?
Очень впечатления интересуют.
| |
1.4, Antrew (??), 05:58, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Рулез! Теперь точно сделаю общую файловую систему на кластер, которая будет храниться на самих нодах.
| |
1.5, matros (??), 09:54, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
обязательно тестируйте после установки и настройки. Не рекомендую использовать под базы данных. Можете напороться на неприятности в виде отката данных на более ранние даты)))
| |
1.8, Валентин (??), 11:19, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Где то год использовал на двух одинаковых серверах, один на другого бекапились.
Последнее время столкнулся с проблемой: периодически при записи на активный раздел он перемонтируется на рид-онли. Кусок лога:
...
Sep 7 15:23:39 data kernel: drbd0: rw=0, want=307161464, limit=306970624
Sep 7 15:23:39 data kernel: EXT3-fs error (device drbd0): ext3_find_entry: reading directory #18727690 offset 0
Sep 7 15:23:39 data kernel: Aborting journal on device drbd0
...
Не хватает инодов ?
| |
|
2.9, аноним (?), 11:50, 21/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
вполне возможно "want=307161464, limit=306970624" вот на такое число 190840
| |
|
1.10, Аноним (-), 13:42, 21/09/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Хочу его поверх софтварного raid1 заюзать для web и mysql, пока вроде работает на тестовых серверах нормально.
Только вот какую ФС брать, говорят ext3 глючит поверх софтварного рэйда - никто не сталкивался?
| |
1.12, Аноним (-), 12:53, 22/09/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Барахло это DRBD. Пользовал, потом плюнул. Проще, надежней, эффективней развернуть полноценное кластерное решение где ноды работаю в режиме Active/Active.
В DRBD только Active/Passive. При этом второй сервер просто курит бамбук.
| |
|
2.13, xguru (?), 22:35, 22/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
В DRBD8 Active/Active поддерживается.
Какие кластерные решения используете вы?
| |
|
3.14, Аноним (-), 23:07, 22/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
8.0 пока сплошная сырость.
Кластеры по базе Sun Cluster и Veritas Cluster. Системы поставлены разными поставщиками, поэтому имеется некоторый зоопарк.
Пока я возился с DRBD, то дико душила жаба, что нельзя заюзать второй сервер. Если в 8.0 наконец-то сделали то, что было реализовано уже много лет у других, то разработчикам респект. Только я еще пару лет подожду, пока софт доведут. Мне мои данные дороже.
| |
|
|
|
2.16, LM (??), 12:59, 24/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
Скажи как без Shared Storage на GFS2 сделать HA решение. Чтобы две ноды делили общее пространство с резеввированием?
Получаеться что либо две ноды используют один дисковый ресурс который к примеру по iscsi (нету HA).
или же наоборот одна нода использует два дисковых ресурса которые объединены в LVM (собстно не нужен GFS, ибо write нода одна).
Раскажете как сделать HA с GFS в которых Shared Storage будет парочку PC - респект вам и уважение.
| |
|
|
4.18, LM (??), 13:17, 25/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
Очень интересно.
Если вы смогли это сделать с помощью gnbd скажите пожалуста каким образом?
К примеру есть у нас serv1, serv2, node1, node2.
На серверах:
serv1# gnbd_export -e share1 /dev/sdb1
serv2# gnbd_export -e share1 /dev/sdb1
На нодах:
node1# gnbd_import -i serv1
node1# gnbd_import -i serv2
node2# gnbd_import -i serv1
node2# gnbd_import -i serv2
Так что ли? ) Каким образом указать что serv1.sdb1 зеркалирует serv2.sdb1?
| |
4.19, xguru (?), 15:50, 25/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
>GNBD разве не для этого придуман?
Для чего именно для этого?
Для экспорта — да.
Для зеркалирования — нет.
| |
|
5.20, LM (??), 12:01, 26/09/2007 [^] [^^] [^^^] [ответить]
| +/– |
Появилась мысля как использовать gndb, для создания зеркалирования.. Конечно решение с извратом и пока Active/Passive но тоже ни чего. Отпишусь тут на всякий случай.
Есть сервер serv1, и serv2.
serv2 экспортирует диск через gndb серверу serv1, тот в свою очередь создаёт на всём этом деле software raid и экспортирует созданный раздел клиентам, которые всою очередь уже используют там любую CFS. При выходи из строя serv1, Hearbeart это видит, и заставляет serv2 экспортировать раздел под тем же именем.
serv2.sdb1 -> gnbd -> serv1.md0 -> gnbd -> node1,2,3,4
Когда умирает serv1 скриптами схема меняеться на:
serv2.sdb1 -> gnbd -> node1,2,3,4
Вот. А воопще конечно легче уж какую нибудь lustre, glusterfs использовать.
| |
|
|
|
|
|