URL: https://www.opennet.dev/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID3
Нить номер: 118968
[ Назад ]

Исходное сообщение
"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"

Отправлено opennews , 10-Ноя-19 12:04 
После годичного затишья в разработке возобновилась работа над новой веткой отказоустойчивой распределённой файловой  системы LizardF 3.13 и опубликован второй кандадат в релизы. Недавно произошла смена владельцев компании, развивающей LizardFS, было принято новое руководство и сменились разработчики. Последние два года проект отстранился от сообщества и не уделял ему должного внимания, но новая команда намерена возродить прежние отношения с сообществом и наладить с ним тесное взаимодействие. Код проекта написан на языках С и С++ и распространяется под лицензий GPLv3...

Подробнее: https://www.opennet.dev/opennews/art.shtml?num=51804


Содержание

Сообщения в этом обсуждении
"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Иван , 10-Ноя-19 12:04 
Ух ты, дажен не знал о существовании данной ФС, спасибо за информацию, буду разбираться.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 14:51 
если до сих пор счастье этого знания тебя миновало - не торопись разбираться. Поскольку разбираться тебе придется не в технических деталях, а в административно-политических.

Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

Шансы на это появились, тьфу-тьфу-тьфу, но все по прежнему висит на волоске - инвестору может надоесть, разработчики не справятся, менеджеры не справятся, задача может оказаться в принципе нерешаемой из-за ошибок прошлых лет.

Рекомендую посмотреть на gluster - возможно тебе повезет, и на твои задачи его хватит в том виде, в котором он сейчас есть. Концепция там похожая, а недоделки в предсказуемых местах, и не полностью фатальны для данных.
lizard нужна если у тебя 1. большие файлы 2. нетбабланах (нужны EC, а не репликация) 3. клиенты не [только] под линухом. 4. ты не можешь подождать лет пять, пока гластер все это доделает или его не разгонят к чертям


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Иван , 10-Ноя-19 15:05 
Спасибо за развернутый ответ.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 11-Ноя-19 14:08 
Сначала работал на гластере, глюкавое еще то было (свыше 10 лет назад), потом перешел на MooseFS, через пару лет на LizardFS. Кластер был наверное один из крупнейших на этой системе, на сотни терабайт и десятки миллионов чанков. проработал с ним несколько лет. Рабочая штука, не без изъянов, но не критичных. Незаслуженно обделенная вниманием.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 11-Ноя-19 14:58 
традиционный вопрос - расскажите подробностей - версии, настройки redundancy goals, сколько жрал метасервер и как с этим справлялись, ну и где грабли, если они описуемы словами.

> Незаслуженно обделенная вниманием.

выпуск версии, при апгрейде уничтожающей кластер, два года отсутствия разработки, обещания все переписать с нуля и несовместимым образом вместо починки поломанного - вы считаете такой результат - незаслуженным?

При том что рядом лежала работающая (если забыть о ec или купить кота в мешке) moose, и почти работающий gluster...


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено edo , 20-Июн-20 11:49 
> При том что рядом лежала работающая (если забыть о ec или купить
> кота в мешке) moose, и почти работающий gluster...

так у moose, кажется, тоже стагнация


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 20-Июн-20 12:43 
>> При том что рядом лежала работающая (если забыть о ec или купить
>> кота в мешке) moose, и почти работающий gluster...
> так у moose, кажется, тоже стагнация

у moose живое комьюнити и живые продажи. Там тоже полтора поляка в разработке, поэтому чудес не происходит - но им и не надо, у них нет пяти висящих багов с тотальным разрушением кластеров.

То есть оно как-то работает, поддерживается, ошибки фиксятся. Новых чудес не обещают, но не больно и хотелось бы.

Проблема с музей лично для меня в том что a) оно не поддерживает ec кроме коммерческой версии и той в очень странной конфигурации 8+ nodes, чего я у себя категорически не желаю b) ее виндовый драйвер (тоже платный) использует устаревший и неэффективный dokany.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено edo , 20-Июн-20 11:47 
> Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

что-то релиза нет, таки не шмогла?


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 20-Июн-20 12:38 
>> Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и,
>> главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю
>> версию которой можно пользоваться.
> что-то релиза нет, таки не шмогла?

таки не. Нет не то что релиза, а rc3 с закрытием назойливого бага - который должен был быть в марте.

https://github.com/lizardfs/lizardfs/commits/master
героическими усилиями только сломали совместимость с python2. При том что эта часть скорее клиент чем сервер, и поддержка "немодных" систем должна быть как минимум как опция.

Насколько я понимаю, основные денежки проекту капают от коммерческих клиентов, купивших все вместе с обслуживанием - и все усилия уходят на то чтобы они не сбежали окончательно.

А те навряд ли вообще планируют апгрейдиться - наелись предыдущего раза. Поэтому вместо разработки разработчики занимаются вот таким: https://github.com/lizardfs/lizardfs-audit

community-форум угробили, линк на него возвращает обратно на lizardfs.com, как будто так и надо (обещали еще в марте что-то сделать вместо - и ничего ниасилили)

Причем в апреле они гордо говорили что наняли таки разработчиков - включая одного из первоначальных авторов форка. Но судя по комитам - разработчики у них только на sh и python.

Так что либо делать и поддерживать свой форк, либо закапывать. :-(

btw, если кто готов помочь с гуглокодом - буду крайне признателен. Хотя бы в виде тыканья пальцем, где читать документацию. (кусок кода скопипащен из мертвого гуглопрожекта. Он a) x8664 only b) неправильно детектирует конфигурацию. К сожалению, я ничерта не понимаю ни в интрисиках, ни в системах команд модных процессоров.)


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено edo , 20-Июн-20 13:02 
> Так что либо делать и поддерживать свой форк, либо закапывать. :-(

а что вообще стоит посмотреть? примерно 10kk файлов, под 150 Tb.
основная задача: отдавать nginx'ом статику

сейчас сделано просто: несколько машин с дисками по 10 Tb, на каждой свой nginx, в базе указано какой файл где лежит.
работает отлично, но хочется иметь некоторую избыточность/EC (на несколько реплик денег жалко).

> btw, если кто готов помочь с гуглокодом - буду крайне признателен. Хотя бы в виде тыканья пальцем, где читать документацию. (кусок кода скопипащен из мертвого гуглопрожекта. Он a) x8664 only b) неправильно детектирует конфигурацию. К сожалению, я ничерта не понимаю ни в интрисиках, ни в системах команд модных процессоров.)

я что-то потерял нить…


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 20-Июн-20 13:41 
> а что вообще стоит посмотреть?

если это у тебя за деньги - не вижу проблем ни с gluster, ни с moose.

Тупо сравнить производительность на твоих задачах, и остановиться на первой приемлемой.
distributed тебе при этом не надо, так что gluster ближе всего к искомому.

Но, опять же - если это за деньги, смотреть скорее в репликацию а не в ec.

> я что-то потерял нить…

это текущая проблема lizard лично для меня.
Существует в v3.12.0 (поскольку более новые даже в костюме химзащиты нельзя ставить) - в external/crcutil-1.0 лежит кусок гуглового навоза. Это даже не соберется на неправильной платформе (традиционный гуглокодинг стайл).

Еще одно нехорошее место - src/common/galois_field_encode.cc - это собирается (единственноверным компилятором, конечно), но оптимизации есть только для x86

где про эту муть вообще почитать, и отдельно - про neon ?


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено edo , 21-Июн-20 00:55 
> если это у тебя за деньги - не вижу проблем ни с
> gluster, ни с moose.

нет, хочется бесплатно )

> Тупо сравнить производительность на твоих задачах, и остановиться на первой приемлемой.

«тупо сравнить» на объёме >>100 Tb не так уж и просто.

> это текущая проблема lizard лично для меня.
> Существует в v3.12.0 (поскольку более новые даже в костюме химзащиты нельзя ставить)
> - в external/crcutil-1.0 лежит кусок гуглового навоза. Это даже не соберется
> на неправильной платформе (традиционный гуглокодинг стайл).
> Еще одно нехорошее место - src/common/galois_field_encode.cc - это собирается (единственноверным
> компилятором, конечно), но оптимизации есть только для x86
> где про эту муть вообще почитать, и отдельно - про neon ?

хочется запустить это всё на арме с оптмизациями? я не уверен, если честно, что оптимизации расчёта crc как-то повлияют на итоговую производительность, да и про ec надо смотреть, возможно, оптимизации не так уж и важны.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 21-Июн-20 10:34 
> «тупо сравнить» на объёме >>100 Tb не так уж и просто.

сравни на части объема. Они не требуют переформатировать диски если там не ntfs, можно запустить обе параллельно и продолжить раздавать основную часть старым способом.

Но ec в гластере - крайне загадочны и толком никем не тестированы. Впрочем, он весь загадочен, и я его забраковал по расистским соображениям.

> хочется запустить это всё на арме с оптмизациями?

там не только на арме, там даже llvm не соберет.
Впрочем, оно без ручных правок не собирается даже на 32битных системах - сборку там писал какой-то дятел, вообще не понимающий как работает cmake и наговнявший как попало.

Теоретически, оно может этот крэп выкинуть и собраться с isal, если найдет, но для моей системы нет isal и его тут будет очень сложно собрать. И все это ради функции в двадцать строчек я точно не хочу. При этом все эти вычисления, как и у gluster, выполняются _на_клиенте_, так что производительность важна, клиенты у меня разные, и чаще всего - дохловаты для 100mb/s. crc менее важен, но, afiu - напрямую влияет на цикл проверки bitrot, чем он короче, тем безопаснее с этим жить.

Так что повторяю вопрос - где прочитать что эти все закорючки означают и где накопипастить закорючек для neon?

Ну где-то же авторы нашли всю эту хрень (хотя могли и копипастить у интела, не понимая ни слова, конечно - может потому и не смогли пофиксить фичу 13й - не понимали, что творят).


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 21-Июн-20 18:17 
результаты теста (винды) на слабом процессоре оказались довольно предсказуемы - 28-30мб write, 16 in. Упирается именно в процессор. _клиента_.

При goal=1 - сразу же 35 (упирается уже в возможности тестовой vm) и 25. Таки говорите не нужны оптимизации? ;-)


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 14:56 
а, блин, вдогонку: lightweight снапшоты и trashcan.
У gluster первого технически не сделать нормально, а второе сделано в виде trash. В смысле, выкрасить и выбросить только.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 19:00 
> а, блин, вдогонку: lightweight снапшоты и trashcan.
> У gluster первого технически не сделать нормально, а второе сделано в виде
> trash. В смысле, выкрасить и выбросить только.

У гластера в trashcan превращается всё хранилище после первого же серьёзного сбоя репликации.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 20:49 
расскажите, как вы это делаете.

Учитывая что "сбой репликации" у него вообще в клиенте (и тоже интересно - КАК?), а в хранилище банально лежат файлы на банальной xfs или вообще ext4 - поштучно, потому что все "хранилище" - пачка EA привязанных к этим файлам, и их всегда можно руками вытащить. КАК?!

И эти люди будут рассказывать про прелести ceph. Где не то что руками никуда не подлезешь, а понять-то меганавороченные механизмы и научиться хотя бы выбирать правильные - годы уйдут.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 22:28 
> расскажите, как вы это делаете.

Ну у меня там просто не полторы виртуалки лежало. Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов по 1-30 метров каждый. Поигрался, пока репликация этого счастья колом не встала. Вытащилось-то всё, конечно, по датам модификации без проблем, но сам гластер оказался неюзабелен - репликация легла до такого состояния, что ноды ставили сеть раком и не синхронизировались никогда.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 22:31 
С Ceph кстати тоже не пошло, упёрлись в latency на геораспределённой хранилке. Сейчас под этим добром лежит OCFS2 в итоге.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 22:32 
Shared LUN - не совсем то, что хотелось, хотелось распределённо данные выкорябывать, чтобы bandwidth был потенциально бесконечный, но на практике хрен он этот bandwidth занимает, упирается в latency между узлами и клиентами.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Michael Shigorin , 10-Ноя-19 22:44 
> упёрлись в latency на геораспределённой хранилке

Поищите запись/тезисы доклада Евгения Полякова на первом LinuxPiter, очень толково, насколько вообще могу судить.  Но они в итоге уже к Reverbrain/Elliptics пришли к объектным хранилкам, опять же насколько помню.

PS: в смысле именно из-за латентности длинных соединений.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 23:13 
> Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов

хорошенький стресс-тест. вам бы с этим в тестировщики в редхат наняться до их покупки ебеме - глядишь, успели бы что починить ;-)

Я, честно говоря, удивился бы, если бы такое работало.

Но все же интересны детали - репликацией в gluster занимается исключительно _клиент_. Сломать кластер он не сможет - только записать мусор вместо данных или неправильно раскидать по нодам, но этого ж добиться надо суметь.

Так что расскажите подробностей, что и как вы ТАК ухитрились в нем поломать, что было сконфигурено, что в результате показывал gluster volume status и heal - может кому пригодиться чтоб ТАК не делать.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 11-Ноя-19 14:16 
Да обычная реплика + шарды. Хорошо хоть страйп не сделал, из страйпа вообще упал бы потом выковыривать.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 11-Ноя-19 15:01 
в смысле, distributed-replicated, то есть эн реплик по 2*N (не >2, надеюсь)? Убилось-то оно у вас как - клиент писал-писал, и что-то такое понаписал на этих миллионах файлов?

И на какой версии вся эта красота?


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 12:29 
Как там с POSIX-совместимостью и гарантированностью блокировок?

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 12:37 
Почитал. С блокировками всё относительно нормально, а вот с когерентностью кеша между узлами похоже никак.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 12:39 
Производительность, как обычно, упрётся в мастер-сервер, он один.

В общем, "ещё одна" распределённая файловая система, не предназначенная для параллельной работы над единым набором данных. Для шардинга сойдёт, но смысл, если уже есть цеф с люстрой.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 10-Ноя-19 13:36 
Емнип сервеов с метаданными там может быть несколько

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 14:27 
это бэкап, он не может использоваться пока жив master. И не может, а должно, если твои данные не writeonly, потому что при превращении мастера в тыкву в нее автоматически превращается весь кластер, эти данные больше вообще взять неоткуда.

Но узким местом при разумных нагрузках мастер не является. Точнее, он лопается раньше, чем становится узким местом - обратите внимание, что ВСЕ метаданные должны помещаться в память единственного узла, никаких других вариантов просто не предусмотрено (костыль с bdb не жизнеспособен, это уже комитеры в CoC придумали).


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 14:27 
> Емнип сервеов с метаданными там может быть несколько

Да. standby. Активный один.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 14:23 
ох уж эти хперты опеннет.

производительность не упрется ни в какой мастер-сервер, потому что его, сюрприз, нету.
metadata node не является никаким "master-server", и не посредничает в операциях.

Насчет "параллельной работы над единым набором" - очень вряд ли получится хорошо, но по совсем другим причинам (в основном по той, что до вот этой новости там вообще все получалось плохо - понабрали каких-то альтернативно-одаренных комитеров в CoC.md в разработчики, и при этом забыли лупить их дубиной по хребту - вплоть до появления версии, при апгрейде на которую уничтожались все данные в кластере. На чем компанию, к счастью, купили другие люди. А старые версии - слишком старые, и имеют массу своих проблем, до конца не решаемых.)

Текущую версию можно и нужно использовать как warm/cold storage для огромных файлопомоек, на которые бессмысленно тратить ресурсы san, и которые при этом нельзя ни сбэкапить, из-за размера, ни потерять.

Соответственно, сравнивать ее можно с gluster или BeeGFS, но у тех своих тараканов полным-полно.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 14:27 
metadata node внезапно используется при каждом обращении к каждому файлу. То есть если на это дело шардить и читать многогигабайтные блобы - всё будет ок. А вот если разложить там 100500 файлов - счастью будет плохеть.

> Текущую версию можно и нужно использовать как warm/cold storage для огромных файлопомоек, на которые бессмысленно тратить ресурсы san, и которые при этом нельзя ни сбэкапить, из-за размера, ни потерять.

Цеф, люстра. Короче лизард - около ненужно.

Гластер - ужас ужасный. Нет, концепция хороша, но то, как оно работает, удручает. И воз и ныне там уже лет 5, баг на баге и багом погоняет. Плюс асинхронность репликации метаданных в гластере - это печаль печальная.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 14:43 
> metadata node внезапно используется при каждом обращении к каждому файлу.

и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них (с учетом того что надо вообще-то сам файл все же прочитать или что ты с ним делать собрался)? Впрочем, если разложить там миллион мелких файлов - счастья не будет в принципе, поскольку оно лопнет - память кончится.

> Цеф, люстра. Короче лизард - около ненужно.

наоборот. оверинжинеренное bloatware из миллиарда загадочных оверинжениренных блоатварей и блоатварью погоняет - ненужно, пока ты не гугль или что-то в этом же роде. (в остальных случаях для миллионов мелких файлов с параллельным доступом я выберу самбу или nfs)
Потому что есть мальчики, наивно думающие, что умеют это настраивать (по плохо понятым инструкциям со стековерфлоу) - а потом, по факту, контору просто закрывают, когда все ее данные внезапно отыквливаются без малейшей возможности их восстановить.

Ни с гластером, ни с лизард/муз такой проблемы нет - они просты как палка, и, если не делать резких движений - почти все и всегда можно собрать. Если бы еще и вообще работали - цены б им не было.

С гластером главная беда - что его зохавал редгад. То есть шанса на повторение истории с покупкой кем-то вменяемым и раздачей животворящих пинков девелоперам нет и не будет. Теперь у нас есть версия 3, которая как-то работает, если ни на шаг не отступать от генеральной линии редгада (в частности забыть о ec и не хранить там большие файлы), и не забыть оформить подписку, и есть версии "хочу быть как хром", в которых вообще ничего не работает, потому что макаки принципиально не умеют ничего доделывать до рабочего состояния - "зато мы написали новую версию на игогого, а то этот ваш си немодно и мы его плохо понимаем, только вы ей тоже не пользуйтесь, она немного не работает". Четыре, или сколько там уже - версии подряд "уже почти совсем полностью окончательно немного не готово".


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 16:22 
> Четыре, или сколько там уже - версии подряд "уже почти совсем полностью окончательно немного не готово".

Yes.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 16:23 
> и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них

Да ничего особенного, достаточно просто ls -l на каталог с 10000-100000 файлов...


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 16:26 
>> и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них
> Да ничего особенного, достаточно просто ls -l на каталог с 10000-100000 файлов...

Когда метаданные шардятся - оно хотя бы слегка распараллелится. NFS тоже не понравится, но в четвёрке хотя бы можно pNFS собрать для такого счастья.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 16:44 
доктор, я когда чешу левой пяткой правое ухо через левое плечо - у меня где-то в боку что-то стреляет, так больно!

- Хм... а вот вы так - не делайте!

ls -l на каталог с 100000 файлов, знаешь ли, как-то и на локальной ext4 не очень. Но многим, полагаю, оно и не очень хотелось бы.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 18:58 
Эксты нормально. OCFS2 тяжело, но справляется. NFS 4.1 тоже справляется, но ещё тяжелее. Распределёнки дохнут.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 11-Ноя-19 10:53 
может и не создаться 10млн. - зависит от длины имени..
Да и скорость create/lookup в такой дире очень фиговая.
А потом еще место не возвращается после удаления.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено PnDx , 11-Ноя-19 13:02 
> А потом еще место не возвращается после удаления.

ext4-only.
Берите под такое xfs (если внизу не deb). Под RH/OLE-образное у меня в коллекции ни единого сюрприза. Все непонятки сводились к "выбиванию табуретки" (qcow|zfs внизу ВМ и "внезапно" xfs орёт "ой, а где мои метаданные?!").
* Под последние deb — просто не знаю, а раньше поддерживали аналогично lvm (т.е. "что-то собрали в пакет").
* ext-fs в аналогичных ситуациях не припомню чтобы беспокоились. Пока (будущий кирпич) не перезагрузят.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 11-Ноя-19 16:33 
у xfs cвои сюрпризы - достаточно посмотреть груды патчей которые вливает шапка в свои ядра.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 11-Ноя-19 23:12 
ну на вас не угодишь - два года нет патчей - "аааа, проект мертв, убегаем, убегаем", есть патчи - "аааа, все поломано, без ведра запчастей не поедешь, убегаем, убегаем"


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено macfaq , 10-Ноя-19 16:24 
Есть какой-то сравнительный обзор Ceph, Gluster и Moose/Lizard?

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 16:27 
> Есть какой-то сравнительный обзор Ceph, Gluster и Moose/Lizard?

Ну вот глустеръ вообще сбоку, а с Ceph интересно бы было.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено SysA , 14-Ноя-19 12:43 
Лови: https://sysadmin.libhunt.com/compare-ceph-vs-moosefs

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 10-Ноя-19 22:01 
> и не забыть оформить подписку

э... А ты само то надеешься на их подписку? И чем поможет тебе очередной Мьяньманьян Суббараян при накрытии гластера медным тазом? Да, основные их рекомендации - это удаление вольюмов и создание новых. От под-писки редгада гемора только больше станет. Весь рэд-гад сторож сейчас в Бангалоре пячат.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 23:25 
> э... А ты само то надеешься на их подписку?

ну можешь сам все чинить, под бодрые вопли бегающих вокруг начальников начальников.
А можешь гордо ответить "тикет в поддержке заведен, у нас sla 2часа, Кумар проснется, все починит". Как показывает практика, это лучший способ добиться тишины и спокойствия в операционной.

Просто одно дело если у тебя должность "самый главный инженер отдела gluster кластера", и есть время и вдохновение знать потроха лучше любых кумаров, которые их писали на грязной коленке, а совсем другое - когда это одна деталька из тысячи, и вообще говоря есть еще чем кроме нее заниматься, поэтому основной источник знаний - маловнятная дока на redhat.com, описывающая версию 2015го года.

Поверь, с кумарами в итоге легче иметь дело, чем самому без конца нырять на дно новой ямы с ведерком.

Правда, должен признать, что именно с редхатовскими кумарами я общался лет семь назад, и тогда они еще из гей-арии отвечали. Возможно, сейчас все стало в разы хуже - но, с другой стороны, вряд ли у них какие-то другие кумары чем у остальных прочих. А те все же больше чинят, чем мешают.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 11-Ноя-19 08:09 
Согласен, поддержка красной ненависти - хороший громоотвод, возможно... Хотя нет. Не согласен. Прошлый раз, полгода назад, мы пинали Марьянмара, ушло тупо несколько дней. Это все при SLA и премиум под-писке. Начальники - это вторые, кто был в курске проблем ещё до обращения в ТП. Они были не настолько тупы, чтобы бегать по кругу.
Касательно организации арботы красноненавистные кумары берут пример с сиски. Блочат вопрошающего на своём уровне и не пускают на эскалацию. И так до тех пор, пока к ним не приведёшь своих продаванов, которые обоснуют за SLA.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 11-Ноя-19 10:54 
> Прошлый раз, полгода назад, мы пинали Марьянмара, ушло тупо несколько дней.

ну у меня прошлый раз ушло полтора месяца (с параллельным сованием костылей и подпорочек куда получилось, потому что нихрена непонятно было, на самом деле, что поломано) на нормального испанца из поддержки citrix. Видно было, что этот висящий приоритетный таск его затрахал уже по самые уши, и ну очень хочется уже его закрыть нахрен любым способом.

К счастью, оно напрягало только далеко-далеко замкадные филиалы (потому что проявлялось на очень плохих каналах), и они как-то перетоптались.

Но сам бы я это вообще навряд ли починил - в том числе потому, что помимо этого сервиса на том кластере еще полсотни тоже бизнес-критикал, и тыкать галочки наугад "может вот это поможет, а может все остальное упадет" что-то вот совсем было неохота. Да и по команде саппорта можно только в отведенное время, и с кучей согласований.

Не говоря уже, естественно, о том, что специалистов по именно citrix nlb у нас, как ты понимаешь, тоже не водится, и желающих такими становиться что-то не видать, а они там свой собственный ни с чем несовместимый tcp-протокол умудрились изобрести (даром что, кажется, ядро у них от freebsd).

> Блочат вопрошающего на своём уровне и не пускают на эскалацию.

п-сы. Причем это, понятно, не про кумаров, а про тех дЭффективных, которые запрещают им эскалировать пока ломом не навернут.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 11-Ноя-19 07:25 
daos ?

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 11-Ноя-19 20:18 
POSIX-совместимость в кластерной ФС - гарантия хреновой производительности

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 12-Ноя-19 09:26 
Увы да. А несовместимость = пригодность разве что для файлопомойки, или надо городить кучу костылей.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено vitalif , 10-Ноя-19 13:00 
Из того, что написано в интернетах - никак не могу понять: случайная мелкая перезапись там поддерживается вообще? Или на каждую модификацию сливает 64 мб? // А сам всё никак не попробую

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 14:59 
без ec - да. Были прецеденты использования этой штуки для раздачи томов под kvm.

C ec, по очевидным причинам, хрень выйдет.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 19:02 
> без ec - да. Были прецеденты использования этой штуки для раздачи томов под kvm.

Тома под KVM можно и с гластеров раздавать, и с цефа. Тормозно только, и то, и другое, и можно без хлеба. С этого, думаю, будет не сильно лучше. Пока что лучше нормальной выделенной хранилки iSCSI multipath честно говоря для раздачи томов лучше решения нет.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 20:55 
> Тома под KVM можно и с гластеров раздавать, и с цефа. Тормозно только,

вообще-то - штатное решение проксмоксы. При наличии вообще говоря отсутствия в нем других, как бы намекает, что для большинства применений вполне разумно.

Но я намекал только на то, что они не пишутся по 64 мегабайта за раз, и раз эта штука вообще работала - никаких особых ужасов с произвольным доступом там нет.

> Пока что лучше нормальной выделенной хранилки iSCSI multipath

а сама хранилка из воздуха берется? Иначе возвращаемся к вопросу - из чего ее строить. Ну и в общем-то, хуже iSCSI протокол придумать сложно (понятно, что для наколенных решений выбирать особо не из чего, но тем не менее).


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 10-Ноя-19 22:24 
> вообще-то - штатное решение проксмоксы. При наличии вообще говоря отсутствия в нем
> других, как бы намекает, что для большинства применений вполне разумно.

С проксмоксом гластер можно. Птицы одного помёта. А вот с адекватными системами виртуализации лучше всё-таки не использовать.

:)

> сама хранилка из воздуха берется? Иначе возвращаемся к вопросу - из чего ее строить.

Из LVM, если кустарно, из собственного блочного решения, если профессионально, в случае неумения - покупать правильный iSCSI SAN (не путать с кустарными NAS, где под iSCSI может быть обычное кустарное решение на файлухе типа ZFS) у тех, кто умеет в SAN.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 10-Ноя-19 23:45 
> Из LVM, если кустарно

и вот совсем не ссыкотно?

> в случае неумения - покупать правильный iSCSI SAN

правильный san - он FC/FCoE, а не iSCSI (есть возможность сравнить, если что). Но он, с-ка, денег стоит - два состава. А внутри, что характерно, очень похожее на ZFS. Прям вот ну оооочень похожее.

А потом в один прекрасный день у тебя переклинивает sfp. Модную, где наклейка поверх залеплена другой, с лого производителя хранилки. И которая стоит как пять нормальных.
И ВЕСЬ, вообще весь сторадж - ложится к хренам, со всем своим multipath и многоразовым резервированием. А потом еще пару раз в разгар рабочего дня - когда ты кумарам собираешь данные для RMA, потому что без данных они не могут, и в нерабочее время тоже не могут.

После этого как-то начинаешь любить простые наколенные решения там, где супер-производительность не требуется, достаточно и приемлемой. Хотя от непростых деваться все равно уже некуда.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 11-Ноя-19 14:13 
FC/FCoE - ну хз. С моей т.з. де факто полутруп, так-то, вытесняется iSCSI.
Другое дело, что iSCSI надо уметь готовить, обычные копеечные свитчи под него лучше не совать, с другим трафиком не комбинировать, и т.п.
Ну и там тоже SFP есть :)

У нас в этом плане решение №3, "покупать". Переклинит SFP - да похер. Два разведённых в стороны канала по несколько 10G SFP каждый, от каждой хранилки. Даже если целиком ляжет один сектор, а не просто SFP - ничего страшного не случится. _Синхронная_ репликация между дц (формально геораспределение, но регион один, поэтому latency не фатальные). multipath к набору сторейджей в разных DC, формально получается "георепликация", но latency не настолько унылы, чтобы запороть всё. Короче, максимум возможного в пределах бюджета.

Никто не гарантирует 100%, конечно, что софт совсем не ляжет к хренам со всеми данными вместе, конечно, на этот случай есть бэкапы.

Никто также не гарантирует, что не придётся пинать саппорт, но за саппорт и определённый SLA платятся деньги.

В общем, как всегда, выбор из выборов. Но по крайней мере full flash решение, с быстрыми тонкими снэпшотами, синхронной репликацией, двукратным дублированием (аналогом RAID6), распределённой тонким слоем по дискам запаской, арбитражом, multipath и ALUA, дублированием железа и связности, авто-фейловером и т.п. На коленке такое задолбаешься собирать, чтобы оно ещё и надёжно работало.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 12-Ноя-19 08:11 
вообще уже давно есть NVMe over fabric... а iSCSI (даже over IB) это прошлый век.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 12-Ноя-19 09:24 
> вообще уже давно есть NVMe over fabric... а iSCSI (даже over IB)
> это прошлый век.

Ну давай, построй мне распределённую между ДЦ хранилку на NVMe.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено PnDx , 11-Ноя-19 14:19 
> и вот совсем не ссыкотно?

Зря Вы так. Если не выёживаться с thin-provisioning и прочими RAID, он внутри простой как палка.
+ См. sanlockd: возрождает ну оочень старую идею. На мой вкус, достаточно перспективно.

* FC местами тоже "маловато будет". На перспективу — таки IB.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Аноним , 12-Ноя-19 08:09 
IB FDR стоит сейчас как грязь (500 баксов свич/200 карта)..
Так что FC можно хоронить.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Онаним , 12-Ноя-19 09:25 
> IB FDR стоит сейчас как грязь (500 баксов свич/200 карта)..
> Так что FC можно хоронить.

Ну вот кстати да, если есть недоверие к эзеру, проще иб взять.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено пох. , 12-Ноя-19 10:25 
не, не проще - то что стоит как грязь, оно и работает как грязь. И драйверы у него из той же субстанции. И кабели, кстати. В это все как раз наигрались во времена попыток строить хранилки из дерьма и палок на базе zfs.

Не говоря уже о том, что втыкать его часто и некуда - у большинства современных блейдовых шасси есть fcoe, у многих есть просто отдельный свитч для fc (у устаревших - только он и есть), а ib как-то не предусмотрели.

Никаких особых проблем с fcoe на нормальных свитчах (читай, nexus >4k) в общем-то не наблюдалось, в том числи и при репликации cross-dc.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено abi , 10-Ноя-19 14:50 
Распределённое блочное хранилище от ноунеймов? Это будет предсказуемо.

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено разработчик SCO из 1993го года , 10-Ноя-19 15:46 
> Распределённое блочное хранилище от ноунеймов? Это будет предсказуемо.

unix-like система от какого-то финского студиозуса? Это будет предсказуемо!

P.S. а всего через пять лет меня уволили "при помощи ноги" :-( С тех пор я работаю в макдаке.


"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено Michael Shigorin , 29-Ноя-19 19:46 
Туда же: омичи из bitblaze собирались открывать kfs, насколько знаю; вот что голова конторы говорит в сравнении с ceph: https://www.youtube.com/watch?v=MEZ-THg6gzo&t=49m37s

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Отправлено edo , 19-Сен-20 01:39 
а там есть что открывать?
из https://bitblaze.ru/wp-content/uploads/2020/08/ru_prvl_00001... торчат уши moosefs/lizardfs