The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от opennews (??), 10-Ноя-19, 12:04 
После годичного затишья в разработке возобновилась работа над новой веткой отказоустойчивой распределённой файловой  системы LizardF 3.13 и опубликован второй кандадат в релизы. Недавно произошла смена владельцев компании, развивающей LizardFS, было принято новое руководство и сменились разработчики. Последние два года проект отстранился от сообщества и не уделял ему должного внимания, но новая команда намерена возродить прежние отношения с сообществом и наладить с ним тесное взаимодействие. Код проекта написан на языках С и С++ и распространяется под лицензий GPLv3...

Подробнее: https://www.opennet.dev/opennews/art.shtml?num=51804

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по времени | RSS]


1. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Иван (??), 10-Ноя-19, 12:04 
Ух ты, дажен не знал о существовании данной ФС, спасибо за информацию, буду разбираться.
Ответить | Правка | Наверх | Cообщить модератору

15. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +12 +/
Сообщение от пох. (?), 10-Ноя-19, 14:51 
если до сих пор счастье этого знания тебя миновало - не торопись разбираться. Поскольку разбираться тебе придется не в технических деталях, а в административно-политических.

Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

Шансы на это появились, тьфу-тьфу-тьфу, но все по прежнему висит на волоске - инвестору может надоесть, разработчики не справятся, менеджеры не справятся, задача может оказаться в принципе нерешаемой из-за ошибок прошлых лет.

Рекомендую посмотреть на gluster - возможно тебе повезет, и на твои задачи его хватит в том виде, в котором он сейчас есть. Концепция там похожая, а недоделки в предсказуемых местах, и не полностью фатальны для данных.
lizard нужна если у тебя 1. большие файлы 2. нетбабланах (нужны EC, а не репликация) 3. клиенты не [только] под линухом. 4. ты не можешь подождать лет пять, пока гластер все это доделает или его не разгонят к чертям

Ответить | Правка | Наверх | Cообщить модератору

18. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +6 +/
Сообщение от Иван (??), 10-Ноя-19, 15:05 
Спасибо за развернутый ответ.
Ответить | Правка | Наверх | Cообщить модератору

45. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (45), 11-Ноя-19, 14:08 
Сначала работал на гластере, глюкавое еще то было (свыше 10 лет назад), потом перешел на MooseFS, через пару лет на LizardFS. Кластер был наверное один из крупнейших на этой системе, на сотни терабайт и десятки миллионов чанков. проработал с ним несколько лет. Рабочая штука, не без изъянов, но не критичных. Незаслуженно обделенная вниманием.
Ответить | Правка | Наверх | Cообщить модератору

50. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 11-Ноя-19, 14:58 
традиционный вопрос - расскажите подробностей - версии, настройки redundancy goals, сколько жрал метасервер и как с этим справлялись, ну и где грабли, если они описуемы словами.

> Незаслуженно обделенная вниманием.

выпуск версии, при апгрейде уничтожающей кластер, два года отсутствия разработки, обещания все переписать с нуля и несовместимым образом вместо починки поломанного - вы считаете такой результат - незаслуженным?

При том что рядом лежала работающая (если забыть о ec или купить кота в мешке) moose, и почти работающий gluster...

Ответить | Правка | Наверх | Cообщить модератору

64. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 20-Июн-20, 11:49 
> При том что рядом лежала работающая (если забыть о ec или купить
> кота в мешке) moose, и почти работающий gluster...

так у moose, кажется, тоже стагнация

Ответить | Правка | Наверх | Cообщить модератору

66. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 20-Июн-20, 12:43 
>> При том что рядом лежала работающая (если забыть о ec или купить
>> кота в мешке) moose, и почти работающий gluster...
> так у moose, кажется, тоже стагнация

у moose живое комьюнити и живые продажи. Там тоже полтора поляка в разработке, поэтому чудес не происходит - но им и не надо, у них нет пяти висящих багов с тотальным разрушением кластеров.

То есть оно как-то работает, поддерживается, ошибки фиксятся. Новых чудес не обещают, но не больно и хотелось бы.

Проблема с музей лично для меня в том что a) оно не поддерживает ec кроме коммерческой версии и той в очень странной конфигурации 8+ nodes, чего я у себя категорически не желаю b) ее виндовый драйвер (тоже платный) использует устаревший и неэффективный dokany.

Ответить | Правка | Наверх | Cообщить модератору

63. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 20-Июн-20, 11:47 
> Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

что-то релиза нет, таки не шмогла?

Ответить | Правка | К родителю #15 | Наверх | Cообщить модератору

65. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 20-Июн-20, 12:38 
>> Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и,
>> главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю
>> версию которой можно пользоваться.
> что-то релиза нет, таки не шмогла?

таки не. Нет не то что релиза, а rc3 с закрытием назойливого бага - который должен был быть в марте.

https://github.com/lizardfs/lizardfs/commits/master
героическими усилиями только сломали совместимость с python2. При том что эта часть скорее клиент чем сервер, и поддержка "немодных" систем должна быть как минимум как опция.

Насколько я понимаю, основные денежки проекту капают от коммерческих клиентов, купивших все вместе с обслуживанием - и все усилия уходят на то чтобы они не сбежали окончательно.

А те навряд ли вообще планируют апгрейдиться - наелись предыдущего раза. Поэтому вместо разработки разработчики занимаются вот таким: https://github.com/lizardfs/lizardfs-audit

community-форум угробили, линк на него возвращает обратно на lizardfs.com, как будто так и надо (обещали еще в марте что-то сделать вместо - и ничего ниасилили)

Причем в апреле они гордо говорили что наняли таки разработчиков - включая одного из первоначальных авторов форка. Но судя по комитам - разработчики у них только на sh и python.

Так что либо делать и поддерживать свой форк, либо закапывать. :-(

btw, если кто готов помочь с гуглокодом - буду крайне признателен. Хотя бы в виде тыканья пальцем, где читать документацию. (кусок кода скопипащен из мертвого гуглопрожекта. Он a) x8664 only b) неправильно детектирует конфигурацию. К сожалению, я ничерта не понимаю ни в интрисиках, ни в системах команд модных процессоров.)

Ответить | Правка | Наверх | Cообщить модератору

67. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 20-Июн-20, 13:02 
> Так что либо делать и поддерживать свой форк, либо закапывать. :-(

а что вообще стоит посмотреть? примерно 10kk файлов, под 150 Tb.
основная задача: отдавать nginx'ом статику

сейчас сделано просто: несколько машин с дисками по 10 Tb, на каждой свой nginx, в базе указано какой файл где лежит.
работает отлично, но хочется иметь некоторую избыточность/EC (на несколько реплик денег жалко).

> btw, если кто готов помочь с гуглокодом - буду крайне признателен. Хотя бы в виде тыканья пальцем, где читать документацию. (кусок кода скопипащен из мертвого гуглопрожекта. Он a) x8664 only b) неправильно детектирует конфигурацию. К сожалению, я ничерта не понимаю ни в интрисиках, ни в системах команд модных процессоров.)

я что-то потерял нить…

Ответить | Правка | Наверх | Cообщить модератору

68. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 20-Июн-20, 13:41 
> а что вообще стоит посмотреть?

если это у тебя за деньги - не вижу проблем ни с gluster, ни с moose.

Тупо сравнить производительность на твоих задачах, и остановиться на первой приемлемой.
distributed тебе при этом не надо, так что gluster ближе всего к искомому.

Но, опять же - если это за деньги, смотреть скорее в репликацию а не в ec.

> я что-то потерял нить…

это текущая проблема lizard лично для меня.
Существует в v3.12.0 (поскольку более новые даже в костюме химзащиты нельзя ставить) - в external/crcutil-1.0 лежит кусок гуглового навоза. Это даже не соберется на неправильной платформе (традиционный гуглокодинг стайл).

Еще одно нехорошее место - src/common/galois_field_encode.cc - это собирается (единственноверным компилятором, конечно), но оптимизации есть только для x86

где про эту муть вообще почитать, и отдельно - про neon ?

Ответить | Правка | Наверх | Cообщить модератору

69. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 21-Июн-20, 00:55 
> если это у тебя за деньги - не вижу проблем ни с
> gluster, ни с moose.

нет, хочется бесплатно )

> Тупо сравнить производительность на твоих задачах, и остановиться на первой приемлемой.

«тупо сравнить» на объёме >>100 Tb не так уж и просто.

> это текущая проблема lizard лично для меня.
> Существует в v3.12.0 (поскольку более новые даже в костюме химзащиты нельзя ставить)
> - в external/crcutil-1.0 лежит кусок гуглового навоза. Это даже не соберется
> на неправильной платформе (традиционный гуглокодинг стайл).
> Еще одно нехорошее место - src/common/galois_field_encode.cc - это собирается (единственноверным
> компилятором, конечно), но оптимизации есть только для x86
> где про эту муть вообще почитать, и отдельно - про neon ?

хочется запустить это всё на арме с оптмизациями? я не уверен, если честно, что оптимизации расчёта crc как-то повлияют на итоговую производительность, да и про ec надо смотреть, возможно, оптимизации не так уж и важны.

Ответить | Правка | Наверх | Cообщить модератору

70. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 21-Июн-20, 10:34 
> «тупо сравнить» на объёме >>100 Tb не так уж и просто.

сравни на части объема. Они не требуют переформатировать диски если там не ntfs, можно запустить обе параллельно и продолжить раздавать основную часть старым способом.

Но ec в гластере - крайне загадочны и толком никем не тестированы. Впрочем, он весь загадочен, и я его забраковал по расистским соображениям.

> хочется запустить это всё на арме с оптмизациями?

там не только на арме, там даже llvm не соберет.
Впрочем, оно без ручных правок не собирается даже на 32битных системах - сборку там писал какой-то дятел, вообще не понимающий как работает cmake и наговнявший как попало.

Теоретически, оно может этот крэп выкинуть и собраться с isal, если найдет, но для моей системы нет isal и его тут будет очень сложно собрать. И все это ради функции в двадцать строчек я точно не хочу. При этом все эти вычисления, как и у gluster, выполняются _на_клиенте_, так что производительность важна, клиенты у меня разные, и чаще всего - дохловаты для 100mb/s. crc менее важен, но, afiu - напрямую влияет на цикл проверки bitrot, чем он короче, тем безопаснее с этим жить.

Так что повторяю вопрос - где прочитать что эти все закорючки означают и где накопипастить закорючек для neon?

Ну где-то же авторы нашли всю эту хрень (хотя могли и копипастить у интела, не понимая ни слова, конечно - может потому и не смогли пофиксить фичу 13й - не понимали, что творят).

Ответить | Правка | Наверх | Cообщить модератору

71. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 21-Июн-20, 18:17 
результаты теста (винды) на слабом процессоре оказались довольно предсказуемы - 28-30мб write, 16 in. Упирается именно в процессор. _клиента_.

При goal=1 - сразу же 35 (упирается уже в возможности тестовой vm) и 25. Таки говорите не нужны оптимизации? ;-)

Ответить | Правка | К родителю #69 | Наверх | Cообщить модератору

16. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 14:56 
а, блин, вдогонку: lightweight снапшоты и trashcan.
У gluster первого технически не сделать нормально, а второе сделано в виде trash. В смысле, выкрасить и выбросить только.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

27. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –1 +/
Сообщение от Онаним (?), 10-Ноя-19, 19:00 
> а, блин, вдогонку: lightweight снапшоты и trashcan.
> У gluster первого технически не сделать нормально, а второе сделано в виде
> trash. В смысле, выкрасить и выбросить только.

У гластера в trashcan превращается всё хранилище после первого же серьёзного сбоя репликации.

Ответить | Правка | Наверх | Cообщить модератору

29. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +3 +/
Сообщение от пох. (?), 10-Ноя-19, 20:49 
расскажите, как вы это делаете.

Учитывая что "сбой репликации" у него вообще в клиенте (и тоже интересно - КАК?), а в хранилище банально лежат файлы на банальной xfs или вообще ext4 - поштучно, потому что все "хранилище" - пачка EA привязанных к этим файлам, и их всегда можно руками вытащить. КАК?!

И эти люди будут рассказывать про прелести ceph. Где не то что руками никуда не подлезешь, а понять-то меганавороченные механизмы и научиться хотя бы выбирать правильные - годы уйдут.

Ответить | Правка | Наверх | Cообщить модератору

33. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:28 
> расскажите, как вы это делаете.

Ну у меня там просто не полторы виртуалки лежало. Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов по 1-30 метров каждый. Поигрался, пока репликация этого счастья колом не встала. Вытащилось-то всё, конечно, по датам модификации без проблем, но сам гластер оказался неюзабелен - репликация легла до такого состояния, что ноды ставили сеть раком и не синхронизировались никогда.

Ответить | Правка | Наверх | Cообщить модератору

34. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 22:31 
С Ceph кстати тоже не пошло, упёрлись в latency на геораспределённой хранилке. Сейчас под этим добром лежит OCFS2 в итоге.
Ответить | Правка | Наверх | Cообщить модератору

35. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:32 
Shared LUN - не совсем то, что хотелось, хотелось распределённо данные выкорябывать, чтобы bandwidth был потенциально бесконечный, но на практике хрен он этот bandwidth занимает, упирается в latency между узлами и клиентами.
Ответить | Правка | Наверх | Cообщить модератору

36. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Michael Shigorinemail (ok), 10-Ноя-19, 22:44 
> упёрлись в latency на геораспределённой хранилке

Поищите запись/тезисы доклада Евгения Полякова на первом LinuxPiter, очень толково, насколько вообще могу судить.  Но они в итоге уже к Reverbrain/Elliptics пришли к объектным хранилкам, опять же насколько помню.

PS: в смысле именно из-за латентности длинных соединений.

Ответить | Правка | К родителю #34 | Наверх | Cообщить модератору

37. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 23:13 
> Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов

хорошенький стресс-тест. вам бы с этим в тестировщики в редхат наняться до их покупки ебеме - глядишь, успели бы что починить ;-)

Я, честно говоря, удивился бы, если бы такое работало.

Но все же интересны детали - репликацией в gluster занимается исключительно _клиент_. Сломать кластер он не сможет - только записать мусор вместо данных или неправильно раскидать по нодам, но этого ж добиться надо суметь.

Так что расскажите подробностей, что и как вы ТАК ухитрились в нем поломать, что было сконфигурено, что в результате показывал gluster volume status и heal - может кому пригодиться чтоб ТАК не делать.

Ответить | Правка | К родителю #33 | Наверх | Cообщить модератору

47. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 11-Ноя-19, 14:16 
Да обычная реплика + шарды. Хорошо хоть страйп не сделал, из страйпа вообще упал бы потом выковыривать.
Ответить | Правка | Наверх | Cообщить модератору

51. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 11-Ноя-19, 15:01 
в смысле, distributed-replicated, то есть эн реплик по 2*N (не >2, надеюсь)? Убилось-то оно у вас как - клиент писал-писал, и что-то такое понаписал на этих миллионах файлов?

И на какой версии вся эта красота?

Ответить | Правка | Наверх | Cообщить модератору

3. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –4 +/
Сообщение от Онаним (?), 10-Ноя-19, 12:29 
Как там с POSIX-совместимостью и гарантированностью блокировок?
Ответить | Правка | Наверх | Cообщить модератору

4. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 12:37 
Почитал. С блокировками всё относительно нормально, а вот с когерентностью кеша между узлами похоже никак.
Ответить | Правка | Наверх | Cообщить модератору

5. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –3 +/
Сообщение от Онаним (?), 10-Ноя-19, 12:39 
Производительность, как обычно, упрётся в мастер-сервер, он один.

В общем, "ещё одна" распределённая файловая система, не предназначенная для параллельной работы над единым набором данных. Для шардинга сойдёт, но смысл, если уже есть цеф с люстрой.

Ответить | Правка | Наверх | Cообщить модератору

7. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (7), 10-Ноя-19, 13:36 
Емнип сервеов с метаданными там может быть несколько
Ответить | Правка | Наверх | Cообщить модератору

10. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +3 +/
Сообщение от пох. (?), 10-Ноя-19, 14:27 
это бэкап, он не может использоваться пока жив master. И не может, а должно, если твои данные не writeonly, потому что при превращении мастера в тыкву в нее автоматически превращается весь кластер, эти данные больше вообще взять неоткуда.

Но узким местом при разумных нагрузках мастер не является. Точнее, он лопается раньше, чем становится узким местом - обратите внимание, что ВСЕ метаданные должны помещаться в память единственного узла, никаких других вариантов просто не предусмотрено (костыль с bdb не жизнеспособен, это уже комитеры в CoC придумали).

Ответить | Правка | Наверх | Cообщить модератору

11. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от Онаним (?), 10-Ноя-19, 14:27 
> Емнип сервеов с метаданными там может быть несколько

Да. standby. Активный один.

Ответить | Правка | К родителю #7 | Наверх | Cообщить модератору

8. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от пох. (?), 10-Ноя-19, 14:23 
ох уж эти хперты опеннет.

производительность не упрется ни в какой мастер-сервер, потому что его, сюрприз, нету.
metadata node не является никаким "master-server", и не посредничает в операциях.

Насчет "параллельной работы над единым набором" - очень вряд ли получится хорошо, но по совсем другим причинам (в основном по той, что до вот этой новости там вообще все получалось плохо - понабрали каких-то альтернативно-одаренных комитеров в CoC.md в разработчики, и при этом забыли лупить их дубиной по хребту - вплоть до появления версии, при апгрейде на которую уничтожались все данные в кластере. На чем компанию, к счастью, купили другие люди. А старые версии - слишком старые, и имеют массу своих проблем, до конца не решаемых.)

Текущую версию можно и нужно использовать как warm/cold storage для огромных файлопомоек, на которые бессмысленно тратить ресурсы san, и которые при этом нельзя ни сбэкапить, из-за размера, ни потерять.

Соответственно, сравнивать ее можно с gluster или BeeGFS, но у тех своих тараканов полным-полно.

Ответить | Правка | К родителю #5 | Наверх | Cообщить модератору

9. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 14:27 
metadata node внезапно используется при каждом обращении к каждому файлу. То есть если на это дело шардить и читать многогигабайтные блобы - всё будет ок. А вот если разложить там 100500 файлов - счастью будет плохеть.

> Текущую версию можно и нужно использовать как warm/cold storage для огромных файлопомоек, на которые бессмысленно тратить ресурсы san, и которые при этом нельзя ни сбэкапить, из-за размера, ни потерять.

Цеф, люстра. Короче лизард - около ненужно.

Гластер - ужас ужасный. Нет, концепция хороша, но то, как оно работает, удручает. И воз и ныне там уже лет 5, баг на баге и багом погоняет. Плюс асинхронность репликации метаданных в гластере - это печаль печальная.

Ответить | Правка | Наверх | Cообщить модератору

13. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +5 +/
Сообщение от пох. (?), 10-Ноя-19, 14:43 
> metadata node внезапно используется при каждом обращении к каждому файлу.

и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них (с учетом того что надо вообще-то сам файл все же прочитать или что ты с ним делать собрался)? Впрочем, если разложить там миллион мелких файлов - счастья не будет в принципе, поскольку оно лопнет - память кончится.

> Цеф, люстра. Короче лизард - около ненужно.

наоборот. оверинжинеренное bloatware из миллиарда загадочных оверинжениренных блоатварей и блоатварью погоняет - ненужно, пока ты не гугль или что-то в этом же роде. (в остальных случаях для миллионов мелких файлов с параллельным доступом я выберу самбу или nfs)
Потому что есть мальчики, наивно думающие, что умеют это настраивать (по плохо понятым инструкциям со стековерфлоу) - а потом, по факту, контору просто закрывают, когда все ее данные внезапно отыквливаются без малейшей возможности их восстановить.

Ни с гластером, ни с лизард/муз такой проблемы нет - они просты как палка, и, если не делать резких движений - почти все и всегда можно собрать. Если бы еще и вообще работали - цены б им не было.

С гластером главная беда - что его зохавал редгад. То есть шанса на повторение истории с покупкой кем-то вменяемым и раздачей животворящих пинков девелоперам нет и не будет. Теперь у нас есть версия 3, которая как-то работает, если ни на шаг не отступать от генеральной линии редгада (в частности забыть о ec и не хранить там большие файлы), и не забыть оформить подписку, и есть версии "хочу быть как хром", в которых вообще ничего не работает, потому что макаки принципиально не умеют ничего доделывать до рабочего состояния - "зато мы написали новую версию на игогого, а то этот ваш си немодно и мы его плохо понимаем, только вы ей тоже не пользуйтесь, она немного не работает". Четыре, или сколько там уже - версии подряд "уже почти совсем полностью окончательно немного не готово".

Ответить | Правка | Наверх | Cообщить модератору

20. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 16:22 
> Четыре, или сколько там уже - версии подряд "уже почти совсем полностью окончательно немного не готово".

Yes.

Ответить | Правка | Наверх | Cообщить модератору

21. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 16:23 
> и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них

Да ничего особенного, достаточно просто ls -l на каталог с 10000-100000 файлов...

Ответить | Правка | К родителю #13 | Наверх | Cообщить модератору

23. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 16:26 
>> и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них
> Да ничего особенного, достаточно просто ls -l на каталог с 10000-100000 файлов...

Когда метаданные шардятся - оно хотя бы слегка распараллелится. NFS тоже не понравится, но в четвёрке хотя бы можно pNFS собрать для такого счастья.

Ответить | Правка | Наверх | Cообщить модератору

25. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 16:44 
доктор, я когда чешу левой пяткой правое ухо через левое плечо - у меня где-то в боку что-то стреляет, так больно!

- Хм... а вот вы так - не делайте!

ls -l на каталог с 100000 файлов, знаешь ли, как-то и на локальной ext4 не очень. Но многим, полагаю, оно и не очень хотелось бы.

Ответить | Правка | К родителю #21 | Наверх | Cообщить модератору

26. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 18:58 
Эксты нормально. OCFS2 тяжело, но справляется. NFS 4.1 тоже справляется, но ещё тяжелее. Распределёнки дохнут.
Ответить | Правка | Наверх | Cообщить модератору

42. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 11-Ноя-19, 10:53 
может и не создаться 10млн. - зависит от длины имени..
Да и скорость create/lookup в такой дире очень фиговая.
А потом еще место не возвращается после удаления.
Ответить | Правка | К родителю #25 | Наверх | Cообщить модератору

44. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от PnDx (ok), 11-Ноя-19, 13:02 
> А потом еще место не возвращается после удаления.

ext4-only.
Берите под такое xfs (если внизу не deb). Под RH/OLE-образное у меня в коллекции ни единого сюрприза. Все непонятки сводились к "выбиванию табуретки" (qcow|zfs внизу ВМ и "внезапно" xfs орёт "ой, а где мои метаданные?!").
* Под последние deb — просто не знаю, а раньше поддерживали аналогично lvm (т.е. "что-то собрали в пакет").
* ext-fs в аналогичных ситуациях не припомню чтобы беспокоились. Пока (будущий кирпич) не перезагрузят.

Ответить | Правка | Наверх | Cообщить модератору

52. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 11-Ноя-19, 16:33 
у xfs cвои сюрпризы - достаточно посмотреть груды патчей которые вливает шапка в свои ядра.
Ответить | Правка | Наверх | Cообщить модератору

54. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 11-Ноя-19, 23:12 
ну на вас не угодишь - два года нет патчей - "аааа, проект мертв, убегаем, убегаем", есть патчи - "аааа, все поломано, без ведра запчастей не поедешь, убегаем, убегаем"

Ответить | Правка | Наверх | Cообщить модератору

22. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от macfaq (?), 10-Ноя-19, 16:24 
Есть какой-то сравнительный обзор Ceph, Gluster и Moose/Lizard?
Ответить | Правка | К родителю #13 | Наверх | Cообщить модератору

24. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 16:27 
> Есть какой-то сравнительный обзор Ceph, Gluster и Moose/Lizard?

Ну вот глустеръ вообще сбоку, а с Ceph интересно бы было.

Ответить | Правка | Наверх | Cообщить модератору

61. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от SysA (?), 14-Ноя-19, 12:43 
Лови: https://sysadmin.libhunt.com/compare-ceph-vs-moosefs
Ответить | Правка | К родителю #22 | Наверх | Cообщить модератору

31. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (31), 10-Ноя-19, 22:01 
> и не забыть оформить подписку

э... А ты само то надеешься на их подписку? И чем поможет тебе очередной Мьяньманьян Суббараян при накрытии гластера медным тазом? Да, основные их рекомендации - это удаление вольюмов и создание новых. От под-писки редгада гемора только больше станет. Весь рэд-гад сторож сейчас в Бангалоре пячат.

Ответить | Правка | К родителю #13 | Наверх | Cообщить модератору

38. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 23:25 
> э... А ты само то надеешься на их подписку?

ну можешь сам все чинить, под бодрые вопли бегающих вокруг начальников начальников.
А можешь гордо ответить "тикет в поддержке заведен, у нас sla 2часа, Кумар проснется, все починит". Как показывает практика, это лучший способ добиться тишины и спокойствия в операционной.

Просто одно дело если у тебя должность "самый главный инженер отдела gluster кластера", и есть время и вдохновение знать потроха лучше любых кумаров, которые их писали на грязной коленке, а совсем другое - когда это одна деталька из тысячи, и вообще говоря есть еще чем кроме нее заниматься, поэтому основной источник знаний - маловнятная дока на redhat.com, описывающая версию 2015го года.

Поверь, с кумарами в итоге легче иметь дело, чем самому без конца нырять на дно новой ямы с ведерком.

Правда, должен признать, что именно с редхатовскими кумарами я общался лет семь назад, и тогда они еще из гей-арии отвечали. Возможно, сейчас все стало в разы хуже - но, с другой стороны, вряд ли у них какие-то другие кумары чем у остальных прочих. А те все же больше чинят, чем мешают.

Ответить | Правка | Наверх | Cообщить модератору

41. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (31), 11-Ноя-19, 08:09 
Согласен, поддержка красной ненависти - хороший громоотвод, возможно... Хотя нет. Не согласен. Прошлый раз, полгода назад, мы пинали Марьянмара, ушло тупо несколько дней. Это все при SLA и премиум под-писке. Начальники - это вторые, кто был в курске проблем ещё до обращения в ТП. Они были не настолько тупы, чтобы бегать по кругу.
Касательно организации арботы красноненавистные кумары берут пример с сиски. Блочат вопрошающего на своём уровне и не пускают на эскалацию. И так до тех пор, пока к ним не приведёшь своих продаванов, которые обоснуют за SLA.
Ответить | Правка | Наверх | Cообщить модератору

43. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от пох. (?), 11-Ноя-19, 10:54 
> Прошлый раз, полгода назад, мы пинали Марьянмара, ушло тупо несколько дней.

ну у меня прошлый раз ушло полтора месяца (с параллельным сованием костылей и подпорочек куда получилось, потому что нихрена непонятно было, на самом деле, что поломано) на нормального испанца из поддержки citrix. Видно было, что этот висящий приоритетный таск его затрахал уже по самые уши, и ну очень хочется уже его закрыть нахрен любым способом.

К счастью, оно напрягало только далеко-далеко замкадные филиалы (потому что проявлялось на очень плохих каналах), и они как-то перетоптались.

Но сам бы я это вообще навряд ли починил - в том числе потому, что помимо этого сервиса на том кластере еще полсотни тоже бизнес-критикал, и тыкать галочки наугад "может вот это поможет, а может все остальное упадет" что-то вот совсем было неохота. Да и по команде саппорта можно только в отведенное время, и с кучей согласований.

Не говоря уже, естественно, о том, что специалистов по именно citrix nlb у нас, как ты понимаешь, тоже не водится, и желающих такими становиться что-то не видать, а они там свой собственный ни с чем несовместимый tcp-протокол умудрились изобрести (даром что, кажется, ядро у них от freebsd).

> Блочат вопрошающего на своём уровне и не пускают на эскалацию.

п-сы. Причем это, понятно, не про кумаров, а про тех дЭффективных, которые запрещают им эскалировать пока ломом не навернут.

Ответить | Правка | Наверх | Cообщить модератору

40. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 11-Ноя-19, 07:25 
daos ?
Ответить | Правка | К родителю #9 | Наверх | Cообщить модератору

53. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (53), 11-Ноя-19, 20:18 
POSIX-совместимость в кластерной ФС - гарантия хреновой производительности
Ответить | Правка | К родителю #3 | Наверх | Cообщить модератору

59. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +3 +/
Сообщение от Онаним (?), 12-Ноя-19, 09:26 
Увы да. А несовместимость = пригодность разве что для файлопомойки, или надо городить кучу костылей.
Ответить | Правка | Наверх | Cообщить модератору

6. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от vitalif (ok), 10-Ноя-19, 13:00 
Из того, что написано в интернетах - никак не могу понять: случайная мелкая перезапись там поддерживается вообще? Или на каждую модификацию сливает 64 мб? // А сам всё никак не попробую
Ответить | Правка | Наверх | Cообщить модератору

17. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 10-Ноя-19, 14:59 
без ec - да. Были прецеденты использования этой штуки для раздачи томов под kvm.

C ec, по очевидным причинам, хрень выйдет.

Ответить | Правка | Наверх | Cообщить модератору

28. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 19:02 
> без ec - да. Были прецеденты использования этой штуки для раздачи томов под kvm.

Тома под KVM можно и с гластеров раздавать, и с цефа. Тормозно только, и то, и другое, и можно без хлеба. С этого, думаю, будет не сильно лучше. Пока что лучше нормальной выделенной хранилки iSCSI multipath честно говоря для раздачи томов лучше решения нет.

Ответить | Правка | Наверх | Cообщить модератору

30. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –1 +/
Сообщение от пох. (?), 10-Ноя-19, 20:55 
> Тома под KVM можно и с гластеров раздавать, и с цефа. Тормозно только,

вообще-то - штатное решение проксмоксы. При наличии вообще говоря отсутствия в нем других, как бы намекает, что для большинства применений вполне разумно.

Но я намекал только на то, что они не пишутся по 64 мегабайта за раз, и раз эта штука вообще работала - никаких особых ужасов с произвольным доступом там нет.

> Пока что лучше нормальной выделенной хранилки iSCSI multipath

а сама хранилка из воздуха берется? Иначе возвращаемся к вопросу - из чего ее строить. Ну и в общем-то, хуже iSCSI протокол придумать сложно (понятно, что для наколенных решений выбирать особо не из чего, но тем не менее).

Ответить | Правка | Наверх | Cообщить модератору

32. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:24 
> вообще-то - штатное решение проксмоксы. При наличии вообще говоря отсутствия в нем
> других, как бы намекает, что для большинства применений вполне разумно.

С проксмоксом гластер можно. Птицы одного помёта. А вот с адекватными системами виртуализации лучше всё-таки не использовать.

:)

> сама хранилка из воздуха берется? Иначе возвращаемся к вопросу - из чего ее строить.

Из LVM, если кустарно, из собственного блочного решения, если профессионально, в случае неумения - покупать правильный iSCSI SAN (не путать с кустарными NAS, где под iSCSI может быть обычное кустарное решение на файлухе типа ZFS) у тех, кто умеет в SAN.

Ответить | Правка | Наверх | Cообщить модератору

39. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от пох. (?), 10-Ноя-19, 23:45 
> Из LVM, если кустарно

и вот совсем не ссыкотно?

> в случае неумения - покупать правильный iSCSI SAN

правильный san - он FC/FCoE, а не iSCSI (есть возможность сравнить, если что). Но он, с-ка, денег стоит - два состава. А внутри, что характерно, очень похожее на ZFS. Прям вот ну оооочень похожее.

А потом в один прекрасный день у тебя переклинивает sfp. Модную, где наклейка поверх залеплена другой, с лого производителя хранилки. И которая стоит как пять нормальных.
И ВЕСЬ, вообще весь сторадж - ложится к хренам, со всем своим multipath и многоразовым резервированием. А потом еще пару раз в разгар рабочего дня - когда ты кумарам собираешь данные для RMA, потому что без данных они не могут, и в нерабочее время тоже не могут.

После этого как-то начинаешь любить простые наколенные решения там, где супер-производительность не требуется, достаточно и приемлемой. Хотя от непростых деваться все равно уже некуда.

Ответить | Правка | Наверх | Cообщить модератору

46. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 11-Ноя-19, 14:13 
FC/FCoE - ну хз. С моей т.з. де факто полутруп, так-то, вытесняется iSCSI.
Другое дело, что iSCSI надо уметь готовить, обычные копеечные свитчи под него лучше не совать, с другим трафиком не комбинировать, и т.п.
Ну и там тоже SFP есть :)

У нас в этом плане решение №3, "покупать". Переклинит SFP - да похер. Два разведённых в стороны канала по несколько 10G SFP каждый, от каждой хранилки. Даже если целиком ляжет один сектор, а не просто SFP - ничего страшного не случится. _Синхронная_ репликация между дц (формально геораспределение, но регион один, поэтому latency не фатальные). multipath к набору сторейджей в разных DC, формально получается "георепликация", но latency не настолько унылы, чтобы запороть всё. Короче, максимум возможного в пределах бюджета.

Никто не гарантирует 100%, конечно, что софт совсем не ляжет к хренам со всеми данными вместе, конечно, на этот случай есть бэкапы.

Никто также не гарантирует, что не придётся пинать саппорт, но за саппорт и определённый SLA платятся деньги.

В общем, как всегда, выбор из выборов. Но по крайней мере full flash решение, с быстрыми тонкими снэпшотами, синхронной репликацией, двукратным дублированием (аналогом RAID6), распределённой тонким слоем по дискам запаской, арбитражом, multipath и ALUA, дублированием железа и связности, авто-фейловером и т.п. На коленке такое задолбаешься собирать, чтобы оно ещё и надёжно работало.

Ответить | Правка | Наверх | Cообщить модератору

56. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 12-Ноя-19, 08:11 
вообще уже давно есть NVMe over fabric... а iSCSI (даже over IB) это прошлый век.
Ответить | Правка | Наверх | Cообщить модератору

57. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 12-Ноя-19, 09:24 
> вообще уже давно есть NVMe over fabric... а iSCSI (даже over IB)
> это прошлый век.

Ну давай, построй мне распределённую между ДЦ хранилку на NVMe.

Ответить | Правка | Наверх | Cообщить модератору

48. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от PnDx (ok), 11-Ноя-19, 14:19 
> и вот совсем не ссыкотно?

Зря Вы так. Если не выёживаться с thin-provisioning и прочими RAID, он внутри простой как палка.
+ См. sanlockd: возрождает ну оочень старую идею. На мой вкус, достаточно перспективно.

* FC местами тоже "маловато будет". На перспективу — таки IB.

Ответить | Правка | К родителю #39 | Наверх | Cообщить модератору

55. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 12-Ноя-19, 08:09 
IB FDR стоит сейчас как грязь (500 баксов свич/200 карта)..
Так что FC можно хоронить.
Ответить | Правка | Наверх | Cообщить модератору

58. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 12-Ноя-19, 09:25 
> IB FDR стоит сейчас как грязь (500 баксов свич/200 карта)..
> Так что FC можно хоронить.

Ну вот кстати да, если есть недоверие к эзеру, проще иб взять.

Ответить | Правка | Наверх | Cообщить модератору

60. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 12-Ноя-19, 10:25 
не, не проще - то что стоит как грязь, оно и работает как грязь. И драйверы у него из той же субстанции. И кабели, кстати. В это все как раз наигрались во времена попыток строить хранилки из дерьма и палок на базе zfs.

Не говоря уже о том, что втыкать его часто и некуда - у большинства современных блейдовых шасси есть fcoe, у многих есть просто отдельный свитч для fc (у устаревших - только он и есть), а ib как-то не предусмотрели.

Никаких особых проблем с fcoe на нормальных свитчах (читай, nexus >4k) в общем-то не наблюдалось, в том числи и при репликации cross-dc.

Ответить | Правка | Наверх | Cообщить модератору

14. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –2 +/
Сообщение от abi (?), 10-Ноя-19, 14:50 
Распределённое блочное хранилище от ноунеймов? Это будет предсказуемо.
Ответить | Правка | Наверх | Cообщить модератору

19. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +5 +/
Сообщение от разработчик SCO из 1993го года (?), 10-Ноя-19, 15:46 
> Распределённое блочное хранилище от ноунеймов? Это будет предсказуемо.

unix-like система от какого-то финского студиозуса? Это будет предсказуемо!

P.S. а всего через пять лет меня уволили "при помощи ноги" :-( С тех пор я работаю в макдаке.

Ответить | Правка | Наверх | Cообщить модератору

62. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Michael Shigorinemail (ok), 29-Ноя-19, 19:46 
Туда же: омичи из bitblaze собирались открывать kfs, насколько знаю; вот что голова конторы говорит в сравнении с ceph: https://www.youtube.com/watch?v=MEZ-THg6gzo&t=49m37s
Ответить | Правка | Наверх | Cообщить модератору

72. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 19-Сен-20, 01:39 
а там есть что открывать?
из https://bitblaze.ru/wp-content/uploads/2020/08/ru_prvl_00001... торчат уши moosefs/lizardfs
Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру