1.1, zog (??), 20:34, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +8 +/– |
Скажите, а Btrfs уже готова для продакшена и для десктопа?
| |
|
2.4, Аноним (4), 20:44, 18/12/2022 [^] [^^] [^^^] [ответить]
| +8 +/– |
У меня часто сыпиться на внешних устройствах, которые я выдерагиваю после записи. Теперь я делаю sync до выдергивания флешки и вроде они перестали глючить. Для встроенных дисков - проблем небыло уже пол года, возможно они были связаны с btrfs-convert (там были фиксы). Вообщем я бы не назвал ее 100% надежной.
| |
|
3.16, Ананимист (?), 21:17, 18/12/2022 [^] [^^] [^^^] [ответить]
| –17 +/– |
100 пудов юзается что-то архаичное. BTRFS уже давно считается стабильной фс. И если какие-то с ней проблемы, то время грешить на аппаратуру/дистр.
| |
|
4.47, Аноним (4), 22:10, 18/12/2022 [^] [^^] [^^^] [ответить]
| +8 +/– |
У меня глючила очень долго. Сейчас последние полгода-год нормально работает - никаких крешей. Но похоже все равно еще дыры есть. Например если записать 20 гигов на флешку и размнотировать - она размнотируется мгновенно. И если выдернуть - она может не просто потерять новые файлы, а сломаться полностью. Вообщем есть какие-то косяки.
1) Кроме того btrfs не поддерживает badblocks. 2) Нужно запускать 'btrfs balance start -dusage=90 /' раз в неделю. 3) grub-32 не грузится со сжатой файловой системы. 4) нет поддержки zerofree, что очень плохо когда архивируешь или используешь виртуалку 5) нет хорошей поддержки fsck. у меня много раз было когда btrfs fsck проходит - а файловая система не грузиться или валиться. 6) плохая поддержка для deduping
Вообщем не 100%
| |
|
5.68, Аноним (68), 00:56, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> balance
Пользоваться фс которая посыпется если не сделать во время балансинг это как сидеть на пороховой бочке. Возможно конечно она уже не сыпется от этого с тех пор как я последний раз её пробовал (и поскользнулся именно на этом), но учитывая что речь идет о самой штабильной фс (тм) я бы не стал на это надеяться
| |
|
6.167, Аноним (-), 18:53, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Пользоваться фс которая посыпется если не сделать во время балансинг это как
> сидеть на пороховой бочке. Возможно конечно она уже не сыпется от
> этого с тех пор как я последний раз её пробовал
Это когда было? Сейчас оно глобальный резерв заводит и таких проблем не имеет. Фйэсбука это тоже видите ли кусало. Они и починили.
| |
6.116, Аноним (4), 14:07, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
она не сыпиться - просто заканчивается место и ты не можешь удалить файлы. правда сейчас это исправлено - добавлен reserve в несколько гигов (зарезервированная память, которая использууется исключительно когда заканчивается место). сейчас она более менее. и много полезных и крутых штук.
| |
|
7.148, Аноним (148), 05:38, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Каким дистрибутивом ты пользуешся ?
У меня ВСЕ кроме boot на 3 машинах на btrfs. И флешки в том числе. Ща ежедневно еще и свет гаснет, никаких проблем. Вообще никаких. Ubuntu LTS 22.04.
До убунты пользовался gentoo сидел на LTS ядре. Все так же никаких проблем.
И нет я НЕ делал btrfs balance как устаномил систему (9 месяцев).
| |
7.151, Аноним (151), 06:51, 20/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Невозможность именно что удалить файлы, если кончилось место -- это что-то новое. Такое вряд ли (сам не пользовался) было даже на ФС для пятидюймовых дискет Спектрума, где не было фрагментации и нужно было файлы специальной командой перемещать, чтобы высвободить свободное место.
| |
|
8.155, Аноним (155), 18:43, 20/12/2022 [^] [^^] [^^^] [ответить] | +/– | Чтобы атомарно провести операцию удаления файла требуется свободное место на дис... текст свёрнут, показать | |
|
|
6.134, Андрей (??), 16:52, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
2 года использую btrfs как корень с системой, работает. Ломается если я чтото эксперементирую.
| |
|
5.126, crypt (ok), 14:34, 19/12/2022 [^] [^^] [^^^] [ответить]
| +3 +/– |
тем временем на FreeBSD ZFS используется на корю с перманентными снапшотами.
bectl create BeforeUpdateFromOfficialRepo
обновился, не понравилось
bectl activate BeforeUpdateFromOfficialRepo
перезагрузился и вот он тебе rollback. снапшот никуда не делся. хочешь, можно обратно на апдейты.
как тебе такое илон маск?
| |
|
4.125, анон (?), 14:31, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Тем временем, у людей zpool в коньках на домашнем пк все чаше встречается. Ага.
| |
|
3.33, Аноним (33), 21:54, 18/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
В линуксе даже фат 32 портится если не размонтировать.
А в sync режиме тормозит.
Нет какого-то среднего режима как в винде.
| |
|
4.150, Аноним (148), 05:42, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
/etc/sysctl.conf
# This fix enoumous big diry bytes (16 gb system vm.dirty_background_bytes 3.2 Gb ??? )
# 64 mb - when system starts writing to disk 64*1024*1024
# 256 mb - when system limits io to device speed 256*1024*1024
# Guys from SUSE recommends keep this in proportion 1:2 - 1:4
# Ubuntu guys recommends to set this even lower 16 and 42 Mb but well...
# This emulates near 1 gb ram default behaviour
#let only 64 mb of pages in ram before writing to disk on background
vm.dirty_bytes = 67108864
#let only 256 mb of pages in ram before blocking i/o to write to disk
vm.dirty_background_bytes = 268435456
## use this on low ram machile (32 and 64 mb)
#vm.dirty_bytes = 33554432
#vm.dirty_background_bytes = 67108864
| |
|
3.101, Lost Inside (ok), 09:24, 19/12/2022 [^] [^^] [^^^] [ответить]
| –2 +/– |
На внешних устройствах лучше держать NTFS или exFAT, для совместимости с.
ИМХО, конечно же.
| |
|
4.118, Аноним (4), 14:09, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
btrfs лучше всего для совместимости. для нее есть хорошие дрова для винды.
| |
|
3.113, Трианон (ok), 12:53, 19/12/2022 [^] [^^] [^^^] [ответить]
| +2 +/– |
Т.е., выдергиваешь внешний носитель, не размонтировав ФС на нём, ну ССЗБ. Так-то любая ФС порушится.
| |
|
4.117, Аноним (4), 14:08, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
после размонтированя конечно. посмотри как btrfs себя ведет если залить 20 гигов и размонтировать - она размонтируется мгновенно. похоже какие то журналы еще не записаны на уровне ядра.
| |
|
5.149, Аноним (148), 05:40, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Это зависит от параметра ядра.
добавь это в /etc/sysctl.conf
#let only 64 mb of pages in ram before writing to disk on background
vm.dirty_bytes = 67108864
#let only 256 mb of pages in ram before blocking i/o to write to disk
vm.dirty_background_bytes = 268435456
| |
|
6.178, Аноним (-), 19:48, 24/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
С более-менее новыми ядрами это уже не надо: они сами замечают что накопитель медленный и урезают ему dirty по своей инициативе, чтобы размонтирование, отбор памяти у кэша и проч занимали бы человеческое время.
А на быстром накопителе это только немного просадит производительность без особых положительных эффектов. Лучше ядра использовать не сильно древние, а на десктопе еще и low latency варианты к тому же. Для общей интерактивности системы.
| |
|
5.177, Аноним (-), 19:45, 24/12/2022 [^] [^^] [^^^] [ответить] | +/– | Во первых у нее нет журналов в привычном понимании Запись и является сама себе ... большой текст свёрнут, показать | |
|
|
3.176, Аноним (-), 19:35, 24/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> У меня часто сыпиться на внешних устройствах,
Эти с любой ФС сыпятся. Иногда даже настолько что совсем умирают. Там надо не только размонтировать но и EJECT делать, как безопасное извлечение в винде.
В этом случае оно еще более-менее остановит фоновые операции. Иначе - возможно все что угодно. Вплоть до слета транслятора - и горе вам если у вас бэкапов нет, это вообще не определяется как устройство, или определяется в сервисном режиме контроллера - но что вы с ним таким делать будете? Btrfs если dup включить, с его 3 копиями суперблоков даже зачастую выживает, гораздо чаще чем многие другие.
| |
|
2.13, Ананимист (?), 21:13, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
На этот нелепый вопрос давно ответила Fedora, openSUSE, SUSE и Oracle.
Спойлер : давно.
| |
|
|
4.22, Ананимист (?), 21:20, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Послали нафiг, сказав, что у нас есть свои велосипеды.
Ну вот теперь в своих Stratisах реализуют то, что уже давно готово в BTRFS.
А на самом деле, они бы уже сейчас перешли.
Но, признаются, что тупо нет спроса у клиентов. На их сабреддите можешь почитать.
| |
|
5.37, penetrator (?), 21:57, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
я бы хотел BTRFS в шапке, а еще чтобы они кеды вернули и LXQt
но я не плачу за шапку, я пользуюсь клонами
| |
|
6.42, Ананимист (?), 22:05, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Вряд ли будет. Как кеды, так и другое.
А если всё такое надо, лучше юзать Fedora.
| |
|
7.98, Аноним (98), 09:17, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
В Альме уже сегодня есть кеды. В Евролинуксе тоже скоро обещали.
| |
7.145, penetrator (?), 22:52, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Fedora не годится для прода, а вот сервер с гуи часто встречается. И вместо LXQt приходится ставить кеды, в Роки есть. Но LXQt нет... и BTRFS тоже к сожалению.
| |
|
|
|
4.36, DEF (?), 21:57, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
>А красная шляпа что ответила?
Тебе написали: Fedora.
| |
|
|
2.24, НяшМяш (ok), 21:23, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Второй SSD на 2TB у меня на ней полгода крутится. Но там всего лишь файлопомойка да каталог стима. Другой SSD с корнем и хомяком пока страшно переводить )
| |
2.27, DEF (?), 21:42, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Юзаю 7 лет, не потерял ни одного бита. Надо курить мануалы и следовать рекомендациям.
| |
|
3.70, Аноним (68), 01:16, 19/12/2022 [^] [^^] [^^^] [ответить]
| +5 +/– |
Zfs как-то умудряется работать без рекомендаций: поставил и поехал, ничего не сыпется. А с этим чудом нужно обращаться как с фарфоровой куклой
| |
|
4.79, EULA (?), 05:22, 19/12/2022 [^] [^^] [^^^] [ответить]
| –2 +/– |
Умудряется работать ровно до обновления ядра. Потом нужно ждать от трех дней до недели, чтобы вначале в апстриме сделали возможной сборку модуля для нового ядра, затем в дистрибутиве ждать обновлений.
На LQO насчитали более 50 случаев, когда бэкпорт патчей из нового ядра ломал возможность сборки или функционирования модуля ZFS в старом ядре.
Именно поэтому ZFS нельзя для проды использовать
| |
|
5.90, rinat85 (ok), 07:18, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
"Потом нужно ждать от трех дней до недели, чтобы вначале в апстриме сделали возможной сборку модуля для нового ядра" "Именно поэтому ZFS нельзя для проды использовать"
Зато на прод можно ставить btrfs, который даже для загрузочного диска гипервизора не поставить в зеркало из 2х, т.к. он при деградации массива тупо отказывается работать пока не починят, вместо того, чтобы админ получил авто уведомление о проблеме и думал, когда и как ею заняться, а не бежал чинить, т.к. тюкают по голове звонками и чатами пользователи, оставшиеся без возможности работать :)
| |
|
6.93, EULA (?), 08:02, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Так не надо делать из BTRFS зеркало RAID0.
Ну или не надо ставить GRUB в Legacy на этот же раздел.
| |
|
7.140, rinat85 (ok), 20:57, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Так не надо делать из BTRFS зеркало RAID0.
> Ну или не надо ставить GRUB в Legacy на этот же раздел.
Я написал зеркало, очевидно имея ввиду аналог RAID1, иначе написал бы stripe :) Да, именно на массиве типа зеркало btrfs так себя ведет (год-полтора назад как минимум таковым точно было его поведение согласно дизайну, сам в шоке и не поверил сначала своим глазам:)
| |
|
|
5.99, Аноним (98), 09:20, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Юзою ЗФС на продах ещё с 19-го года. Но в бубунте её модуль идёт сразу с ведром, потому проблем с модулем нет.
| |
|
6.106, EULA (?), 10:02, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Поэтому в бубунте ядро в репы добавляют не в день релиза, а в день, когда все модули соберут. Иногда на это уходит неделя, если модульдел неделю думает, как модуль сделать для ядра.
| |
6.180, Аноним (-), 19:54, 24/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Юзою ЗФС на продах ещё с 19-го года. Но в бубунте её
> модуль идёт сразу с ведром, потому проблем с модулем нет.
Кроме того момента когда вон там фикс на уязвимость выкатывают, а ты еще пару неделек уязвимый походи. С общеизвестной уязвимостью. Вот блин радость.
| |
|
|
4.123, Заноним (?), 14:28, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
C ZFS было пару раз (в версии 0.6.x и 0.7.x), не монтировалась/не импортировалась штатно, приходилось импортировать принудительно для восстановления, вникать/искать в то какая там последняя рабочая транзакция, затем с неё сливать в новый пул на другом накопителе. Причём сбойный пул был на двух накопителях в mirror (сбоило на обоих накопителях). Но надо учитывать, что это был ПК без ECC с CPU и RAM в экспериментальном разгоне и сбой на FS возник после кучи ошибок и многократных зависаний системы. Однако если-бы был raidz, возможно восстановление было-бы ещё более заморочным, хотя я вряд-ли с raidz стал-бы сильно разгонять проц и память.
| |
4.129, DEF (?), 14:47, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
ZFS сыпется и теряет данные не реже, чем Btrfs. Вообще удивляет, как пипл верит ничем неподтвержденным мифам о супер-надежности ZFS. Где конкретные критерии стабильности и надежности ФС? Я лично более 1000 раз во время записи делал холодный ресет и Btrfs ни разу не рассыпалась.
| |
|
5.130, Заноним (?), 15:03, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
> ZFS сыпется и теряет данные не реже, чем Btrfs
Вот это миф, т.к. ничем не доказать.
> Вообще удивляет, как пипл верит ничем неподтвержденным мифам о супер-надежности ZFS.
Пипл не верит, пипл разбирается в технических деталях и знает, что сама ZFS не крошится и данные если и потеряются, то лишь нескольких последних параллельных транзакций. И даже без ECC, и даже если выключить ZIL.
| |
|
6.181, Аноним (-), 19:58, 24/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Вот это миф, т.к. ничем не доказать.
Поискари в интернете найдут вопли по любой ФС, а если вы хотите это конденсировано - придите в тусовку разработчиков, туда приходят те кому больше идти уже некуда.
> Пипл не верит, пипл разбирается в технических деталях и знает, что сама
> ZFS не крошится и данные если и потеряются, то лишь нескольких
> последних параллельных транзакций. И даже без ECC, и даже если выключить ZIL.
Свежо предание.
| |
|
7.192, Заноним (?), 22:49, 26/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Утверждение раз пять перечитайте, что-бы понять на что я возразил.
> придите в тусовку разработчиков, туда приходят те кому больше идти уже некуда.
Давно там, по другим причинам. А вот вы сходите, и когда наскребёте статистику по потере данных в zfs и btrfs, тогда и приходите с доказательствами.
> Свежо предание
Ну можете обпроверяться.
| |
|
|
5.131, Аноним (131), 15:06, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Ресет убивает btrfs только в одном случае - с no barrier. Проблемы с данной фс намного глубже. Можно просто после перезагрузки получить сообщение о ошибках связанных с деревом. Лично я, встречался с этим дважды - разумеется, третьего не будет. Благо, с zfs данных никогда не терял.
| |
5.135, Аноним (68), 17:09, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Опыт штука такая, бтрфс в моем случае потерял два раздела, а зфс на тех же винтах после (которые я смог собрать в рейд уже без мдадма, вау) - ноль раз. Еще и балансить её не нужно и вообще прикасаться без необходимости, вот это чудеса. Конечно после такого опыта снова трогать бтрфс не хочется, и ничего подтверждать не надо
| |
|
|
|
2.30, SubGun (ok), 21:48, 18/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Ну, у меня регулярно(1-2 раза в год) с ней проблемы. Но может я его готовить не умею?!
| |
|
3.34, Олег (??), 21:54, 18/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
Ёжики кололись, плакали, но продолжали жрать кактус
Непонятно зачем, когда zfs есть
| |
|
4.80, EULA (?), 05:25, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Ежики, которые не в курсе, что ZFS нет в ядре, и никогда скорее всего, не будет, не знают, что бывает, когда модуль на собирается с новой версией ядра.
| |
|
5.100, Аноним (98), 09:22, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
В бубунце модуль ЗФС идёт вместе с ведром. Чтобы этого добиться, там даже лояры прорабатывали этот вопрос. Полёт нормальный, с 19-20 годов пофиксили кучу багов и гонок c read-locks.
| |
|
6.107, EULA (?), 10:06, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
> В бубунце модуль ЗФС идёт вместе с ведром. Чтобы этого добиться, там
> даже лояры прорабатывали этот вопрос. Полёт нормальный, с 19-20 годов пофиксили
> кучу багов и гонок c read-locks.
Выше уже писал. Попадание свежего ядра в реп из--за этого может на неделю зависнуть.
Несколько версий ядер с бэкпортироваными фичами просто в реп не попали, так как модуль с этими ядрами не собрался.
| |
|
7.127, Заноним (?), 14:38, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
Ничего, подождёшь недельку, ухле ныть - оно даже если не обновится, ничего страшного, старое же ядро работает и собранный под него модуль работает же.
| |
|
8.173, EULA (?), 09:15, 22/12/2022 [^] [^^] [^^^] [ответить] | +/– | Недельку с незакрытой CVE жить А потом удивляются, почему нет сертифицированных... текст свёрнут, показать | |
|
|
10.193, EULA (?), 06:50, 28/12/2022 [^] [^^] [^^^] [ответить] | +/– | А что, от самопатча ядра модуль ZFS, который не собирается с патчем, сам соберет... текст свёрнут, показать | |
|
|
|
|
|
|
|
3.94, Аноним (94), 08:28, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Пользую btrfs около 8 лет как основную и намерен продолжать использовать.
Использую её на домашнем ПК/ноутбуке.
Поначалу были факапы примерно раз в год.
Последние пару лет использую нормальное оборудование и последние версии ядра - проблем не было ни одной.
Пользовал btrfs на SMR-дисках при интенсивной записи: да, была СТАБИЛЬНО РЕГУЛЯРНАЯ беда раз в пол года примерно год назад (если игнорить тот факт, что SMR и интенсивная запись несовместимы).
У кого btrfs сыпется регулярно - ищите проблемы либо в аппаратной части, либо в своих навыках пользования имеющимися инструментами.
btrfs - конфетка, золотая середина для локального использования.
| |
|
4.108, EULA (?), 10:09, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
> У кого btrfs сыпется регулярно - ищите проблемы либо в аппаратной части,
> либо в своих навыках пользования имеющимися инструментами.
Вы просто не пробовали размещать btrfs на умирающих дисках, как это делают все недовольные этой ФС.
| |
4.119, 1 (??), 14:11, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> У кого btrfs сыпется регулярно - ищите проблемы . . ., либо в своих навыках пользования имеющимися инструментами.
Это как ? Компилировать ядро только по субботам ? А не в любой момент, когда захотелось ?
| |
|
|
2.38, penetrator (?), 21:59, 18/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
у меня есть большой массив, чексумы на данные - это киллер фича, уже нашел 2 битых файла за несколько лет эксплуатации (глюканул рейд контроллер), восстановил их из архивов
| |
2.59, eugener (ok), 23:10, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
У меня на работе произошла забавная история.
Как-то я прочёл эту статью - https://habr.com/ru/post/559014/ - там про болячку btrfs с исчерпанием свободного места на диске.
Буквально через неделю коллега жалуется что у него убунта не грузится. Говорит что нет места на /. Я такой "а там у тебя случайно не btrfs??" - коллега "ага, оно самое".
Посмотрел, действительно, занято всего ничего - а свободного места ноль. Никакие команды не отрабатывают, в том числе и rm и fsck, ругаются что "недостаточно свободного места, действие не может быть завершено" - что-то в этом роде.
Мне было интересно можно ли оживить, но коллега просто форматнул / и переставил убунту, благо /home был отдельным разделом.
| |
2.96, Аноним (96), 08:50, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Фиг знает.
Для десктопа сойдёт.
Для продакшна - зависит от нагрузки. Если много мелкой записи и критичны IOPS - лучше не трогать.
| |
2.120, Аноним (131), 14:14, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Готова, при наличии бэкапа. Но все равно медленнее zfs, которую можно гибко настроить. Чего не скажешь о btrfs.
| |
2.154, Antoha (?), 10:08, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Софтовый рейд в продакшене это колхоз.
А вот для десктопа - отличное универсальное решение.
| |
|
1.2, Аноним (2), 20:34, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +2 +/– |
А на самом деле:
- fix destructive RMW for raid5 data (raid6 still needs work)
Т.е. великим трудом поправлен один частный случай да и то для raid5.
Дополнительно можно отметить рекомендации по использованию RAID5/6 от разработчиков, суть которых сводится к тому, что использовать btrfs не рекомендуется там, где данные имеют ненулевую ценность.
Поправил, не благодарите.
| |
|
2.77, Андрей (??), 03:56, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
А чего это благо что хоум на отдельном разделе? Я не использую хоум вообще для хранения чего либо, там у меня только конфиги и всё которые скопированы дополнительно в другое место, поэтому хоум никогда не делаю отдельно, а для помойки использую том примонтированый в медиа
| |
2.82, EULA (?), 05:30, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Знаю как красиво убить ZFS.
Надо во время записи на диск вызвать ошибку загрузки любого модуля ядра. Например, BT или WIFI.
| |
|
1.3, Kuromi (ok), 20:41, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
"Также можно отметить, что для SSD в Btrfs в ядре 6.2 будет активировано по умолчанию асинхронное выполнение операции "discard" (пометка освобождённых блоков, которые уже можно не хранить физически). Достоинством этого режима является высокая производительность из-за эффективной группировки операций "discard" в очереди и далее обработки очереди фоновым обработчиком, из-за чего нормальные операции ФС не замедляются, как в случае с синхронным "discard" по мере освобождения блоков, а SSD может принимать более удачные решения."
Целиком срисовано с F2FS, там именно так оно и работает.
| |
1.5, Аноним (5), 20:45, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +2 +/– |
Мне кажется я скорее ZFS в ядре дождусь, чем BTRFS станет продакшн реди
| |
|
2.9, Аноним (9), 20:54, 18/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Я использую btrfs на системном ссд с данными, всё норм. Мне нужны сжатие текстовых данных и дедупликация, что в ext4 не удобно так это необходимость регулярно прогонять hardlink и отсутствие сжатия. Зачем тебе btrfs, mdadm не хватит?
| |
|
|
4.88, Аноним (9), 07:00, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Сжатие умеет tar. Снапшоты тоже. Именно так бэкапятся изменения за неделю и в конце недели полноценный бэкап. Рейд это не бэкап, ему не нужны снапшоты или сжатие.
| |
|
5.97, i_use_btrfs (ok), 08:52, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Сжатие умеет tar. Снапшоты тоже.
Отлично конечно но в файловой системе недоступно и скорость доступа совсем другая.
| |
5.109, EULA (?), 10:23, 19/12/2022 [^] [^^] [^^^] [ответить] | –1 +/– | Это когда tar стал уметь сжатие То, что утилита tar может вызывать внешние утил... большой текст свёрнут, показать | |
|
6.132, Аноним (9), 15:23, 19/12/2022 [^] [^^] [^^^] [ответить] | +/– | GNU tar имеет встроенную поддержку для компрессоров и может напрямую их вызывать... большой текст свёрнут, показать | |
|
7.146, Анончик (?), 00:22, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
>Я использовал индексированные gz и есть даже для тарболов сжатых zstd.
можно по подробно
| |
7.174, EULA (?), 09:38, 22/12/2022 [^] [^^] [^^^] [ответить] | +/– | 1 fusermount Корень не смонтировать 2 RO, как и SquashFS 1 Загрузка ОС из ... большой текст свёрнут, показать | |
|
|
5.165, Аноним (-), 14:39, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Сжатие умеет tar.
Это все отлично конечно, но по времени операций и удобству рядом не стояло.
> Снапшоты тоже. Именно так бэкапятся изменения за неделю и в конце недели полноценный бэкап.
Сделать снапшот терабайтной ФС в сабже моментально. А таром так можно? То-то и оно :). Снапшот не бэкап но откатить систему после неудачного обновления или смены настроек удобно.
| |
|
|
|
2.14, Ананимист (?), 21:15, 18/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
> BTRFS не продакш реди
> Oracle, SUSE, openSUSE : ну да, ну да, пошли мы нафiг | |
2.102, Аноним (98), 09:26, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
В бубунце модуль ЗФС поставляется в комплекте с ведром. Это вполне себе хороший компромисс.
| |
|
|
2.12, Аноним (9), 21:00, 18/12/2022 [^] [^^] [^^^] [ответить]
| –7 +/– |
Проблема дешёвых ссд. в следующий раз не будешь вестись на рекламу и проплаченные отзывы и возьмёшь качественные adata (поспеши пока островной китай на плаву).
| |
|
|
4.60, Аноним (9), 23:17, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Да, сарказм был силён. Но, при этом он собирается на нормальном контроллере и поддерживает discard.
| |
|
5.89, leap42 (ok), 07:01, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> ...Но, при этом он собирается на нормальном контроллере...
Ну как нормальным. У меня штук 7-8 ssd было, проблемный был один - Adata XPG. После поверхностного гугления ошибок из dmesg понял, что проблема с контроллером.
| |
|
6.133, Аноним (9), 15:26, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
У них фишка в том, что они собираются на рандомном контроллере, в лучших китайских традициях.
| |
|
7.186, Аноним (-), 20:20, 24/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> У них фишка в том, что они собираются на рандомном контроллере, в
> лучших китайских традициях.
И еще и из рандомного флеша, который удалось как можно дешевле где-то ухватить. Мало ли, скидывал нормальный производитель брак, допустим, и выбор был между совсем под пресс, или вон тем дешевым, без претензий, с кучей бэдов это отдать? В первом случае еще за утилизацию платить надо, во втором - даже профит какой-то. Ничего личного, это бизнес.
| |
|
|
|
|
|
2.124, Аноним (131), 14:30, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Работает, но не поддерживает корректно queued trim. Этим существенно замедляя операции во время собственно trim'а. fstrim даже лучше discard - после выполнения по расписанию trim'а, не вызывает падение производительности.
| |
|
3.185, Аноним (-), 20:16, 24/12/2022 [^] [^^] [^^^] [ответить] | +/– | В вон том случае оно асинхронно относительно операций ФС случается и это уже не ... большой текст свёрнут, показать | |
|
2.184, Аноним (-), 20:13, 24/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> discard не работает на многих ssd самсунга, зря активировали.
Ядро само отключает для проблемных накопителей, там список вредин и плохих версий фирмварей ведется. Для таких ядро будет просто игнорить дискард, не повод из-за кривых железок обламывать всех остальных. Сделали так что пролетать будут только владельцы (некоторых) самсунгов.
| |
|
|
2.20, Аноним (15), 21:19, 18/12/2022 [^] [^^] [^^^] [ответить]
| +3 +/– |
Его не будет. Ты как те психи, который ждали автобус на остановке где автобусы не останавливаются.
| |
|
|
4.41, Аноним (15), 22:03, 18/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
Поверь в Анонима как в самого себя. Главная заповедь опеннета.
| |
|
|
|
1.18, ma3x one (?), 21:18, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
> Скажите, а Btrfs уже готова для продакшена и для десктопа?
openSUSE Leap 15.x:
Коневой раздел - Btrfs
Домашний раздел - Xfs
| |
|
2.21, Аноним (15), 21:19, 18/12/2022 [^] [^^] [^^^] [ответить]
| –3 +/– |
Суся это экспериментальный дистр. Никто суши даже платные на боевой сервер ставить не будет.
| |
|
3.23, Ананимист (?), 21:21, 18/12/2022 [^] [^^] [^^^] [ответить]
| –2 +/– |
Рекомендую иногда выбираться в Европу, а не сидеть на диване где-то в Ростове.
Очень много стереотипов развеются.
| |
|
|
5.45, Ананимист (?), 22:08, 18/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Не, или starздишь, или мало гуляешь.
Нужно больше.
openSUSE и в госпиталях юзают (у них на сайте есть инфа, не падай ток в обморок).
И в учебных заведениях (можешь погуглить, только держи себя в руках).
Давай, как погуляешь, дай знать.
| |
|
4.44, Аноним (15), 22:07, 18/12/2022 [^] [^^] [^^^] [ответить]
| –2 +/– |
Чтобы убедить что суши никто не использует? Ты бы сам сначала для начала выбрался из своего манямирка.
| |
|
|
6.54, Аноним (15), 22:45, 18/12/2022 [^] [^^] [^^^] [ответить]
| –3 +/– |
Опять ссылку на свой манямирок дал? Ты мозгов вообще обучен пользоваться? Тебе явно к психиатору прими таблетки.
| |
|
|
|
5.74, Прохожий (??), 03:24, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Ну конечно, куда какой-то Европе до Г-нодонска или Задрыщинска из российской глубинки.
| |
|
6.111, YetAnotherOnanym (ok), 11:10, 19/12/2022 [^] [^^] [^^^] [ответить]
| –2 +/– |
> Ну конечно, куда какой-то Европе до Г-нодонска или Задрыщинска из российской глубинки.
Дооо, уязвил сарказмом, ага. Куда ж нам, сиволапым, до Шайзенштадта и Фартборо - это ж столицы мирового IT, на них равняются в Беркли, Тайбэе, Москве, Токио и вообще во всём мире.
| |
|
|
|
|
4.43, Аноним (15), 22:06, 18/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
Новости 33 миллиона лет ты так жестко рофлишь над самим собой? И то в те времена то что менеджеры получили больше откатов конкретно в этой фирме говорит ровно ни о чём.
После этого никто, подчеркиваю никто из тех кто дружит с головой ни в какие серьёзные вещи суши не пихал.
| |
|
5.48, pavlinux (ok), 22:13, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> жестко рофлишь
Йопт, малолетнее дебилушко. иди гугле HPE GreenLake, Kubernetes
И свои высеры про "откаты" и "никто" ссылками подтверждай. А то выглядишь де6илом
| |
|
6.53, Аноним (15), 22:44, 18/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Йопт, старый маразматушка. Нет там никакого суши забудь. Суши есть у мелких отщипенцев типа тебя, с ограниченными умственными способностями. Твои нелепые попытки гуглить это просто смех. Ты смешном по жизни.
| |
|
|
|
|
2.69, Аноним (68), 00:59, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Там (в зюзе) уже сто лет дефолты такие, они были еще когда бтрфс сыпалась во много раз чаще чем сейчас, так что это нулевой аргумент
| |
|
1.31, pavlinux (ok), 21:48, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
BTRFS это отладочная версия с халявным кодом, для тестирования алгоритмов ZFS.
| |
1.62, Kirikekeks (ok), 23:31, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Упрощаете товащи!
Здесь про рэйд5 новость. Использовать саму btrfs можно, кому нужно. А вот райд5 btrfs - кому нужно? Я бы послушал. Вот lvm к примеру срачей отмены ни у кого не вызывает, а хоть кто-то, ну то нибудь пользуется lvm raid5?
| |
|
2.169, edo (ok), 18:56, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Ну я активно использую raid 5 в фс (zfs). Ибо оно имеет свои плюсы (как и минусы, разумеется).
| |
|
1.64, Аноним (64), 00:17, 19/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
Вообщем понятно, с такими детскими проблемами на btrfs в ближайшие 10 лет смотреть не стоит
| |
|
2.92, Конь (?), 07:52, 19/12/2022 [^] [^^] [^^^] [ответить]
| +2 +/– |
10 лет назад было тоже самое. Подождем ещё 2 раза по 10 может взлетит
| |
2.104, Аноним (104), 09:43, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
Ага, по этой логике и sqlite использовать не стоит, нигде и никогда. У неё как были проблемы с множественной записью так и остались.
| |
|
1.85, Аноним (85), 06:25, 19/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Btrfs слишком глючно и ненадёжно. Лучше ext4 на сегодня нет, разве что zfs.
| |
|
2.128, Аноним (131), 14:42, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Однозначно zfs, если вам нужна btrfs. Минусов два - не в ядре и необходимость в тюнинге.
| |
|
3.137, пох. (?), 17:32, 19/12/2022 [^] [^^] [^^^] [ответить]
| +1 +/– |
минусов гораздо больше. Начиная от отсутствия средств восстановления, продолжая невозможностью менять конфигурации сложившиеся исторически, и заканчивая все тем же смешным неумением без перезагрузки увеличить существующий раздел (только у л@п4тых, но беда в том что другой zfs для вас у меня уже нет)
Про абсолютно неэффективную работу с памятью уже и не стоит...
| |
|
|
1.112, Аноним (112), 12:27, 19/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Какой смысл использовать RAID5/6, когда диски стали большими и дешевыми? Время восстановления после сбойного диска будет куда больше чем у RAID1/10, а по стоимости выйгрыш минимальный.
| |
|
2.121, Аноним (7), 14:14, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Это справедливо лишь по отношению к потребительским накопителям (если говорить об ssd), модели серверного/промышленного класса нифига не стали дешевле.
| |
2.136, пох. (?), 17:29, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Именно в том что они стали слишком большими (и слишком дешевыми).
Время восстановления после сбоя любимого тобой raid10 тождественно равно нулю.
Потому что он не восстановится с непомерно высокой вероятностью.
Выкрасить и выбросить можно сразу.
А 3way mirror все еще немного дороговат.
| |
2.157, Аноним (96), 22:48, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Это смотря сколько у тебя дисков.
Предлагаешь загнать 15 8Tб дисков с данными под тройную чётность, купив 45?
Не, я лучше куплю ещё два и обойдусь RAID6.
| |
|
3.158, Аноним (96), 22:49, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Тьфу блин под тройную чётность. Под тройную дупликацию, конечно же.
| |
3.161, пох. (?), 00:21, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
А ты - смелый!
(/me немного подозрительно косится на свою конструкцию 9+2)
| |
|
|
1.138, Аноним (138), 18:52, 19/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +4 +/– |
Ребята, не стоит использовать RAID 5/6. Никогда. Вы молодые, шутливые, вам все легко. Это не то. Это не RAID1 и даже не JBOD. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте, что тут писалось. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых – стоп. Остальных просто не найдут.
| |
|
2.139, пох. (?), 19:57, 19/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
программировать, а не использовать. Использовать-то можно, если данные не нужны.
Поправил, не благодари.
А в остальном все верно. Со времен Левенталя не осталось достаточно грамотных людей, способных в эту математику (и одновременно в код, но это неточно).
ВСЕ современные попытки почему-то (мы знаем почему) оборачиваются г-ном.
| |
|
|
4.142, пох. (?), 21:36, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
угу, в xor. Вот в твоем лин00ps'е - с первого раза - нишмагли, в mdraid.
И его реализация raid6 просто превращала данные в мусор.
Нет, не потому что перепутали байтики в xor. Она вообще не работала. А почему - в твоей, лапоть, церковноприходской школе, тебя не учат не то что понимать, а хотя бы осознать глубину своей безграмотности.
Лет пять назад ситуация повторилась в lizardfs. Там интереснее - там, видимо, именно перепутали, но за пять лет НИКТО не смог исправить. Ну не хватает им тебя, эксперта, чтоб показать, что там не так в ихнем xor.
А тех кто мог бы - Организация видимо убила и съела. Или как Левенталя... уж лучше б - съела.
| |
|
5.144, пох. (?), 22:21, 19/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Не, ну реализуется-то оно в основном и правда на xor и сдвигах, как любое умножение двоичных полиномов.
Только местному эксперту (к счастью для него) никогде не разобраться, почему иногда при этом получаются обратно данные, а иногда - фигня какая-то.
А с теми кто могли - всякое странное происходило. Так что да, не советую в этом копаться. Просто не найдут. Или найдут разработчиком в оракле.
| |
|
6.152, Аноним (-), 09:31, 20/12/2022 [^] [^^] [^^^] [ответить]
| –1 +/– |
О да, лекцию по полям галуа давай заодно, если сам что-то смыслишь.
| |
|
|
|
|
|
1.156, аНОНИМ (?), 22:37, 20/12/2022 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
я как-то тестировал openzfs raidz1 (ихнее название для raid5) btrfs raid5. Создавал fs, писал данные, размонтировал. Потом один из 3 разделов перезаписывал /dev/urandomом. Монтировал обратно. После этого zfs ругалась, тормозила, но все данные возвращала (а resilver фиксил ситуацию к тому что было до). btrfs же вообще ничего не читала, ну может случайно 1 короткий файл из 10. Это цена отсутствия чексуммы на блок чётности.
Из аналогичного упражнения для mirror/raid1 обе фс выбирались без потерь.
| |
|
2.159, Аноним (96), 22:50, 20/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
mirror/raid1/raidz1/raid5
Всё - выкрасить и выбросить.
Либо 3-way mirror, либо raid6.
| |
|
3.162, пох. (?), 00:26, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
при отсутствии контроля четности второе ничем не лучше. Ну есть у тебя теперь второй блок контрольных данных. А какой поврежден - по прежнему неизвестно. Может этот самый второй. Может первый. А может сами данные. raid делали для защиты от отказов носителя, не от silent corruption или отказа управления.
| |
|
4.163, аНОНИМ (?), 11:52, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Чисто формально, в случае порчи *одного* любого блока из страйпа raid6 данные можно восстановить. Но это существенно большие вычисления чем в случае, если известно, какие блоки пропали. И mdraid так не умеет.
| |
|
5.170, edo (ok), 19:05, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Но это существенно большие вычисления
Не только, это ещё и больше i/o, поэтому сомневаюсь, что оно где-то используется при штатной работе для контроля целостности данных
| |
5.171, пох. (?), 21:45, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
> Чисто формально, в случае порчи *одного* любого блока из страйпа raid6 данные можно
> восстановить.
э... как? Если мы не знаем, какой именно это блок? Если у страйпа хотя бы был бы общий контрольный, не ec, код - то да, можно собирать его всеми способами выкидывая все блоки поочереди, пока контролька не совпадет. Ну или ты предлагаешь мажоритарным методом - каких больше, тот и прав? Так и xor можно. Правда, необязательно это будет правильный ответ ;-)
> mdraid так не умеет.
мне кажется, так никто из EC-based не умеет.
| |
|
4.164, аНОНИМ (?), 11:53, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Ну и да, в случае зеркал с >2 копиями тоже такто можно задетектить порченный блок и восстановить. И опять mdraid не умеет.
| |
|
5.172, пох. (?), 21:51, 21/12/2022 [^] [^^] [^^^] [ответить]
| +/– |
Ну то же самое - либо контрольный код, и просто прочитать тот где совпало, либо те где больше одинаковых, те и правы.
Но опять же сомневаюсь что хоть что-то так работает.
В synology mdraid вроде умеет в какой-то self-healing, "но это неточно" и исходников нет.
| |
|
6.187, Аноним (-), 20:28, 24/12/2022 [^] [^^] [^^^] [ответить] | +/– | Btrfs прекрасно чинит себя с второй копии, csum error, corrected и дальше поехал... большой текст свёрнут, показать | |
|
|
|
|
|
|