|
2.2, Тест (?), 08:35, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +1 +/– |
raid1 и в mdadm не ускоряется by design. Можно сделать degraded raid10 (с половиной дисков), чтобы зафорсить параллельное чтение.
| |
|
3.12, нах. (?), 09:20, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +2 +/– |
погоди, они ж лет десять назад с пафосом это чинили?
(или я путаю и они героически чинили 2x performance hit на write? Потычьте кто-нить палочкой, я боюсь.)
| |
3.46, Аноним (-), 11:49, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Где ты был комментатор 10 лет назад, когда я работал с Western Digital? Ты бы мне на проекте очень был бы нужен. Они в упор не хотели понимать проблему, потому что железо уже наклепали и софт под него не хотели менять. А мне только API можно было использовать.
| |
3.47, Аноним (47), 11:58, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
> Можно сделать degraded raid10 (с половиной дисков), чтобы зафорсить параллельное чтение
Разве raid10 с половиной дисков это не то же самое, что и raid0? Может тогда лучше сразу raid0 собрать?
| |
|
4.55, Аноним (55), 12:32, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Разве raid10 с половиной дисков это не то же самое, что и raid0?
Зависит какие диски считать половиной, ([1-3], [2-4]) или ([1-2], [3-4]). В первом случае если дегрейднуть одну группу [2-4] то получится raid0 то есть данные все еще целые. А вот во втором случае, если дегрейднуть группу [3-4], то потеряем целостность.
https://ru.wikipedia.org/wiki/RAID
| |
4.137, chdlb (?), 09:23, 17/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
RAID 10 is a stripe of mirrors
все правильно, если убрать два диска не из разных зеркал, то массив развалится
а если из разных, то это обычный RAID0 c точки зрения надежности
| |
|
|
|
3.9, нах. (?), 09:09, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –3 +/– |
ну замедление же ж дает! (не удивлюсь если там и 2x performance hit по записи, как у дедов в их md1)
На самом деле не дает только при linear read, а если у тебя мильен мелких процессов (мля, а что это такое может быть? cp раздаваемая апачом с prefork mpm?) то все же должно быть не 2x, но побыстрее чем одинарный диск.
Ноетанеточна, и я бы рекомендовал потестировать если всерьез закладываться на эту недофичу.
"недо", потому что серьезные выигрыши от параллельных операций начинаются когда шпинделей не два, а двадцать два, а у нас raid6 данные портит.
| |
|
4.15, Аноним (-), 09:26, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –3 +/– |
> Ноетанеточна, и я бы рекомендовал потестировать если всерьез закладываться на эту недофичу.
Оно пока экспериментальное и не активировано по дефолту, это ж не ZFSники вывалить не тестированый крап с лопаты.
> "недо", потому что серьезные выигрыши от параллельных операций начинаются
> когда шпинделей не два, а двадцать два, а у нас raid6 данные портит.
RAID6 для ускорения - это конечно тоже забавная идея. Хотя на 22 наверное даже прокатывает.
| |
|
5.24, нах. (?), 10:07, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
> RAID6 для ускорения - это конечно тоже забавная идея
обхохочешься. Производители san'ов прям животики надрывают глядя на таких как ты.
(а сервис-инженеры, кстати, плачут. Типичная жалоба заказчика - "мы купили .... а оно и половины завленной производительности не выдает, за что тыщи нефти плочено?!". Угадаешь, почему?)
| |
|
6.64, Аноним (64), 13:42, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –4 +/– |
>> RAID6 для ускорения - это конечно тоже забавная идея
> обхохочешься. Производители san'ов прям животики надрывают глядя на таких как ты.
При том одни, кажется, уже даже и надорвали. Sun, кажется, этот лопнувший от трупных газов кадавр назывался. И, вот - разобрали его на запчасти.
> (а сервис-инженеры, кстати, плачут. Типичная жалоба заказчика - "мы купили .... а
> оно и половины завленной производительности не выдает, за что тыщи нефти
> плочено?!". Угадаешь, почему?)
Ворклоад какой-нибудь дурацкий, RMW вызывает и если там парити например не распределенный а одним диском - в него все и утыкается поди?
| |
|
7.126, Аноним (125), 00:29, 17/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
Sun лопнул, поскольку уж очень дифференцированно свой бизнес строили. И собственный процессор Spark, и собственная ОС, и собственные ФС - ZFS и NFS, и собственный формат лент, и собственная среда исполнения кода. Не все перечислено.
Когда IBM понял, что не справляется, начал избавляться от менее доходных направлений, передав бытовые ПС и линейку серверов X к Lenovo, сохранив за собой более прибыльные линейки I, P и Z. HP смогла сбросить с себя бремя HPUX. Oracle отказался от собственного формата лент. А Sun продолжал тужиться, тягая сразу все лямки. Не смог, в итоге, надорвался.
Хотя, объективности ради, надо признаться, что Sun поправу можно с гордостью отнести к самому "кровавому ынтырпрайзу". В этом они оказались даже честнее IBM.
| |
7.129, Аноним (129), 00:42, 17/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
san, не sun
парити одним диском - это древнющий raid4 (который разве что лет 30 назад был актуален)
Проблема, обозначенная выше, обусловлена тем, что взята железка, в которую можно воткнуть десяток и более дисков с рейд6, а воткнуто два диска в зеркале. Потому что от железки кусок не отрежешь, а вот дисков можно выбрать - два или двадцать. С очевидным проседанием пропускной способности массива в разы.
Просвещайся, товарищ, и апломбу поумерь (мушку спили).
| |
|
|
5.57, Минона (ok), 12:55, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +2 +/– |
> это ж не ZFSники вывалить не тестированый крап с лопаты.
У ZFS с параллельным чтением с mirror всё отлично.
> RAID6 для ускорения - это конечно тоже забавная идея.
У меня с 8 шпинделей в raidz2 линейное чтение ~ 1 Гбайт/с.
| |
|
6.65, Аноним (-), 13:45, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –6 +/– |
>> это ж не ZFSники вывалить не тестированый крап с лопаты.
> У ZFS с параллельным чтением с mirror всё отлично.
А ваш девиз, видимо, "смотрю в книгу - вижу фигу". Потому что вон та претензия к общему выкатыванию релиза. Какая разница сколько там шпинделей, если релизеры перепутали пафосных админов типа вас с бетатестерами, и вывалили с лопаты рефлинки вообще не тестировав? Не понимаю как от такого факапища релизеров гиг в секунду помогает.
>> RAID6 для ускорения - это конечно тоже забавная идея.
> У меня с 8 шпинделей в raidz2 линейное чтение ~ 1 Гбайт/с.
Да и хрен с ними. Меня проблемы внемайнлайн выкидышей в принципе не интересуют.
| |
|
7.132, Минона (ok), 08:09, 17/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
>>> это ж не ZFSники вывалить не тестированый крап с лопаты.
>> У ZFS с параллельным чтением с mirror всё отлично.
> А ваш девиз, видимо, "смотрю в книгу - вижу фигу". Потому что
Это твой девиз, причём не раз подтверждённый.
> вон та претензия к общему выкатыванию релиза. Какая разница сколько там
> шпинделей, если релизеры перепутали пафосных админов типа вас с бетатестерами, и
> вывалили с лопаты рефлинки вообще не тестировав? Не понимаю как от
> такого факапища релизеров гиг в секунду помогает.
Так я не использую ZFS на линуксе, мне пофигу чего они там релизят.
>>> RAID6 для ускорения - это конечно тоже забавная идея.
>> У меня с 8 шпинделей в raidz2 линейное чтение ~ 1 Гбайт/с.
> Да и хрен с ними. Меня проблемы внемайнлайн выкидышей в принципе не
> интересуют.
У меня ZFS как раз в мейнлайне и все виды рейдов работают отлично.
В отличии от твоего звездолета.
| |
|
|
|
4.40, Роман (??), 11:18, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
постгрес тот же до сих пор процесс на запрос или вот мускуль - там треды, а процесс один..или какой-нибудь qemu может образа вмок под одним пидом туда-сюда читает
| |
|
5.101, _ (??), 18:36, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
Дык о чём и речь! - пЫонеры-дЫзигнеры btrfs вместо дизайна сделали костыль, Ё - какая неожиданность :)
C балансировкой IO по PID - только так, оно же не предсказуемо :(
А по людски делать начали через 10+ лет... ну да ладно - всё равно удачи им, хоть я бтр и не пользую.
| |
|
|
3.85, Анониссимус (?), 16:38, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [↑] [к модератору]
| +/– |
> Btrfs не даёт ускорения. И ещё и не даёт ускорения в рейде
> и этим кто-то в серьез пользовался...
Гонево. В raid0 даёт ускорение почти равное теоретическому.
| |
|
|
5.110, нах. (?), 21:00, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Не, ну а че - если там все равно какой-нибудь докер в докере под докером живет - оно так и так doomed to die.
Вполне возможно, кстати, что это именно то что на самом деле использует мордокнига.
Ей твоих котиков не жалко, а упавшая полка (даже если упадет полка, а не просто compute node, вычисляющая какую еще рекламу тебе забахать в ленту) просто переустанавливается и переформатируется заново за пятнадцать-двадцать минут, подумаешь, фокус.
Я бы, правда, опеннетовским опросам анонимов не особо доверял, и вместо этого - померял бы, если бы мне понадобилась подобная производительность дешево и криво.
| |
5.117, Анониссимус (?), 22:09, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> btrfs + RAID0 ...
> Это же практически /dev/null 8-\
> МьсЁ знает толк!(С)
Вовсе не /dev/null. У друга несколько лет работало, пока хдд не навернулся. Потом стим сам перекачал все дистрибутивы.
| |
|
6.166, нах. (?), 13:35, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Вовсе не /dev/null. У друга несколько лет работало, пока хдд не навернулся.
ну вот, а чем по вашему мордокнига хуже? Кому в общем-то нужны твои котики трехлетней свежести, когда новых полно?
Так далеко ленту и не крутит никто. Мышь раньше развалится.
| |
|
|
|
|
2.14, Аноним (-), 09:23, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +1 +/– |
> А этого не было? Ну хорошо, что теперь будет. Значит, мне не казалось, что
> raid1 не даёт ускорения.
На однозадачной нагрузке - не дает. Ибо привязка к PID. Для разных процессов одновременно - дает. Просто на 1-задачных сценариях PID один и тот же и счастье не наступало.
| |
|
|
|
3.11, нах. (?), 09:18, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +2 +/– |
ты лучше спроси, откуда у них при этом аж более чем двухкратный рост производительности, если суть "дефрагментации" - linear read (допустим, теперь с этим ок) + linear write того что мы только что прочитали. Причем второе в лучшем случае занимает столько же времени, сколько первое, и никак не должно было измениться от того что они _чтение_ пооптимизировали. А "лучший случай" крайне маловероятен в фс где и читать-то параллельно не умеют толком.
| |
|
4.58, Минона (ok), 12:58, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> откуда у них при этом аж более чем двухкратный рост производительности
Тут всё просто -- они сложили скорость чтения и записи 😏
| |
|
3.19, Аноним (-), 09:34, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> П.с. Можно дефрагметировать отдельные директории/файлы.
При желании - можно. Но стоит почитать на тему unsharing экстентов до того как это безбашенно фигачить. Впрочем, никто не мешает дефрагнуть и потом дедубликатор натравить.
| |
|
4.140, chdlb (?), 09:28, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
да я смотрел стату по дедупликации на своих дисках, если ты не срешь копиями типа виртуальных машин при условии что они почти не меняются, то смысла особо нет, много не потеряешь
хранение одинакого контента это скорее случайность, у меня и нескольких процентов не соберется
| |
|
|
2.20, Аноним (-), 09:36, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> Этот ваш новомодный btrfs ещё и дефрагментировать надо? 🤦
Да так то даже для EXT4 дефраг есть. Просто не особо эффективный, я видел EXT4 которым даже и он не помогал особо. На механике у них все свободное место было фрагментировано в гамно и - что хотите то и делайте.
У сабжа дефраг субъективно несколько эффективнее EXT4'го но тоже не предел мечтаний. На SSD нафиг надо, на механике - ну если сильно забить, и это торенты какие - сами понимаете.
| |
|
|
|
5.43, Аноним (47), 11:34, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Но позвольте это же ntfs и 9 лет назад
Какое это имеет значение? ССД с тех пор как-то принципиально изменились? Или может файловые системы с тех пор как-то по особому располагать данные научились (про ZNS И FDP слышал, но они даже в серверном сегменте пока не получили широкого распространения, что уж о бытовых системах говорить)? А у cow-фс (ZFS, BTRFS) так-то дела с фрагментацией обстоят ещё хуже, чем у NTFS...
| |
|
6.49, 1 (??), 12:19, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
> ССД с тех пор как-то принципиально изменились?
Да вообще кардинально изменились ... Если раньше у нас MLC для кеша вылетали раз в 3-4 года, то теперь новомодных TLC хватает максимум на год.
| |
|
7.56, Аноним (47), 12:54, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +3 +/– |
А нечего по китайским помойкам побираться. Нормальные ssd на tlс памяти помногу лет служат. Вот хранить на них что-то при выключенном питании действительно не стоит, этого они не любят.
| |
|
|
|
|
|
|
1.5, DEF (?), 08:45, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [к модератору]
| +/– |
Как только автора BcacheFS выкинули на мороз, а качество его ФС на практике оказалосл далеко от заявленных, так тут-же стали усердно коммитить в Btrfs. Суда по коммитам, скоро RAID5/6 заработает.
| |
|
|
3.16, Аноним (-), 09:29, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Совпадение ли, что тушатся именно наработки из бкэшфс?
> Оливеру хотят показать его место?
Немного конкуренции еще никогда и никому не вредило. Не было бы bcache и кто б знает активизировались ли по части RAID эти. Не было бы btrfs - и жрали б мы ZFS с кривым управлением памятью и каким там еще трахом выраванивания размера девайсов, наслаждаясь отвалами при апгрейде кернелей. Не очень прогрессивно, да?
| |
|
|
5.26, нах. (?), 10:08, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
на фоне этого вот "а мы гланды научились вырезать, через вот это вот место..." - действительно, прекрасен.
Причем научились через 10 лет.
| |
5.69, Аноним (-), 13:50, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –2 +/– |
> ZFS прекрасен, не гони
У нас разные понятия о прекрасном. После btrfs'а - пересесть получится разве что на bcachefs, все остальное будет вызывать ощущение что покушал чего-то не того. За счет непотребного управления местом и дико кривых, костыльных операций менеджмента, с кучей неудобных допущений.
| |
|
6.116, Анониссимус (?), 22:05, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
>> ZFS прекрасен, не гони
> У нас разные понятия о прекрасном. После btrfs'а - пересесть получится разве
> что на bcachefs, все остальное будет вызывать ощущение что покушал чего-то
> не того. За счет непотребного управления местом и дико кривых, костыльных
> операций менеджмента, с кучей неудобных допущений.
Поддержу. Раньше думал, что zfs не хуже, чем btrfs. Но попробовав, понял, насколько там всё плохо.
| |
|
|
4.25, Аноним (47), 10:08, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [↑] [к модератору]
| –1 +/– |
> ZFS с кривым управлением памятью
Так это наоборот - в линуксе кривое управление памятью, а не у ZFS. Поэтому приходится тянуть своё.
> трахом выраванивания размера девайсов
Впервые слышу про необходимость выравнивания девайсов на ZFS. Это на BTRFS вечно надо что-то выравнивать/балансировать/дефрагментировать/проверять/исправлять, а на ZFS просто добавляешь устройство - и оно работает.
> наслаждаясь отвалами при апгрейде кернелей
Какие-то сказки венского леса. Никогда не слышал чтобы у кого-либо отваливались модули ZFS. И почему должны отвалиться именно эти модули, а не какие-то другие? Понаставят себе всяких Kali, а потом у них модули отваливаюся, мамкины хакеры...
| |
|
|
6.32, Аноним (47), 10:27, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –2 +/– |
> Как ты собрался получить ускорение за счет использования рэйдов, если у тебя память - системная?
А ты точно понимаешь для чего придумали рейды? Они для отказоустойчивости, а не для ускорения. Хотя вот в будущей версии ZFS обещают чуть ли не трёхкратное ускорение за счёт DIRECT I/O...
| |
|
7.41, нах. (?), 11:20, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –1 +/– |
>> Как ты собрался получить ускорение за счет использования рэйдов, если у тебя память - системная?
> А ты точно понимаешь для чего придумали рейды? Они для отказоустойчивости, а
пойди расскажи это netapp, hitachi, ib...len..тьфу..этим лучше не надо.
> не для ускорения. Хотя вот в будущей версии ZFS обещают чуть
> ли не трёхкратное ускорение за счёт DIRECT I/O...
ничего что дырект йойо нужно в единичных случаях для которых вообще не очень нужна zfs, и вообще фс? (т.е. это способ что-то сделать в обход нее)
| |
7.63, freebzzZZZzzd (ok), 13:38, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
>А ты точно понимаешь для чего придумали рейды? Они для отказоустойчивости, а не для ускорения
ну вот у меня полно raid0 на nvme расскажи же мне про отказоустойчивость, а не скорость.
| |
|
|
7.87, нах. (?), 16:44, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
>> Как ты собрался получить ускорение за счет использования рэйдов, если у тебя
>> память - системная? Вот идет у тебя linear read какими-то кусками.
>> А на устройстве лежат - блоки. А читать меньше блока ...
> А в чем собссно проблема - interleaved запросы к девайсам раскидывать?! Единственное
Какие еще interleaved? У тебя программа читает линейно. Кусками, чтоб в память влезло. Кусок прожевала, проглотила - пришла за следующим. В случае нормальных а не линуксных поделок - он вот он, уже в памяти лежит, потому что о нем позаботился prefetch. И еще двенадцать следующих. (И да, это так работает, мы это проверяли в свое время.)
А прочитались они все - когда появился запрос на первый - потому что оно почти бесплатно, в отличие от чтения по кусочкам.
| |
|
|
|
6.92, Аноним (47), 17:08, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
> Т.е. если у меня условно есть 2 винча x 2 тераьайта + 1 x 4 терабайта - ну и сколько RAID1 будет? На вон том будет 4 терабайта как делать нефиг. Вот прям из этих трех. Удачи так в вашем офигенном по менеджменту ZFS
Вот жеж сказочник неугомонный... Тебя переклинило на 3-х дисках? Что мешает в дополнение к имеющтимся 3-м дискам докупить ещё один и собрать нормальный raid10? И на кой ляд мне твой мутировавший raid10 (raid 1E), если я на тех же 3-х дисках могу собрать нормальный raidz1 и получить те же самые 4 ТБ?
| |
6.131, Аноним (129), 00:57, 17/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> 2 винча x 2 тераьайта + 1 x 4 терабайта - ну и сколько RAID1 будет?
И в чем проблема? Первые 2 страйпом в одно устройство на 4 тб, который затем в зеркало с натуральным 4 тб. Но эти выкрутасы не от большого ума, а от мало денег. Если денег таки нет, то правильней объеденить 3 по 2 тб в raidz (который по устойчивости эквивалентет франкенштейну свыше), а оставшиеся 2 тб на последнем заныкать под что-то другое. Если денег есть, то брать еще один диск на 4тб и объединять в схему суммирования двух зеркал.
| |
|
|
4.51, 1 (??), 12:21, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> наслаждаясь отвалами при апгрейде кернелей
Красиво тогда получилось - ага :-)
Ещё во фрюхе компиляция (не помню какого) пакета вылетала :-D
| |
|
|
2.8, нах. (?), 09:04, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [↑] [к модератору]
| +/– |
но пока что они за десять лет научились в парал...ой, нет, не научились. Научились в "балансировку" какую-то вместо параллельного чтения raid1.
Ждите, ждите, вам непременно подвезут и raid6. Только данные на нем по прежнему хранить не стоит.
| |
|
|
|
5.75, Аноним (-), 14:10, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
> Я Я Я предложу !!! Купите netapp !!! Ну или плохой путь - дораду.
Спасиб, предложение облобызать корпоративные ботинки - это очень ценно. Но некоторым из нас хочется как раз чтобы все это делать было - не надо, и технологии были - у нас, а не у них.
| |
|
6.99, нах. (?), 18:09, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +2 +/– |
> Спасиб, предложение облобызать корпоративные ботинки - это очень ценно. Но некоторым из
> нас хочется как раз чтобы все это делать было - не надо, и технологии были - у нас, а не у них.
У вас ничего нет. Ты вот тут уже трижды целовал задницу мордокниге (это конечно куда круче чем нетапу-то, причем тот-то хоть за твои деньги - тебя обслуживает, а не тебя же и продаст).
Да и rhbm, оплачивающей твоего клоуна с пальцем, ни на каком языке уже двадцать лет не программирующего.
А сам ты ничегошеньки исправить - не можешь. Вон выкатили на лопате аж почти работающий (неточно) raid1, а ты-то тут причем, у тебя-то что своего есть?
| |
6.108, _ (??), 19:23, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> Спасиб, предложение облобызать корпоративные ботинки - это очень ценно. Но некоторым из нас хочется как раз чтобы все это делать было - не надо, и технологии были - у нас, а не у них.
- Опять весна и я опять хочу в Париж!
-- О! А вы уже бывали в Париже?
- Нет... уже хотела
Не облизывающий - давай линки на твои коммиты, да хоть чего-то что ТЫ САМ СДЕЛАЛ!
Жалостные посты на опеннет - увы не считаются :)
| |
|
7.119, нах. (?), 22:54, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
да ничего оно не сделало, кроме обмена секретным кодом с другим таким же васяном посредством пересылки гитовых блобов голубиной почтой. (нетрудно догадаться о впечатляющем количестве пользователей такого проекта)
Судя по его писанине - там квалификации ровно ноль.
Причем он даже не в курсе инструментов, используемых в kernel dev. Потому что никакого отношения к нему не имеет.
| |
|
|
5.89, нах. (?), 16:45, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> Я Я Я предложу !!! Купите netapp !!! Ну или плохой путь
поставьте zfs. Пусть хоть под линуксом.
Поправил, не благодари.
Да, внезапно, это у нас лучшие из худших. При определенных поправках на ветер пользоваться для хранения ценных данных - можно.
| |
|
6.127, _ (??), 00:30, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Да, внезапно, это у нас лучшие из худших.
thumb_up.jpg
:)
PS: Но всё же аж до Старого Нового Года буду держать дули за опальную bcachefs... а вдруг Санта тоже из наших и закодит?!? ;-)
| |
|
7.135, нах. (?), 09:08, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
А толку? Чтобы получилось что-то чем правда можно пользоваться не на локалхосте - надо подождать еще лет пять (тем более при единственном разработчике, а не команде).
Столько не живут.
А на локалхосте layered storage... ну такое себе. Чиа майнить? Так немодно ж уже...
| |
|
|
|
|
|
|
3.17, Аноним (-), 09:30, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> А что не так с качеством BcacheFS?
Да в принципе то он работает - но багов в нем так то - намного больше. Можешь рассылку почитать, там как раз syzbot сейчас лютует. Его прикрутили недавно - так что Кенту будет чем заняться на скамейке запасных.
| |
|
2.48, Аноним (48), 12:19, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [↑] [к модератору]
| +1 +/– |
>так тут-же стали усердно коммитить в Btrfs
Они бы занялись своей сервисной утилиткой btrfs-progs. А то в критических ситуациях она просто заявлвяет, что на разделе BTRFS не найдена. Сам становился жертвой такой ситуации.
| |
|
3.76, Аноним (-), 14:11, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
>>так тут-же стали усердно коммитить в Btrfs
> Они бы занялись своей сервисной утилиткой btrfs-progs. А то в критических ситуациях
> она просто заявлвяет, что на разделе BTRFS не найдена. Сам становился
> жертвой такой ситуации.
Если у вас супер слетел - используйте запасный супера, какие проблемы?!
| |
3.90, нах. (?), 16:46, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> Они бы занялись своей сервисной утилиткой btrfs-progs. А то в критических ситуациях
> она просто заявлвяет, что на разделе BTRFS не найдена. Сам становился
нет ножек - нет варенья!
| |
|
|
1.10, нах. (?), 09:12, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [к модератору]
| +/– |
И да, это ответ на незаданный вопрос, почему zfs блочная и не надеется на системные кэши - есть тут один любитель верещать.
"ее покровители могут ... расстроиться", если полка ценой как крыло от боинга вдруг начнет читаться со скоростью одного диска.
| |
|
2.18, Аноним (-), 09:32, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
> И да, это ответ на незаданный вопрос, почему zfs блочная и не надеется на
> системные кэши - есть тут один любитель верещать.
> "ее покровители могут ... расстроиться", если полка ценой как крыло от боинга
> вдруг начнет читаться со скоростью одного диска.
Что самое интересное - я не понимаю как из одного всенепременно следует другое. А покровители таки - доиграются. Отсутствие интеграции с майнлайном - весьма годная мина замедленного действия.
| |
|
3.31, Аноним (47), 10:21, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
> Отсутствие интеграции с майнлайном - весьма годная мина замедленного действия
Так от этого наоборот одни только плюсы. Никто над тобой не стоит и не командует как и что тебе надо делать. Сам себе хозяин. И нет страха что какая-нибудь истеричка выгонит тебя только потому, что встала не с той ноги.
| |
|
2.42, crypt (ok), 11:25, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
так как с фряхой у меня не задалось, то лично мне интересно попробовать получить root on btrfs, чтобы можно было делать снапшоты для отката. в таком кастрированном применении эта фс должна же сработать, да?
| |
|
|
|
5.81, Аноним (-), 14:55, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Превращает данные в мусор.
При том в основном у тех кто ее даже на картинке не видел. Такой вот пространственно-временной парадокс опеннета.
Кажется это именно тот случай когда принято говорить "завидуйте уж молча, господа".
| |
|
6.113, crypt (ok), 21:19, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
> При том в основном у тех кто ее даже на картинке не
> видел. Такой вот пространственно-временной парадокс опеннета.
да нет, я и на форумах достаточно насмотрелся на посты-репорты "у меня все пропало!!!". но root на btrfs нормально. пропадет - и ладно, главное, чтобы основные данные не пострадали.
| |
|
|
|
3.79, Аноним (-), 14:18, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> так как с фряхой у меня не задалось, то лично мне интересно
> попробовать получить root on btrfs, чтобы можно было делать снапшоты для
> отката. в таком кастрированном применении эта фс должна же сработать, да?
Работает себе. Чего б ей не. На минималках - при использовании штук типа GRUB - этим можно даже загрузиться в вооон тот снапшот. Откатив факап по сути одним бутлоадером аж.
ZFS он тоже в принципе читать умеет, но во первых хз как там с снапшотами, а во вторых если zfs'а вообще не цепляет энный кернел из-за нестыковок по версиям VS ядро - это все же довольно несподручно.
| |
|
4.111, crypt (ok), 21:10, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –1 +/– |
не, ZFS на root нельзя, т.к. модули собираются DKMS, а для этого должно быть уже чтение fs. а что даже из бутлодера можно, я не подумал.
да, минимальный варинт лучше всего. совершенно нет смысла использовать btrfs со всякими subvolums или как это называется. /var/log вынести на отдельный раздел, а с /tmp просто на отдельный раздел неэффективно, т.к. может занимать и ноль и гигабайты. видимо, симлинками после загрузки нужно что-то сделать.
| |
|
5.120, нах. (?), 22:56, 16/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
zfs root в линуксе прекрасно возможен и работает. И нет, модули совершенно необязательно собирать именно dkms. Их вообще собирать необязательно.
| |
|
6.121, нах. (?), 23:01, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
(и перечитав последнюю прекрасную неновость - добавляю - и она автоматически загрузится без ручного вмешательства даже если в raid1 сдохнет один из дисков, без всяких вытанцовываний с ручным оверрайдом груба)
| |
6.123, crypt (ok), 23:26, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
> zfs root в линуксе прекрасно возможен и работает. И нет, модули совершенно
> необязательно собирать именно dkms. Их вообще собирать необязательно.
драйвера-то в ядре нет. о чем ты пишешь-то.
| |
|
|
6.161, Аноним (47), 12:32, 17/12/2024 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +2 +/– |
> А "откат снапшота" совсем мануально - это грубо говоря:
> mv @system @system-old
> mv @system-2024-12 @system
> reboot
Ну и архаика, кошмар... В ZFS это делается одной командой: zfs rollback @system-2024-12. Как говорится, почувствуйте разницу.
| |
|
7.163, нах. (?), 12:59, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Ну и архаика, кошмар... В ZFS это делается одной командой: zfs rollback
ну только ты забыл его предупредить, что в этом случае все его собственные изменения тоже превратились в тыкву. В предложенном траходроме с mv их можно потом посмотреть и вытащить поштучно.
Не то чтоб каждый день было надо (чаще полезней откатить вместе с самой системой) и не то чтоб нельзя было в zfs, но команд будет больше одной, потому что там снапшот не fs (и это очень правильно, потому что срез состояния отдельно, фс - отдельно, и ничего нельзя случайно перепутать и испортить необратимо. У бырбрфесе просто нет настоящих снапшотов - это на самом деле не снапшоты а новая фс, точная копия старой).
| |
|
|
|
4.124, crypt (ok), 23:28, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> На минималках - при использовании штук типа GRUB - этим можно даже загрузиться в вооон тот снапшот.
Да, нашел проект grub-btrfs. Отвык уже от этого ручного колхоза после фряхи:( Но да, работает.
Не понятна роль subvolume set-default, если grub все равно оперирует block id диска, а не block id томов btrfs.
| |
|
5.130, crypt (ok), 00:43, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
c /tmp только что-то надо изобретать. после снапшотинга на /tmp слетают права, если это отдельный subvolume.
так что, как я и написал выше, проще сделать симлинк /tmp на обычную fs и использовать btrfs только в самой упрощенной конфигурации.
| |
|
|
|
|
|
|
|
|
5.83, 1 (??), 15:12, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
А разве RAIDIX не развалился на две половинки ?
Они поддержку в скрепной стране ещё осуществляют ?
| |
|
4.77, Аноним (28), 14:13, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Вы, должно быть, не в теме заключая слово "костыль" в кавычки в обсуждении btrfs. Ознакомьтесь, пожалуйста, с документацией к продукту.
| |
|
|
|
|
2.80, Аноним (-), 14:53, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
> Оно ещё живо что ли, это бтрфс? Его же вроде закопали уже все.
Она четверть глобуса у мордокниги обслуживает. Чтоб меня так "закопали" по королевски!
| |
|
3.98, нах. (?), 18:05, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
>> Оно ещё живо что ли, это бтрфс? Его же вроде закопали уже все.
> Она четверть глобуса у мордокниги обслуживает. Чтоб меня так "закопали" по королевски!
Мордокниге пофиг на твои данные. А у гугля вон до аж 2011го года весь глобус обслуживала ext2. (и ему не пофиг на ТВОИ данные) И заменена была на такую странную ext4, что тоже, хм...
Так что срочно ставь ext2, гугль круче мордокниги (и он действительно круче, потому что кое-что сам делал в области систем хранения)
| |
|
4.122, нах. (?), 23:09, 16/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Мне что-то подсказывает (с учетом обоих двух опенсорсеных мордокнигой прожектов, ни один из которых даже не компилируется) - она нихрена не знает, а просто надувает щеки. Так инвесторы несут больше денег.
Mon, 23 Jan 2017 18:18:09 -0500
We've been focusing on the single-drive use cases internally. This year that's changing as we ramp up more users in different places. Performance/stability work and raid5/6 are the top of my list right now.
В с-ка блжд - 2017м году оно у него было "top of list", результата - ноль.
Вот такой вот офигенный уровень у "создателя" (не совсем, но причастного к) этого недоразумения.
Неисключено даже, что его поделку давно вынесли с основных серверов, но опять же инвесторам эта информация не очень полезна, а глупые фанаты продолжают транслировать лапшу со своих ушей.
В принципе, то что я знаю о внутренней кухне мордокниги - говорит о том что хорошие разработчики в эту помойку не пойдут никогда в жизни. Они паталогически, феноменально жадны, и условия работы там по современным меркам совершенно неконкурентные. Так что ничего удивительного.
| |
|
|
|
1.29, Аноним (47), 10:14, 16/12/2024 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [к модератору]
| +1 +/– |
Так погодите... Это что же получается, у BTRFS не только RAID5/RAID6 нерабочие, но и RAID1? А что ещё в ней работает неправильно? Огласите весь список, пожалуйста!
| |
|
2.91, нах. (?), 16:48, 16/12/2024 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> Так погодите... Это что же получается, у BTRFS не только RAID5/RAID6 нерабочие,
> но и RAID1? А что ещё в ней работает неправильно? Огласите
> весь список, пожалуйста!
бжад, давайте хотя бы список что точно работает (мне что-то подсказывает, что он будет короче)
| |
|
|
2.168, Аноним (28), 20:22, 17/12/2024 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
по непонятной причине хитрецы со времён начала продвижения zfs на рынок называют программную схд с raid, lvm, iscsi, nfs, cifs — фс. Будто это должно принести больше денег.
| |
|
|