<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Раздел полезных советов: Объединение томов через aufs для от...</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html</link>
    <description>Объединение томов с разных физических устройств с распределением файлов/слепков файлов на предмет отказоустойчивости и моментального восстановления в случае нечисти по типу &quot;шифровальщиков&quot;. Объединённый ресурс отдаётся через Samba и NFS.&lt;br&gt;&lt;br&gt;Нужно было быстро решить проблему с восстановлением после попадания пользователей под &quot;шифровальщиков&quot;. Тем не менее, решение уже показало себя весьма эффективным и буквально спасло. Дополнительно продумывались меры по повышению надёжности, так как если не по-&lt;br&gt;бедности, то по понятным соображениям, организовать правильно&lt;br&gt;организованный бэкап сложно: инкрементальный бэкап периодически (сильно реже разумного) сливается на отдельный, не включенный постоянно, диск и (ещё реже), делается копия на блюрэй.&lt;br&gt;&lt;br&gt;Общая идея: архив разбивается на две (или больше) частей. 1-ая всегда&lt;br&gt;монтируется r/o и содержит холодные и редко изменяемые данные. Эта часть лежит на одной группе томов (рейд сконфигурирован так, что несколько групп томов лежат на своих физических дисках) и с неё доста</description>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (Всем Анонимам Аноним)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#40</link>
    <pubDate>Sat, 26 Oct 2019 10:25:42 GMT</pubDate>
    <description>&amp;gt; это только кажется. всего 4 строки в .mount юнитах, плюс несколько простых скриптов на таймере.&lt;br&gt;&lt;br&gt;а если не успеете поймать момент, когда нужно выключить скрипты и они затрут r/o копию? В zfs можно хранить данные в сколько угодно snapshot-ов, только бы места хватало. с компрессией как раз место появляется&lt;br&gt;&lt;br&gt;&amp;gt; zfs не рассматривалась из-за ограниченности по оперативной памяти&lt;br&gt;&lt;br&gt;я не знаю что там у вас установлено, чтобы была проблема памяти в наше время, когда на серверах стоит 128-256 Г памяти обычно. но безопасность явно стоит того, чтобы потратить денег. если у Вас нет достаточно памяти, то значит её не так много и новая будет стоить копейки. &lt;br&gt;&lt;br&gt;&amp;gt; обратите внимание, мой вариант позволяет держать непрерывную *историю*. В некоторых ситуациях, это важно.&lt;br&gt;&lt;br&gt;удобно, если файлы - это исходный программный код наверное? для word файлов не так актуально.&lt;br&gt;&lt;br&gt;конечно, интересный подход у Вас получился, но немного замороченный. есть ручная работа с Вашей стороны в немалом объеме. плюс возможные проблемы с git если к</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (Аноним)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#39</link>
    <pubDate>Mon, 03 Jun 2019 06:00:29 GMT</pubDate>
    <description>Ой расскажи что в бсд 40 лет назад?&lt;br&gt;</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (Аноним)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#38</link>
    <pubDate>Mon, 03 Jun 2019 05:52:31 GMT</pubDate>
    <description>Они нигде не закончились. Новости читай почаще.&lt;br&gt;</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (пох)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#37</link>
    <pubDate>Mon, 13 May 2019 13:54:50 GMT</pubDate>
    <description>не путает. два разных драйвера понадобились именно потому, что overlayfs в ядрах до 4.0 и в 4+ - две изрядно разные overlayfs (stable api is nonsense), а в kernel panic- то у нас падал вовсе не докер.&lt;br&gt;&lt;br&gt;Случилось это где-то во времена убунточки 16, к этому времени btrfs&apos;ом для write-only данных уже вполне можно было пользоваться, поэтому лично я не стал разбираться, стало ли в новой версии лучше. Слухи ходили, что окончательного счастья так и не наступило.&lt;br&gt;&lt;br&gt;А вот до того, во времена еще aufs - это было даже не смешно. То есть оно грохалось просто на регулярной основе - поэтому удивляет, почему у анонима его этажерка вообще еще не рухнула. (что в самой aufs что-то исправили, это вряд ли. Те аспиранты, что ее писали, давно уже моргидж выплатили и из профессоров поувольнялись.)&lt;br&gt;&lt;br&gt;</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (glebiao)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#36</link>
    <pubDate>Mon, 22 Apr 2019 10:18:16 GMT</pubDate>
    <description>&amp;gt; вы лучше расскажите, сколько нужно &quot;ресурсов&quot;, чтобы хотя бы угадать, какое именно &lt;br&gt;&amp;gt; изменение вам нужно в этой громадной мусорке.&lt;br&gt;&lt;br&gt;про количество снимков уже извинился, недосып.&lt;br&gt;&lt;br&gt;Про мусорку: людям, иногда, нужно достать файл по состоянию на месяц позапрошлого года.&lt;br&gt;&lt;br&gt;&amp;gt; А ресурсов надо, внезапно, ровно на количество уникальных байтиков во всей этой &lt;br&gt;&amp;gt; свалке, никакого волшебства ваш гит не умеет.&lt;br&gt;&lt;br&gt;Разумеется. И разумеется, не умеет. Но умеет некоторое сжатие (хотя и считается, что с двоичными объектами работает неэффективно) и умеет удобно работать с историей.&lt;br&gt;&lt;br&gt;Замена гита на снапшоты, да ради бога. Но тогда исчезает возможность разместить хранилище на _другом_ устройстве и &quot;бесплатно&quot;, в довесок к истории, получить дополнительную надёжность.&lt;br&gt;&lt;br&gt;&amp;gt; 8 рабочих часов со снапшотами через 30 минут - это 16 снапшотов, &lt;br&gt;&amp;gt; у вас с математикой, похоже, тоже беда.&lt;br&gt;&lt;br&gt;о да. очень хочется спать :)&lt;br&gt;</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (glebiao)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#35</link>
    <pubDate>Mon, 22 Apr 2019 10:12:20 GMT</pubDate>
    <description>&amp;gt;&amp;gt; раз в 30 минут, не надо утрировать.&lt;br&gt;&amp;gt;раз в 30 минут это не 360 в сутки, а всего 48. &lt;br&gt;&lt;br&gt;Да, извиняюсь. С недосыпу написал чушь.&lt;br&gt;&lt;br&gt;&amp;gt;The requested URL /articles/f/a/q/FAQ_1fe9.html was not found on this server.&lt;br&gt;&lt;br&gt;статья моментально гуглится.&lt;br&gt;&lt;br&gt;&amp;gt;для btrfs сабвольюм это просто каталог, очередной, с некоторыми дополнительными атрибутами, &amp;gt;а его содержимое - просто рефлинки, которых может быть абсолютно любое количество. &lt;br&gt;&lt;br&gt;Не уверен. Насколько я понял эту механику, подтом, это отдельное дерево, плюс кросс-линки. И если переборщить, вся механика упрётся рогом задолго до того, как некуда будет писать метаданные, просто по скорости обхода.&lt;br&gt;&lt;br&gt;&amp;gt;&amp;gt; Я на это наступил. Возможно, просто &quot;повезло&quot;.&lt;br&gt;&amp;gt;возможно не просто, а что-то было снова сделано странно.&lt;br&gt;&lt;br&gt;Нет. На btrfs был корень ноутбучной системы, без всяких изысков.&lt;br&gt;Единственным изыском, можно считать, разве что compress=lzo,autodefrag,commit=120. Но без последних двух, работать с btrfs вообще нереально :)&lt;br&gt;Диск hdd. От тряски слегка  нарушился контакт sata. Про</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (пох)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#34</link>
    <pubDate>Mon, 22 Apr 2019 07:59:38 GMT</pubDate>
    <description>&amp;gt; да. сколько нужно дисковых ресурсов, чтобы в течении разумного времени держать 8 &lt;br&gt;&amp;gt; - 12(раб. часов)*30(минут) = 240 - 360 копий в сутки? Сколько &lt;br&gt;&amp;gt; нужно ресурсов, чтобы держать эти копии в течении месяцев/лет (история изменений &lt;br&gt;&amp;gt; файлов)?&lt;br&gt;&lt;br&gt;вы лучше расскажите, сколько нужно &quot;ресурсов&quot;, чтобы хотя бы угадать, какое именно изменение вам нужно в этой громадной мусорке.&lt;br&gt;&lt;br&gt;А ресурсов надо, внезапно, ровно на количество уникальных байтиков во всей этой свалке, никакого волшебства ваш гит не умеет.&lt;br&gt;&lt;br&gt;8 рабочих часов со снапшотами через 30 минут - это 16 снапшотов, у вас с математикой, похоже, тоже беда.&lt;br&gt;&lt;br&gt;</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (пох)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#33</link>
    <pubDate>Mon, 22 Apr 2019 07:53:04 GMT</pubDate>
    <description>&amp;gt; раз в 30 минут, не надо утрировать. &lt;br&gt;&lt;br&gt;раз в 30 минут это не 360 в сутки, а всего 48. &lt;br&gt;Да, любая fs и даже lvm выдержат 48 штук (если, конечно, вы потрудитесь снести уже ненужные вчерашние.&lt;br&gt;&lt;br&gt;&amp;gt; https://btrfs.wiki.kernel.org/articles/f/a/q/FAQ_1fe9.html&lt;br&gt;&lt;br&gt;The requested URL /articles/f/a/q/FAQ_1fe9.html was not found on this server.&lt;br&gt;&lt;br&gt;ubuntu-server:/srv&amp;gt; btrfs fi df .&lt;br&gt;Data, single: total=214.01GiB, used=213.67GiB&lt;br&gt;System, DUP: total=8.00MiB, used=48.00KiB&lt;br&gt;Metadata, DUP: total=3.00GiB, used=2.10GiB&lt;br&gt;GlobalReserve, single: total=414.80MiB, used=0.00B&lt;br&gt;&lt;br&gt;а сколько тут снапшотов - я хз, поскольку не вижу смысла их считать - делается новый бэкап - новый снапшот. Насколько я понимаю, для btrfs сабвольюм это просто каталог, очередной, с некоторыми дополнительными атрибутами, а его содержимое - просто рефлинки, которых может быть абсолютно любое количество. &lt;br&gt;Оно, наверное, когда-нибудь лопнет (и будет прибито и пересоздано), но не от количества снапшотов точно.&lt;br&gt;&lt;br&gt;&amp;gt; Я на это наступил. Возможно, просто &quot;повезло&quot;</description>
</item>

<item>
    <title>Объединение томов через aufs для отказоустойчивости и момент... (glebiao)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID3/117006.html#32</link>
    <pubDate>Mon, 22 Apr 2019 05:04:31 GMT</pubDate>
    <description>&amp;gt;Зачем нужны снапшоты раз в четыре минуты, &lt;br&gt;&lt;br&gt;раз в 30 минут, не надо утрировать. &lt;br&gt;&lt;br&gt;потому. что работает много людей. 30 минут оказалось комфортным минимумом, если вдруг &quot;ж стрясается&quot;.&lt;br&gt;&lt;br&gt;&amp;gt;как вообще потом найти среди них нужный даже если нужны,&lt;br&gt;&lt;br&gt;поэтому и была попытка хранить историю в гите.&lt;br&gt;&lt;br&gt;&amp;gt;Но если у вас от этого переполняется какая-то там &quot;область метаданных&quot; (нет у btrfs такой &amp;gt;выделенной области, метаданные там размазаны по диску ровным слоем, root tree на то и tree) &amp;gt;- вы, вероятнее всего, бредите.&lt;br&gt;&lt;br&gt;https://btrfs.wiki.kernel.org/articles/f/a/q/FAQ_1fe9.html&lt;br&gt;&lt;br&gt;btrfs fi df .&lt;br&gt;Data, single: total=77.01GiB, used=43.83GiB&lt;br&gt;System, DUP: total=8.00MiB, used=16.00KiB&lt;br&gt;Metadata, DUP: total=3.00GiB, used=384.92MiB&lt;br&gt;GlobalReserve, single: total=96.56MiB, used=0.00B&lt;br&gt;&lt;br&gt;а это на томе с 4 снэпшотами .qcow2:&lt;br&gt;&lt;br&gt;&quot;свободного места&quot; 79G из 200G,&lt;br&gt;Data, single: total=125.01GiB, used=120.66GiB&lt;br&gt;System, DUP: total=8.00MiB, used=16.00KiB&lt;br&gt;Metadata, DUP: total=1.00GiB, used=957.70MiB&lt;br&gt;GlobalReserve, single: total=14</description>
</item>

</channel>
</rss>
