The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Компания Canonical опубликовала MicroCloud 3, инструментарий для развёртывания кластеров"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Компания Canonical опубликовала MicroCloud 3, инструментарий для развёртывания кластеров"  +/
Сообщение от opennews (??), 22-Мрт-26, 16:41 
Компания Canonical опубликовала  инструментарий управления облачной инфраструктурой MicroCloud 3.1 (первый выпуск ветки 3.x), позволяющий быстро развёртывать на своём оборудовании облачные системы и вычислительные кластеры с общим распределённым хранилищем  данных и защищённой виртуальной сетью. MicroCloud оформлен в виде snap-пакета, включающего компоненты, необходимые для управление работой узлов кластера. Инструментарий написан на языке Go и распространяется под лицензией AGPL 3.0...

Подробнее: https://www.opennet.dev/opennews/art.shtml?num=65048

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по ответам | RSS]

1. Сообщение от Игорьemail (??), 22-Мрт-26, 16:41   +8 +/
Если это такое-же поделие как Canonical OpenStack, то спасибо, не надо, это боль и унижение. В особенности когда менеджерьё начиталось рекламных проспектов и считает, что это подымается с пол-пинка, как показанно в той самой рекламе.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #3, #6

3. Сообщение от Tron is Whistling (?), 22-Мрт-26, 17:11   +4 +/
Оно подымается-то может и с полпинка, но вот когда оно с такого же полпинка упадёт - придётся заново поднимать. Либо с нуля и полпинка, либо если хочешь данные вернуть...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #1 Ответы: #11

6. Сообщение от Аноним (6), 22-Мрт-26, 18:33   +1 +/
Не осилить опенстак по доке это, конечно, уровень опеннета. Что дальше? От кубера шарахаться будете?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #1 Ответы: #21

8. Сообщение от Аноним (6), 22-Мрт-26, 18:41   –4 +/
Они меня потеряли на Ceph. После трёх лет "владения" 1.5PB пользовательских данных в Ceph хочется про него поскорее забыть. Сейчас на моём отделе на порядок больше данных в хадупе, от которого на три порядка меньше проблем в эксплуатации.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #22, #31

9. Сообщение от Аноним (11), 22-Мрт-26, 18:54   –2 +/
Зачем это когда уже есть кубернетес?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #12

11. Сообщение от Аноним (11), 22-Мрт-26, 18:56   +1 +/
Оно же отказоустойчивое. Его захочешь уронить, оно не упадёт.  
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3 Ответы: #36

12. Сообщение от Диды (ok), 22-Мрт-26, 19:27   +/
Очень хотелось snap вкрячить
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #9 Ответы: #20

13. Сообщение от Аноним (13), 22-Мрт-26, 19:33   +/
Может не в тему, но можно же снап пересобрать в деб?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #25, #29

15. Сообщение от Аноним (15), 22-Мрт-26, 20:13   +/
это они из lxd такое сделали? там такой же интерфейс
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #16

16. Сообщение от Nellex (?), 22-Мрт-26, 20:34   +/
На скрине и есть веб морда от lxd. Насколько я понимаю микроклауд - они просто написали хелпер на golange для развертывания поверх существующего api lxd. Хотя сам lxd отлично работает в своём кластере. Имеет смысл переходить на incus, правда там веб морды готовой нет, но можно заюзать от каноникал.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #27, #48

20. Сообщение от Pastemail (?), 22-Мрт-26, 22:12   +/
У них есть для этого microk8s
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #12

21. Сообщение от Игорьemail (??), 22-Мрт-26, 23:13   +6 +/
Пожалуйста почитайте их доку и попробуйте применить в небольшой лабе(в чем искренне желаю Вам успехов). Я с удовольствием Вас выслушаю после этого. Я хорошо знаю OpenStack, да и установить его при помощи колы или вручную(из пакетов или из питоновских исходников)вообще не проблема. Но вероятность что-то поставить по их документации, описании методов отладки и ответах от службы поддержки, она конечно ненулевая, но... Возможно Ансибл, Паппет, etc мне несколько ближе, чем Жужа, белой масти. А поскольку система установки до боли похожа на ту, которую я, и команда в которой я имел счастье прибывать, крутили в руках, я никому не желаю подобных неприятностей.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #6 Ответы: #24

22. Сообщение от Аноним (22), 23-Мрт-26, 00:51   +/
какие проблемы в Ceph ?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #8 Ответы: #26, #38

23. Сообщение от Аноним (23), 23-Мрт-26, 01:42   +2 +/
> используется mDNS

Обожаю, когда сеть приходится строить в виде бродкаст-помойки.

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #33

24. Сообщение от Аноним (6), 23-Мрт-26, 01:52   +/
У меня прод на нём на пару сотен серверов. Скажи что у тебя не получается, может помогу.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #21 Ответы: #32

25. Сообщение от Аноним (25), 23-Мрт-26, 02:17   –1 +/
внутри которого снап, да, можно
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #13

26. Сообщение от Аноним (26), 23-Мрт-26, 02:33   +3 +/
Я рад что ты спросил! OSD жрут CPU и RAM, менеджмент PG при меняющейся нагрузке (слишком мало -- неравномерная утилизация дисков, слишком много -- резко растут требования по CPU/RAM. Ребаланс при использовании больших дисков (10+TB) может занимать от нескольких часов до нескольких дней, и все это время кластер будет тормозить. Очень требователен к пропускной способности и задержкам в сети. Без отдельной физической сети (желательно 25Gbps на порт и выше) для кластерных операций Ceph малопригоден, это существенно повышает стоимость владения. Большое количество компонентов требующих мониторинга. Восстановление после потери кворума как отдельный вид головной боли. В итоге, это всё суммируется в большую нагрузку на админов для поддержания его в рабочем состоянии. Хадуп/хдфс менее трудозатратны в эксплуатации и для нашего юзкейса пригодны даже "в сыром виде".
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #22 Ответы: #28, #47

27. Сообщение от Аноним (26), 23-Мрт-26, 02:37   +/
Веб-морда для incus пишется llm'ом за час, если тебе не для продажи, а для внутреннего использования (т.е. дефолтные кнопки из bootstrap и каждый у кого есть доступ админ).
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16

28. Сообщение от онанист (?), 23-Мрт-26, 07:19   +1 +/
при использовании больших дисков (10+TB)

так вроде для ceph реально годятся только ssd

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #26 Ответы: #30

29. Сообщение от iPony128052 (?), 23-Мрт-26, 07:20   +/
Да, всё возможно.
Автоматом по волшебной палочке - нет.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #13

30. Сообщение от CephAdmin (?), 23-Мрт-26, 07:28   +3 +/
Чел развернул Ceph на тормозных HDD и на медленной сети а потом Ceph "плохой" ...

НЕТ СОВРЕМЕННОГО железа НЕ трогайте Ceph !!!

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #28 Ответы: #35, #37

31. Сообщение от Аноним (31), 23-Мрт-26, 08:28   +/
>1.5PB пользовательских данных
>на моём отделе на порядок больше

Даже представить себе не могу, чем может заниматься отдел, чтобы сгенерить *такой* объем данных. Цифровая видео студия?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #8

32. Сообщение от Фонтимос (?), 23-Мрт-26, 08:52   +1 +/
> создавать кластеры, насчитывающие от 3 до 50 узлов

Анон утверждает, что запустил пару сотен хостов.
Кто-то (либо уважаемый анон, либо убунта, возможно переводчик) лгут.
Специально сходил на сайт сабжа, там тоже написано "...scale from a single node to larger 50-node...". В данном случае склонен поверить убунте и реабилитровать переводчика.
Т.е. получается что лжет уважаемый анон.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #24 Ответы: #34, #39

33. Сообщение от Соль земли2 (?), 23-Мрт-26, 10:05   +/
Ну строй тогда в виде Open vSwitch помойки.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #23

34. Сообщение от Аноним (34), 23-Мрт-26, 10:38   +/
если 4 кластера по 50, то в чем проблема?
или разоблачитель продом не баловался?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #32

35. Сообщение от Аноним (34), 23-Мрт-26, 10:42   +2 +/
а зачем нам такие неотпимизированные сервисы?
почему альтернативы работают хорошо, только ентот сеф лапки кверху?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #30 Ответы: #42, #46

36. Сообщение от Tron is Whistling (?), 23-Мрт-26, 10:55   +2 +/
Первой упадёт как раз "отказоустойчивость".
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #11

37. Сообщение от tonysemail (??), 23-Мрт-26, 10:55   –3 +/
Не так. Если у вас нет лохло-клиентов, которые готовы оплатить внедрение у вас ceph и его обслуживание, то не беритесь.
А потом бизнес будет говорить как его душат налогами...
И вы еще называете себя инженерами?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #30

38. Сообщение от Tron is Whistling (?), 23-Мрт-26, 10:56   –1 +/
Залипающие PG например.
Нет, оно работает, пока ты его не трогаешь - но как только начинаешь делать тесты стрессоустойчивости и отказоустойчивости - всё, трындец. Потеря данных.
Поэтому по факту живёт только у крупняка, у которого достаточно штата если что в кишках ковыряться.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #22 Ответы: #43

39. Сообщение от Аноним (39), 23-Мрт-26, 11:05   +/
Ты, видимо, слепой. Ибо уаажаемый анон говорил про OpenStack.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #32

42. Сообщение от CephAdmin (?), 23-Мрт-26, 16:13   +2 +/
Лично вам Ceph 100% не нужен, главная ошибка это принцип "на попробовать" !

Перед внедрением нужно задать себе вопрос, "замен нам Ceph, какую задачу с его помощью решим ?" а не просто а взял и развернул так как время было и какое то железо старое валялось без дела ...  

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #35

43. Сообщение от CephAdmin (?), 23-Мрт-26, 16:17   +1 +/
Команда Чип И Дейла (слабоумие и отвага)???  Разламывать кластер в продуктовом контуре с реальными данными ...

P.S. Правильно собранный кластер оч тяжело разрушить (большинству вообще не понять о чём речь)  

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #38 Ответы: #54, #57

44. Сообщение от Аноним (44), 23-Мрт-26, 20:29   +2 +/
"В Москве наблюдаются проблемы в работе общественных туалетов — из-за блокировок интернета в них не проходит оплата, сообщает издание «Подъем».

В компании «ОРК», обслуживающей туалеты, рассказали, что с перебоями сталкиваются лишь «некоторое количество моделей, которые находятся ближе к центру».

Однако в момент полной блокировки не поможет даже оплата наличными. «Иногда бывает такое, что настолько глушат, что объект не может провести никакую оплату. У нас же связь с серверами тоже через интернет», — рассказал представитель организации.

По его словам, сейчас обслуживающая компания договаривается, чтобы «занестись» в «белые списки» — список ресурсов, доступных при отключениях мобильного интернета."

И никакой линукс помочь не в состоянии. Идёшь под себя в любом случае. Что толку от кластеров, если они не занесены в белые списки.

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #45, #53

45. Сообщение от CephAdmin (?), 23-Мрт-26, 20:43   +1 +/
в ЦОДы нужно всех отправлять )))
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #44

46. Сообщение от онанист (?), 23-Мрт-26, 21:59   +/
какие альтернативы?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #35 Ответы: #49

47. Сообщение от Заноним (?), 24-Мрт-26, 03:35   +/
Хадуп/хдфс - хорошо? из какого кайнозоя ты вылез?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #26

48. Сообщение от Анонимemail (48), 24-Мрт-26, 05:27   +/
У инкуса вебморда есть и даже по умолчанию включена
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16

49. Сообщение от Аноним (49), 24-Мрт-26, 12:00   +/
Weka fs
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #46

53. Сообщение от Всем Анонимам Аноним (?), 25-Мрт-26, 11:02   +/
> договаривается, чтобы «занестись» в «белые списки»

прикинь какая для кого-то тема чтобы бабки заработать

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #44

54. Сообщение от Tron is Whistling (?), 25-Мрт-26, 15:09   –1 +/
Зачем же в продакшн то. Обычный только что собранный кластер на 5 локаций и 15 нод.

Обычными внезапными "сбоями питания" разваливается на раз-два, причём любой версии.

А при сбое чуть больше, чем положено, PG уходят в неконзистентное состояние, и всё - привет - назад уже не вывести никак вообще.

Если проще - оно одноразовое. Как только один раз полностью развалилось - всё, доставай бэкапы. Некоторым такая модель пойдёт, где сплошные терраформы и васяны от докеров, то есть докеры от васянов, а из пользовательских данных - только ассеты для веб-три-в-ряд. Но это как сказать, не продакшн.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #43 Ответы: #55

55. Сообщение от МимоПроходил (?), 26-Мрт-26, 05:05   +/
Не позорились бы лучше, взяли и написали что при отсутствии питания в одном "ЦОД" умирает кластер ))

Уровень познания в Ceph даже комментировать не хочется ...  

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #54 Ответы: #56

56. Сообщение от Tron is Whistling (?), 26-Мрт-26, 09:46   –1 +/
Тебе весь сетап рисовать?
15 OSD, 3 MDS, 3 монитора

В итоге краш-тестов несколько PG ушли в degraded+undersized, из которого не вышли.
Это потеря данных. После нескольких заходов с попытками вытащить - выкинуто.


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #55 Ответы: #59

57. Сообщение от Tron is Whistling (?), 26-Мрт-26, 09:54   –1 +/
Ну и вот да, OVH расскажите про "сложно разрушить" - при пожаре в ЦОД порушилось на ура, даже при том, что достаточная часть OSD выжила, все VPS'ки пришлось из бэкапов разворачивать - отдельных платных - у кого были. Всем остальным аллес.

Просто работает пока не упадёт. Когда упало - рулетка.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #43 Ответы: #58

58. Сообщение от МимоПроходил (?), 26-Мрт-26, 10:03   +/
За гуглить за вас что такое федеративный кластер ?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #57 Ответы: #60

59. Сообщение от МимоПроходил (?), 26-Мрт-26, 10:05   +1 +/
CRUSH MAP можно было бы выложить ...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #56

60. Сообщение от Tron is Whistling (?), 27-Мрт-26, 08:40   +/
За OVH загуглите, они наверное не знали.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #58


Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2026 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру