Aptly — создание собственного репозитория

в 8:38, , рубрики: linux, Убунтариум, метки:

Моя организация пишет софт под Linux.
Софт предназначен для работы на торговых точках, которые распределены географически.
Изначально ПО предоставлялось клиентам как набор deb пакетов под разные дистрибутивы и архитектуры со списком пакетов, которые нужно установить как зависимости до инсталляции этих deb файлов.
Хочу рассказать, каким был путь эволюции от распространения файлов через ftp до создания репозитория и запуска системы управления конфигурациями и начала внедрения в работу сервера непрерывной интеграции.

Зарождение жизни

Итак, софт — коммерческая разработка, которая пишется на Qt, все собирается под две архитектуры (i386 и amd64) и под несколько дистрибутивов. На текущий момент определились так: два-три последних релиза Debian и два последних LTS от Ubuntu. Плюс ко всему имеется несколько версий (на текущий момент три), которые используются у клиентов.
Три версии получились таким образом: при покупке софта клиенту предлагается поддержка и за достаточно разумные деньги предоставление новых версий софта. Изменение минорных версий предоставляется бесплатно вне зависимости от наличия поддержки. Мажорных — или при наличии поддержки, или продается заново только уже с дисконтом.

Пока версий было мало, и количество инсталляций у клиентов было невелико, вполне можно было обходится ftp. Выглядело это так: после сборки всех исходников в deb пакеты набор файлов для каждого клиента (в зависимости от версии) тарился в архив и выкладывался для каждого клиента на ftp в его собственный раздел. Со временем на ftp накапливалась масса одинаковых tar-ов у разных клиентов, которые приходилось время от времени удалять.
Шло время, клиенты добавлялись, сети клиентов росли в размерах, и обновлять версию софта на точках стало еще той задачей, особенно если учесть, что на 99% точек интернет был (да и остался) GPRS.

Кстати, о сборе пакетов. Скипты, которые собирали deb пакеты, изначально были написаны “300 лет тому назад” по какому-то мануалу на английком языке и IMHO не совсем правильно. Причесать и умыть скрипты помогли следующие статьи (за что их авторам хочу сказать спасибо):

Начало эволюции

Само собой был поднят вопрос о распространении собранных пакетов как-то более правильным способом. “И тут Остапа понесло” (с), решил все сделать правильно, так чтобы на рутинные операции тратилось минимум времени.

В качестве софта, который поддерживал репозиторий был выбран reprepro. На тот момент возможностей, которые он предоставлял, вполне хватало.

Далее, основываясь на опыте обновления, конфигурирования большого числа компьютеров, захотелось иметь инструмент по управлению конфигурациями. В помощь был призван гугл и хабр. Знакомился с ansible, chef, puppet и другими системами, названия которых уже не вспомню. По понятности конфигов, документированности, порогу вхождения и совокупности других параметров на вооружение был взят puppet. К puppet был прикручен foreman. И счастье наступило.

Прошло не очень много времени и захотелось в качестве управления репозиторием что-нибудь более другое. Reprepro всем устраивал, кроме возможности хранить в одном репозитории разные версии одного и того же пакета: чтобы была возможность быстро откатится на определенную версию в случае какой-то регрессии или, чтобы быстро поставить нужную версию и протестировать поведение системы определенной версии на определенном наборе данных на определенных аппаратных конфигурациях.

Как пример: одним клиентом было обнаружено падение приложения при работе с документами. Их набор данных на компьютерах разработчиков летал без вопросов, все открывалось и не падая замечательно работало. Собрали стенд, поставили такой же linux, ту же версию ПО, опять все работает и не падает. Начали поступать уже максимально параноидально — собрали другую машину максимально приближенную по характеристикам к машине клиента, объем диска, памяти, процессор, разрешение монитора и о чудо! повторили падение. Начали разбираться: выяснили, что суть в разрешении монитора, вернее не в разрешении как таковом, а в соотношении сторон. У разработчиков и на первой тестовой машине соотношение сторон монитора было 16:9, а у второй тестовой 4:3. В итоге вычисли, что к падению приводит одна строка в qss. Что было, конечно, большой неожиданностью. Так вот к чему этот пример. На момент этих тестов такого репозитория не было и на каждую собранную машину пришлось по старинке через scp копировать deb пакеты, ручками же ставить зависимости, после чего устанавливать сами пакеты и только потом проверять. Вместо того, чтобы за пару минут установить через aptitude со всеми зависимостями.

Пришлось гуглить. Нагуглилась в итоге статья. Начал разбираться с описанными в ней вариантами. Успел посмотреть на:

  • DAK — вообще не осилил. Начал именно с нее так как “official solution”, но к стыду своему вообще не смог понять, что делать с тем деревом проекта, который стянул мне git. Поэтому особо не напрягался и продолжил читать дальше.
  • Вторым продуктом, на который обратил внимание, стал mini-dak. И как бы все понятно по конфигу и с описанием более-менее ясно. Вот только остановила невозможность сделать имена репозиториев (то, что в терминах mini-dak називается suite) такие как хочу. Например я хочу получть путь к репозитарию такой:
    deb http://SERVER_NAME/ squeeze-evolution-beta non-free

    A не могу, потому-что где-то в глубине скриптов создается имя переменной со знаками “-” что в bash-e не работает. Попытки доработать скрипты напильником успехом не увенчались, ибо мой уровень программирования на bash несколько не дотягивает до уровня человека, который их писал, а убить кучу времени на изучение всех тонкостей bash (хоть и не самое плохое времяпровождение), но все же не хотелось.

  • Третим вариантом для ознакомления был выбран aptly. И похоже, что этот инструмент подходит.

Работа с aptly

Документация у aptly достаточно подробная и с примерами. Кроме того есть bash-completion.
Возможностей у aptly очень широкие, ниже приведу лишь те команды которые я использую. Интересующимся более глубоко ознакомиться рекомендую сайт продукта.

Создание репозитория:

Можно создавать сразу со всеми параметрами:

aptly repo create -comment="Wheezy prehistoric" -distribution="wheezy-prehistoric" -architectures="i386,amd46,all" -component="non-free" wheezy-prehistoric

Можно параметры дописать позже, а создать просто так:

aptly repo create wheezy-prehistoric

Изменение параметров

Меняем параметры по одному:

aptly repo edit -comment="Wheezy prehistoric" wheezy-prehistoric

Или все сразу:

aptly repo edit -comment="Wheezy prehistoric" -distribution="wheezy-prehistoric" -architectures="i386,amd46,all" -component="non-free" wheezy-prehistoric

Просмотр существующих репозиториев

aptly list

Получение информации о репозитории

общая информация:

aptly show wheezy-prehistoric

информации со списком пакетов:

aptly repo show -with-packages wheezy-prehistoric

Добавление пакетов в репозиторий

одного файла:

aptly repo add wheezy-prehistoric build//Debian-wheezy/chameleon-core_1.3.0-wheezy46_amd64.deb

всего каталога:

aptly repo add wheezy-prehistoric build//Debian-wheezy

при добавлении несколько смутило отсутствие автодополнения пути к файлу/каталогу

Публикация репозитория

aptly publish repo wheezy-prehistoric

Удаление публикации

aptly publish drop wheezy-prehistoric

Получить граф репозиториев

aptly graph

Также есть поддержка snapshot-ов, создания зеркал, перемещения пакетов между репозиториями, поддержка зависимостей, встроенный HTTP сервер для работы с опубликованными репозиториями.

Есть одна особенность о которой написал автору — pool один общий для всех репозиториев, что есть правильно, вот только если у меня в разных репозитариях лежат файлы с одинаковым именем, но разные по содержанию и размеру при публикации этих репозитариев никаких сообщений нет, по логике должно было хоть что-то написать. И в pool-е остается лежать файл первого опубликованного репозитория.
Кстати автор очень быстро отреагировал и создал на багтрекере задачу.

Эволюция продолжается

В данный момент пакеты собираются ручками на витруальных машинах. Что не есть хорошо. Уже начаты работы по внедрению в работу Jenkins. Из всего списка доступных средств для CI был выбран именно он. Изначально был установлен TeamCity, но стоимость лицензий была непонята из-за того, что есть другие проекты, которые полностью бесплатны и обладают не худшей функциональностью. По крайней мере, это выглядит сейчас именно так. Если в процессе эксплуатации Jenkins-а его возможностей по каким-то причинам будет недостаточно (хотя с таким количеством плагинов в это слабо верится), поменяем на что-то лучшее.

P.S.

В конце статьи хотелось бы подвести итоги.
Идея статьи была описать замечательный инструмент — aptly, т.к. на просторах Хабра не нашел о нем ничего. Ну а рассказать в стиле “вот инструмент — можно пользоваться” посчитал не интересным. Решил, что будет гораздо интересней почитать, каким именно путем развивалась моя организация и какие инструменты при этом использовала ну и обратить внимание сообщества на полезный инструмент с помощью личного примера.

Спасибо за внимание.

Автор: YP977

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js