Linux-vserver или каждому сервису по песочнице

в 16:08, , рубрики: linux, virtualization, виртуализация, Серверное администрирование, метки: ,

Недавно на хабре публиковались статьи о openvz и lxc. Это напомнило мне, что эта статья всё еще валяется в sandbox'е…

Для целей размещения проектов я применяю такую схему: каждый сервис запускается в изолированной среде: боевой — отдельно, тестовый — отдельно, телефония — отдельно, веб — отдельно. Это снижает риски взлома систем, позволяет бакапить всё и вся одним rsync'ом на соседний сервер по крону, а в случае слёта железа просто поднять на соседнем железе. (А использование drbd + corosync позволяет это делаеть еще и автоматически)

Для создания изолированной среды есть два подхода, именуемые VDS (виртуализация аппаратуры) и VPS/jail (виртуализация процессного пространства).

Для создания VDS изоляций применяют XEN, VirtualBox, VMWare и прочие виртуальные машины.
Для создания VPS на linux используется либо linux-vserver, либо openvz, либо lxc.

Плюсы VDS: система внутри может быть совершенно любой, можно держать разные версии ядер, можно ставить другую ОС.
Минусы VDS: высокие потери производительности на IO, избыточное потребление CPU и RAM на сервисы, дублирующие запущенные на серверной ОС.

Плюсы VPS: крайне низкая потеря производительности, только на изоляцию, запускаются только те сервисы, которые реально необходимы.
Минусы VPS: можно запустить только linux и ядро будет только той версии, что уже запущено.

Так как мне не нужны разные ОС, то всюду применяю linux-vserver (так уж сложилось исторически, применяю с 2004го года, а openvz вышел в открытый доступ в 2005м), а lxc в моём понимании еще не дорос до продакшена (хотя и очень близок уже).

Ниже я опишу базовые операции по запуску LAMP сервера в изолированном окружении.

ОС: debian-stable, 64bit
Начиная с Wheezy поддержка vserver командой debian убрана, поэтому использую ядра с repo.psand.net/info/

Настройка корневой системы для запуска linux-vserver

  echo "deb http://repo.psand.net/ wheezy main" > /etc/apt/sources.list.d/psand.list
  wget -O - http://repo.psand.net/pubkey.txt | sudo apt-key add -
  aptitude update
  aptitude search linux-image-vserver # Ищем тут последнюю версию ядра
  aptitude install linux-image-vserver-3.13-beng util-vserver curl bzip2 # заменить 3.13 на актуальную для вас версию
  curl http://dev.call2ru.com/vs/nss_vserver_64.tar.bz2 | tar xfj -
  cd nss_vserver_64
  make
  make install
  ln -s var/lib/vservers /
  curl curl http://dev.call2ru.com/vs/vserverauth.tar.gz | tar xfz -
  cd vserverauth/vslogin/
  make
  cp vslogin /sbin/
  chmod u+s /sbin/vslogin
  echo /sbin/vslogin >> /etc/shells
  echo -e "auto dummy0niface dummy0 inet staticntaddress 192.168.1.250ntnetmask 255.255.255.0n" >> /etc/network/interfaces
  echo -e "tpre-up /sbin/iptables -t nat -A POSTROUTING -s 192.168.1.0/24 ! -d 192.168.1.0/24 -j MASQUERADEn"  >> /etc/network/interfaces
  echo -e "tpost-down /sbin/iptables -t nat -D POSTROUTING -s 192.168.1.0/24 ! -d 192.168.1.0/24 -j MASQUERADEn"  >> /etc/network/interfaces

После установки — ребут в новое ядро.

Что мы сделали:

  • Установили ядро с поддержкой linux-vserver, установили утилиты для создания/управления vserver'ами.
  • Установили мой модуль nss_vserver[1] и vslogin, который позволяет логиниться по ssh напрямую внутрь vserver'а
  • Настроили интерфейс dummy0, чтобы создать «приватную» сеть для виртуальных машин.

Это позволяет использовать один IP сервера для запуска различных сервисов, разделяя их по логину (например, чтобы войти рутом в вирутальную машину web надо просто логиниться как web-root либо как root@web).

После этого на сервере можно запускать новые сервера, привязывая их к dummy0 интерфейсу.
Всё хорошо, но созданные сервера отвечают на 192.168.1.x, а надо чтобы он был доступен извне.

Для решения этого, на руте нам понадобится еще nginx:

  aptitude install ngin
  cat > /etc/nginx/sites-available/proxy <<END
server {
        listen 80; # Либо IP:PORT
        proxy_set_header Host  $host; 
        proxy_set_header X-Forwarded-For  $proxy_add_x_forwarded_for;
        proxy_set_header X-SSL  no;

        if ($http_host ~ "(?i)(somesite.ru)$") {
                rewrite ^(.*)   /web/$1 last;
        }
        # Тут добавить дополнительные if'ы для раскидывания по другим виртуалкам

        # Тут catch-all для всех прочих
        rewrite ^(.*)     /web/$1    last;

        # Определяем форварды внутрь виртуалок
        location /web// {
                proxy_pass http://192.168.1.57/;
                proxy_read_timeout 500;
        }
}
END
  ln -s ../sites-available/proxy /etc/nginx/sites-enabled/
  /etc/init.d/nginx reload

Это позволяет все приходящие запросы на 80й порт раскидывать по разным виртуальным машинам в зависимости от имени.
При необходимости, можно использовать proxy_pass на другой внешний IP, что позволяет перемещать виртуальные сервера по разным машинам без необходимости ожидать полного обновления DNS записей, но это тема для отдельного разговора.

Теперь нам надо создать новую виртуальную машину (номер 57, имя web) в которой установим LAMP.

Создание нового vserver'а

  MIRROR=http://ftp.de.debian.org/debian
  NAME=web
  DOMAIN=mydom.ru
  CONTEXT=57
  vserver $NAME build -m debootstrap --context $CONTEXT --hostname $NAME.$DOMAIN --interface dummy0:192.168.1.$CONTEXT/24 -- -d squeeze -m $MIRROR
  echo default > /etc/vservers/$NAME/app/init/mark
  vserver $NAME start
  vserver $NAME enter
  aptitude update
  aptitude install locales
  echo -e "en_US.UTF-8 UTF-8nru_RU.UTF-8 UTF-8n" >> /etc/locale.gen
  locale-gen
  echo -e "127.0.0.1 localhost.localdomain localhost vhostn192.168.1.250 vrootn" > /etc/hosts

Это устанавливает базовую систему, делает её автозапускаемой при ребуте корневой системы.

Теперь виртуалка готова к установке в неё необходимого софта. Например, обычный LAMP:

   aptitude install apache2 libapache2-mod-php5 mysql-server php5-mysql php5-mysqli libapache2-mod-rpaf
   editor /etc/apache2/mods-available/rpaf.conf
   #  (в строке "RPAFproxy_ips 127.0.0.1" дописать еще через пробел в конце 192.168.1.57 (IP виртуалки))
  a2enmod rpaf
  /etc/init.d/apache2 restart
  exit

Всё! Теперь у вас на сервере работает апач в совершенно изолированной среде.

К проблемам этого подхода относятся:

1. Прямой вход внутрь виртуальных серверов возможен только по паролю.
2. На корневой системе никому нельзя давать доступа, поэтому на корневой системе должен стоять только проверенный минимум софта (ssh, nginx, iptables и больше ничего).
3. При необходимости прямого доступа до каких-либо портов внутри виртуальных машин, проброс нужно делать с помощью iptables.

Моменты, оставленные за кадром для простоты статьи

1. /var/lib/vservers/* желательно размещать на lvm, чтобы иметь возможность управлять выделением места для виртуальных машин независимо.
2. Управление ресурсами: просто созданная виртуальная машина может съесть все ресурсы машины. Подробнее о настройке лимитов linux-vserver.org/Resource_Limits
3. /tmp/. Внутри виртуалок по умолчанию /tmp/ создаётся как ramdisk в 16m размером. Либо сразу перед «vserver $NAME start» исправить /etc/vservers/$NAME/fstab
4. Полезные сведения, информацию и прочее про linux-vserver можно найти на linux-vserver.org/

Если будут полезные вопросы, развернутые ответы на них буду выносить в топик.

Автор: datacompboy

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js