Как живет ProFTPd за NAT-ом на панели Plesk?

То, что раньше было FTP сервером 175.149.11.09 в панеле Plesk
теперь стало сервером с адресом 10.10.11.3 с проброшенным наружу портом.

MasqueradeAddress 175.149.11.09
Может это? ProFTPd этого не понять: указать в конфигах
не разрешает политика панели (до первого рестарта)

При сохранении текущих настроек и с таким правилом:
iptables -t nat -I PREROUTING -p tcp --dport 721 -j DNAT --to-destination 10.10.11.3:21
ProFTPd материться таким затейливым образом:
proftpd[12905] 127.0.0.1: fatal: Socket operation on non-socket

Как разрулить адрес, не дожидаясь обновления 8.8.8.8?

Ситуация следующая: меняем IP хостинг.площадки на Hetzner. NS — остаются те же, меняется только A-запись.
Мгновения и nameserver Hetzner отвечает правильно, но TTL обещает, что по старому адресу будут заходить еще
TTL-часов, пока не разнесется весть по интернету и не истечет тот самый TTL.

Как мне на локальной машине (WinXP) настоять на своем «разруливании» адреса?
Нужен «карманный» DNS или есть что-то типа public hetzner dns, а может какой hosts-файл?

Как настроить iptables, что бы из локальной в глобальную ходить?

Имеется один паблик IP и сеть из виртуальных машин на Debian
# network interface settings auto lo iface lo inet loopback # device: eth0 auto eth0 iface eth0 inet static address 175.219.59.209 gateway 175.219.59.193 netmask 255.255.255.224 post-up echo 1 > /proc/sys/net/ipv4/conf/eth0/proxy_arp
А вот — моя сеть в двух вариантах настройки:
auto vmbr0 iface vmbr0 inet static address 10.10.0.1 netmask 255.255.0.0 bridge_ports none bridge_stp off bridge_fd 0 post-up ip route add 10.10.0.1/24 dev vmbr0
Тут я могу себе позволить ходить в Интернет, обновлять пакеты и прочие радости грешной жизни,
но в упор не вижу своих соседей по сети 10.10.11.0/24 (все запросы уходят в интернет)

А вот в этом варианте я могу замечательно общаться с соседними машинами 10.10.11.0/24, но никакого
интернета:
auto vmbr1 iface vmbr1 inet static address 10.10.0.1 netmask 255.255.255.0 bridge_ports none bridge_stp off bridge_fd 0 post-up echo 1 > /proc/sys/net/ipv4/ip_forward post-up iptables -t nat -A POSTROUTING -s '10.10.0.0/24' -o vmbr1 -j MASQUERADE post-down iptables -t nat -D POSTROUTING -s '10.10.0.0/24' -o vmbr1 -j MASQUERADE
Вот правило, придуманное где-то между 5 и 6 часами ночи/утра:
iptables -t nat -A POSTROUTING! -d '10.10.11.0/24' -j SNAT --to-source '175.219.59.209'
Оно описывает мой внутренний порыв отсылать все пакеты с адресами вне сети 10.10.11.0/24 через NAT на eth0.

А как правильно это сделать?

Что не так с fstab и где мои логи? Тайны /etc/messages?

После установки proxmox в debian перемонтировал @ data

в более удобную для меня директорию /pvedata.

# cat /etc/fstab proc /proc proc defaults 0 0 none /dev/pts devpts gid=5,mode=620 0 0 /dev/md/0 /boot ext4 defaults 0 0 ## /dev/md/1 belongs to LVM volume group 'pve' /dev/pve/swap swap swap defaults 0 0 /dev/pve/root / ext4 defaults 0 0 /dev/pve/vz /var/lib/vz ext4 defaults 0 0 /dev/pve/data /pvedata ext4 default 0 0

С тех пор каждая перезагрузка вынуждала меня ручками монтировать раздел заново.

Да-да, когда публиковал вопрос и «причесывал» колоночки, коих нет в оригинальном

файле, обнаружил-таки эту громадную ошибку на внимательность и, видимо, исправил

её. Но, все же, как-то глупо получается. Где и как смотреть логи на предмет подобных

ошибок, ценой в недельный геморрой?

Это и было той загадочная ошибкой в /etc/messages?
EXT4-fs (dm-0): warning: maximal mount count reached, running e2fsck is recommended

Как настроить дополнительные IP адреса в Ubuntu?

Как настроить дополнительные IP адреса в Ubuntu 10.04.3 LTS?
В настоящий момент содержание /etc/network/interfaces такое:
# Loopback device:
auto lo
iface lo inet loopback
# device: eth0
auto eth0
iface eth0 inet static
address 176.9.10.53
broadcast 176.9.10.63
netmask 255.255.255.224
gateway 176.9.10.33
post-up mii-tool -F 100baseTx-FD eth0
# default route to access subnet
up route add -net 176.9.10.32 netmask 255.255.255.224 gw 176.9.10.33 eth0

Мне нужно настроить IP адреса по этим данным:
IP: 78.46.25.192 /26
Mask: 255.255.255.192
Broadcast: 78.46.25.255
IP адреса от 78.46.25.193 до 78.46.25.254
К сожалению я здесь не могу действовать «методом тыка», так как при ошибочной конфигурации сервер может стать недоступным через SSH. Из за этого мне нужна ваша помощь.

Как выглядит миграция большого диска в KVM-образ?

Стоит задача перекинуть большой диск в образ, для последующего запуска его на новом сервере. Чем (для меня) усложняется задача, помимо отсутствия опыта и критичности данных на сервере:

Исходная машина
# df -h Filesystem Size Used Avail Use% Mounted on /dev/md2 1016G 31G 934G 4% / /dev/md1 496M 56M 415M 12% /boot /dev/md3 1.7T 231G 1.4T 15% /home

* Целевая машина аналогична исходной, но с proxmox в качестве KVM-менеджера

* Приблизительный KVM-контейнером на 100-300 Gb (/home мне пока не нужен)

Как выглядит процесс миграции в моем разгулявшемся воображении:

Загрузиться на исходной машине в Rescue System режиме
Урезаю GParted'ом до 40 Gb [md2] и до 120 Mb [md1] — md3 не трогаю
Монтирую md3 в качестве хранилища образов
По совету proxmox, fsarchiver'ом делаю бэкапы md2, md1 в файлы (на md3)
Раскукоживаю диски до ~прежних размеров, и перезагружаюсь в нормальный режим
Отсылаю и восстанавливаю образы на диски/разделы целевой KVM-машины
Кручу восстановленную ОС
Где я брежу, чего не вижу и какие «ключевые слова и выражения» должен посмотреть в гугле прежде?

Как не допустить swap в Linux?

С 02:00 до 06:00 (область расколбаса графика) баловался du и переносом файлов. В районе 04:00, по причине IOwait (видимо) часть процессов решила залезть в swap. Так уже бывало на этом сервере, но лечить подобные ситуации ребутом — уже не с руки. Где мог — рестартил сервисы (mysql,nginx,sphinx), где рестарт не помогал — убивал и запускал заново.

Сейчас сервер выглядит так:

/usr/bin/slabtop --sort=c
Active / Total Objects (% used): 23432931 / 23747426 (98.7%) Active / Total Slabs (% used): 2735840 / 2735866 (100.0%) Active / Total Caches (% used): 106 / 186 (57.0%) Active / Total Size (% used): 10643029.64K / 10793250.76K (98.6%) Minimum / Average / Maximum Object: 0.02K / 0.45K / 4096.00K 8301820 8299960 99% 1.00K 2075455 4 8301820K ext4_inode_cache 8400040 8376094 99% 0.19K 420002 20 1680008K dentry 4174747 4173905 99% 0.10K 112831 37 451324K buffer_head 534422 278544 52% 0.55K 76346 7 305384K radix_tree_node 2122702 2121946 99% 0.06K 35978 59 143912K size-64 33174 33121 99% 0.62K 5529 6 22116K proc_inode_cache 185 185 100% 32.12K 185 1 11840K kmem_cache 15588 15586 99% 0.58K 2598 6 10392K inode_cache
1. Как принудить ext4_inode_cache, dentry к перезапуску без ребута сервера?

2. Как задать правило, что бы swap был последним делом?

Как создать карту сети?

Доброго времени суток.

Есть корпоративная сеть (win2003), существует ли возможность создать ее карту с полной выкладкой содержимого серверов для windows?

В идеале хотелось бы увидеть что-то наподобие:

\\%servername%\%foldername1%\%foldername2%\%filename1%

\\%servername%\%foldername3%\%filename2%

etc.

Нужно привести содержимое в порядок, избавиться от лишнего, сориентироваться, что следует добавить к бэкапу. А для этого очень бы не помешала наглядная карта.
Весь софт, который я смог нагуглить, не смог уйти далее папок в корне сервера.

Может есть стандартная консольная команда (win7)?

Как настроить бридж Proxmox VE2 на Hetzner с VLAN и дефками?

Подскажите, как настроить VLAN для 5-и Proxmox-овских KVM-машин с бриджем vmbr0 наружу для vm0
(EX4 от Herzner).

То, что дает robot.your-server.de
ip: 175.19.69.209 Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223
eth0 — корневая нода. На ней интернет есть.
Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223

Хочу дать постоянный доступ vm0 c nginx и временный доступ, для остальных виртуалок, на время установки ПО. Нужно завести вторую виртуальную карту на корневой ноде? Как на это отреагирует Hetzner-овская сеть, давшая мне один IP для одного MAC? Может вместо «доп-сетевухи» eth1 нужно завести vmbr0-бридж?

Если так, то что тут должно быть на этом бридже vmbr0?
Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223

net0 — сетевуха на виртуальной машине vm0.
Настройки сети vm0 для меня совершенно не понятны.
День убил на чтение тонны «мануалов» на примерах, но не понимаю основ и ужасно туплю. Выручайте!

Как обновить список пользователей MySQL в ISP Manager?

Добрый вечер,

для управления сервером используется ISP Manager 4.4 Lite

Есть на сервере пользователь, допустим user
У него был одноименный пользователь MySQL.

Но потом, случайно, пользователя MySQL удалили.
Я зашел в PhpMyAdmin с правами root`а, и создал пользователя заного, с тем же паролем.

Всё заработало, но пользователь пропал из ISP Manager`a.
Т.е. при создании БД, его невозможно выбрать, а соответственно дать ему привелегии.

Все это, конечно, не смертельно, но создает неудобства.

Как я понимаю, у ISP`а есть свой «реестр» пользователей MySQL.
Может ктонибудь знает как его обновить, или вручную отредактировать файл настроек?

Пробовал смотреть в /usr/local/ispmgr/etc/ispmgr.conf — там есть только список владельцев БД.