Как настроить iptables, что бы из локальной в глобальную ходить?

Имеется один паблик IP и сеть из виртуальных машин на Debian
# network interface settings auto lo iface lo inet loopback # device: eth0 auto eth0 iface eth0 inet static address 175.219.59.209 gateway 175.219.59.193 netmask 255.255.255.224 post-up echo 1 > /proc/sys/net/ipv4/conf/eth0/proxy_arp
А вот — моя сеть в двух вариантах настройки:
auto vmbr0 iface vmbr0 inet static address 10.10.0.1 netmask 255.255.0.0 bridge_ports none bridge_stp off bridge_fd 0 post-up ip route add 10.10.0.1/24 dev vmbr0
Тут я могу себе позволить ходить в Интернет, обновлять пакеты и прочие радости грешной жизни,
но в упор не вижу своих соседей по сети 10.10.11.0/24 (все запросы уходят в интернет)

А вот в этом варианте я могу замечательно общаться с соседними машинами 10.10.11.0/24, но никакого
интернета:
auto vmbr1 iface vmbr1 inet static address 10.10.0.1 netmask 255.255.255.0 bridge_ports none bridge_stp off bridge_fd 0 post-up echo 1 > /proc/sys/net/ipv4/ip_forward post-up iptables -t nat -A POSTROUTING -s '10.10.0.0/24' -o vmbr1 -j MASQUERADE post-down iptables -t nat -D POSTROUTING -s '10.10.0.0/24' -o vmbr1 -j MASQUERADE
Вот правило, придуманное где-то между 5 и 6 часами ночи/утра:
iptables -t nat -A POSTROUTING! -d '10.10.11.0/24' -j SNAT --to-source '175.219.59.209'
Оно описывает мой внутренний порыв отсылать все пакеты с адресами вне сети 10.10.11.0/24 через NAT на eth0.

А как правильно это сделать?

Что не так с fstab и где мои логи? Тайны /etc/messages?

После установки proxmox в debian перемонтировал @ data

в более удобную для меня директорию /pvedata.

# cat /etc/fstab proc /proc proc defaults 0 0 none /dev/pts devpts gid=5,mode=620 0 0 /dev/md/0 /boot ext4 defaults 0 0 ## /dev/md/1 belongs to LVM volume group 'pve' /dev/pve/swap swap swap defaults 0 0 /dev/pve/root / ext4 defaults 0 0 /dev/pve/vz /var/lib/vz ext4 defaults 0 0 /dev/pve/data /pvedata ext4 default 0 0

С тех пор каждая перезагрузка вынуждала меня ручками монтировать раздел заново.

Да-да, когда публиковал вопрос и «причесывал» колоночки, коих нет в оригинальном

файле, обнаружил-таки эту громадную ошибку на внимательность и, видимо, исправил

её. Но, все же, как-то глупо получается. Где и как смотреть логи на предмет подобных

ошибок, ценой в недельный геморрой?

Это и было той загадочная ошибкой в /etc/messages?
EXT4-fs (dm-0): warning: maximal mount count reached, running e2fsck is recommended

Как настроить дополнительные IP адреса в Ubuntu?

Как настроить дополнительные IP адреса в Ubuntu 10.04.3 LTS?
В настоящий момент содержание /etc/network/interfaces такое:
# Loopback device:
auto lo
iface lo inet loopback
# device: eth0
auto eth0
iface eth0 inet static
address 176.9.10.53
broadcast 176.9.10.63
netmask 255.255.255.224
gateway 176.9.10.33
post-up mii-tool -F 100baseTx-FD eth0
# default route to access subnet
up route add -net 176.9.10.32 netmask 255.255.255.224 gw 176.9.10.33 eth0

Мне нужно настроить IP адреса по этим данным:
IP: 78.46.25.192 /26
Mask: 255.255.255.192
Broadcast: 78.46.25.255
IP адреса от 78.46.25.193 до 78.46.25.254
К сожалению я здесь не могу действовать «методом тыка», так как при ошибочной конфигурации сервер может стать недоступным через SSH. Из за этого мне нужна ваша помощь.

Как выглядит миграция большого диска в KVM-образ?

Стоит задача перекинуть большой диск в образ, для последующего запуска его на новом сервере. Чем (для меня) усложняется задача, помимо отсутствия опыта и критичности данных на сервере:

Исходная машина
# df -h Filesystem Size Used Avail Use% Mounted on /dev/md2 1016G 31G 934G 4% / /dev/md1 496M 56M 415M 12% /boot /dev/md3 1.7T 231G 1.4T 15% /home

* Целевая машина аналогична исходной, но с proxmox в качестве KVM-менеджера

* Приблизительный KVM-контейнером на 100-300 Gb (/home мне пока не нужен)

Как выглядит процесс миграции в моем разгулявшемся воображении:

Загрузиться на исходной машине в Rescue System режиме
Урезаю GParted'ом до 40 Gb [md2] и до 120 Mb [md1] — md3 не трогаю
Монтирую md3 в качестве хранилища образов
По совету proxmox, fsarchiver'ом делаю бэкапы md2, md1 в файлы (на md3)
Раскукоживаю диски до ~прежних размеров, и перезагружаюсь в нормальный режим
Отсылаю и восстанавливаю образы на диски/разделы целевой KVM-машины
Кручу восстановленную ОС
Где я брежу, чего не вижу и какие «ключевые слова и выражения» должен посмотреть в гугле прежде?

Как не допустить swap в Linux?

С 02:00 до 06:00 (область расколбаса графика) баловался du и переносом файлов. В районе 04:00, по причине IOwait (видимо) часть процессов решила залезть в swap. Так уже бывало на этом сервере, но лечить подобные ситуации ребутом — уже не с руки. Где мог — рестартил сервисы (mysql,nginx,sphinx), где рестарт не помогал — убивал и запускал заново.

Сейчас сервер выглядит так:

/usr/bin/slabtop --sort=c
Active / Total Objects (% used): 23432931 / 23747426 (98.7%) Active / Total Slabs (% used): 2735840 / 2735866 (100.0%) Active / Total Caches (% used): 106 / 186 (57.0%) Active / Total Size (% used): 10643029.64K / 10793250.76K (98.6%) Minimum / Average / Maximum Object: 0.02K / 0.45K / 4096.00K 8301820 8299960 99% 1.00K 2075455 4 8301820K ext4_inode_cache 8400040 8376094 99% 0.19K 420002 20 1680008K dentry 4174747 4173905 99% 0.10K 112831 37 451324K buffer_head 534422 278544 52% 0.55K 76346 7 305384K radix_tree_node 2122702 2121946 99% 0.06K 35978 59 143912K size-64 33174 33121 99% 0.62K 5529 6 22116K proc_inode_cache 185 185 100% 32.12K 185 1 11840K kmem_cache 15588 15586 99% 0.58K 2598 6 10392K inode_cache
1. Как принудить ext4_inode_cache, dentry к перезапуску без ребута сервера?

2. Как задать правило, что бы swap был последним делом?

Как создать карту сети?

Доброго времени суток.

Есть корпоративная сеть (win2003), существует ли возможность создать ее карту с полной выкладкой содержимого серверов для windows?

В идеале хотелось бы увидеть что-то наподобие:

\\%servername%\%foldername1%\%foldername2%\%filename1%

\\%servername%\%foldername3%\%filename2%

etc.

Нужно привести содержимое в порядок, избавиться от лишнего, сориентироваться, что следует добавить к бэкапу. А для этого очень бы не помешала наглядная карта.
Весь софт, который я смог нагуглить, не смог уйти далее папок в корне сервера.

Может есть стандартная консольная команда (win7)?

Как настроить бридж Proxmox VE2 на Hetzner с VLAN и дефками?

Подскажите, как настроить VLAN для 5-и Proxmox-овских KVM-машин с бриджем vmbr0 наружу для vm0
(EX4 от Herzner).

То, что дает robot.your-server.de
ip: 175.19.69.209 Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223
eth0 — корневая нода. На ней интернет есть.
Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223

Хочу дать постоянный доступ vm0 c nginx и временный доступ, для остальных виртуалок, на время установки ПО. Нужно завести вторую виртуальную карту на корневой ноде? Как на это отреагирует Hetzner-овская сеть, давшая мне один IP для одного MAC? Может вместо «доп-сетевухи» eth1 нужно завести vmbr0-бридж?

Если так, то что тут должно быть на этом бридже vmbr0?
Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223

net0 — сетевуха на виртуальной машине vm0.
Настройки сети vm0 для меня совершенно не понятны.
День убил на чтение тонны «мануалов» на примерах, но не понимаю основ и ужасно туплю. Выручайте!

Как обновить список пользователей MySQL в ISP Manager?

Добрый вечер,

для управления сервером используется ISP Manager 4.4 Lite

Есть на сервере пользователь, допустим user
У него был одноименный пользователь MySQL.

Но потом, случайно, пользователя MySQL удалили.
Я зашел в PhpMyAdmin с правами root`а, и создал пользователя заного, с тем же паролем.

Всё заработало, но пользователь пропал из ISP Manager`a.
Т.е. при создании БД, его невозможно выбрать, а соответственно дать ему привелегии.

Все это, конечно, не смертельно, но создает неудобства.

Как я понимаю, у ISP`а есть свой «реестр» пользователей MySQL.
Может ктонибудь знает как его обновить, или вручную отредактировать файл настроек?

Пробовал смотреть в /usr/local/ispmgr/etc/ispmgr.conf — там есть только список владельцев БД.

/dev/simfs 100% занято на VPS, а du всего 50%. Как найти остальное?

Приветствую!
Нарисовалась проблема на хостинге VPS. Пишет — кончилось место
Вот выводы некоторых команд:
root@seed:~# df -h Filesystem Size Used Avail Use% Mounted on /dev/simfs 20G 20G 0 100% / tmpfs 5.0M 0 5.0M 0% /lib/init/rw tmpfs 52M 36K 52M 1% /run tmpfs 103M 0 103M 0% /run/shm overflow 1.0M 0 1.0M 0% /tmp

root@seed:~# df -i Filesystem Inodes IUsed IFree IUse% Mounted on /dev/simfs 400000 62540 337460 16% / tmpfs 65600 4 65596 1% /lib/init/rw tmpfs 65600 25 65575 1% /run tmpfs 65600 1 65599 1% /run/shm overflow 65600 3 65597 1% /tmp

root@seed:~# du -sh / du: cannot access `/proc/1582/task/1582/fd/4': No such file or directory du: cannot access `/proc/1582/task/1582/fdinfo/4': No such file or directory du: cannot access `/proc/1582/fd/4': No such file or directory du: cannot access `/proc/1582/fdinfo/4': No such file or directory 9.5G / root@seed:~# du -sh /var/lib/transmission-daemon/ 7.4G /var/lib/transmission-daemon/
По последней команде я вижу что 7.5Гб занимает торентокачалка (со скаченными файлами). Больше сервак я не использую никак. Посему я не могу понять куда делось еще 9Гб (2 гб я полагаю занимает операционка)?
Собственно хостер мне говорит, что мол у меня вот занято /dev/simfs все пространство и это мои файлы. Но некоторые сайты говорят, что это вообще показывает размер диска на физическом сервере, т.е. не только мою квоту.
Меня обманывают и если нет, как найти что занимает остальное место?

Как диагностирование состояние дисков в RAID в ESXi?

Что-то в последнее время участились поломки дисков в RAID-массивах на ESXi 5 серверах.
Серверов много, дисков тоже.

В логах замечено появление следующих записей:

Device naa.600605b003960ae0161e2596280d4135 performance has deteriorated. I/O latency increased from average value of 689 microseconds to 21787 microseconds.

Перезагружать ESXi и проверять массив при каждом чихе достаточно накладно.

Хотелось бы иметь инструмент для более полной проверки состояния RAID-массива и диагностики.

В ESX 4 можно было установить smartd и мониторить в Zabbix состояние дисков, здесь так нельзя.

А вы чем пользуетесь для мониторинга дисков в ESXi?